Ve filmu Minority Report z roku 2002, kde hlavní roli ztvárnil Tom Cruise, dokáže policista předvídat kriminální činy ještě dříve před tím, než se skutečně stanou. Ačkoli se nám v tehdejší době mohla zdát tato myšlenka pousmáníhodná, dnes se již může jednat o realitu.
Technologie, která byla již úspěšně využita, ukázala, že dokáže předpovídat trestnou činnost s až 90% přesností. Avšak tato technologie je předmětem kontroverze, protože může prohlubovat stávající předsudky, které se týkají způsobu, jakým policejní síly pracují s určitými oblastmi nebo komunitami.
Pokud policisté s rasistickými sklony cílí na určité oblasti a tato data jsou využita pro trénink AI, mohlo by to vést k dalšímu zaměření na tyto oblasti. V nedávném AI Act Evropské unie byly systémy pro prediktivní policii zakázány společně s dalšími technologiemi, jako je software pro rozpoznávání emocí. Více se můžete dočíst zde: Evropský parlament hlasovat pro přijetí nové legislativy AI Act (ainovinky.cz)
Klasické metody vs. AI v předpovídání zločinů
Tradiční metody předpovídání zločinů, které policie používá, jsou založeny na mapování hlášených trestných činů a identifikaci tzv. „kriminálních hotspotů“. Na rozdíl od toho AI analyzuje datasety k odhalení vzorců a předpovídá, kde by mohly trestné činy v blízké budoucnosti nastat.
Výzkum provedený na University of Chicago vedl k vývoji algoritmu, který může předpovědět trestné činy s týdenním předstihem a s až 90% přesností. Tento výzkum také poukázal na problémy v systému trestního soudnictví, například na skutečnost, že zločiny v bohatších oblastech vedou častěji k zatčení než v chudších oblastech.
Obrázek 1 – DALL-E 3: Kamera umístěná v temné uličce
Využití AI k Předpovídání kriminality: Příklady
Kromě abstraktního povídání se nám tu však již začínají rýsovat reálné příklady implementace AI bezpečnostních systémů do fungující infrastruktury.
Tak například v Richmondu ve Virginii byla AI použita k předpovídání náhodné střelby zbraní během Silvestra. Díky tomuto přístupu došlo k poklesu náhodné střelby o 47 %, podle místního policejního oddělení.
Britské policejní síly využily software od společností jako IBM, Microsoft a Palantir pro predikci zločinů a potenciálních pachatelů.
Pentagon plánuje do roku 2026 nasadit tisíce cenově efektivních, autonomních vozidel s AI, aby udržel krok s vojenskými schopnostmi Číny.
Chybná data = Chybné výsledky
Jedním z hlavních problémů AI v této oblasti je, že pokud je „nakrmena“ daty z problematických policejních sborů s historií rasových předsudků, může docházet k posilování těchto zkreslených názorů. Experti varují před „tech-washingem“, kdy se technologie používá jako zástěrka pro cílené pronásledování určitých menšin.
Kate Crawford, spoluzakladatelka a spoludirektorka AI Now, v roce 2019 upozornila: „Systém je pouze tak dobrý, jako jsou data, na kterých je vytrénován. Pokud jsou data nesprávná, může dojít k dalšímu zaměření na již přehnaně sledované a často rasově cílené komunity.“
Shrnutí
- Umělá inteligence (AI) se stává realitou v předvídání zločinů, přičemž některé studie uvádějí až 90% přesnost.
- Prediktivní technologie AI může zvyšovat stávající policejní předsudky, zejména pokud jsou k trénování použita data z problematických oblastí.
- Příklady z praxe zahrnují snížení náhodného střelby v Richmondu a využití softwaru od velkých technologických firem britskými policejními silami. Do hry vstupuje také Pentagon s plánem implementace tisíce bezpečnostních AI systémů.
- Kontroverze kolem AI v prediktivní policii spočívá v potenciálu posilování rasových a sociálních předsudků.