AI Crime Prediction by mohla obvinit špatné lidi

Obsah:

AI Crime Prediction by mohla obvinit špatné lidi
AI Crime Prediction by mohla obvinit špatné lidi
Anonim

Klíčové poznatky

  • Softwarová společnost údajně shromažďuje informace ze sociálních médií, aby vytvořila profily, které lze použít k identifikaci lidí, kteří představují bezpečnostní rizika.
  • Voyager Labs uzavřely významnou dohodu s japonskou vládní agenturou.
  • Odborníci ale varují, že předpovědní software umělé inteligence může být oklamán.
Image
Image

Vaše online informace by mohly být použity k předpovědi, zda byste mohli spáchat trestný čin.

Voyager Labs údajně shromažďuje informace ze sociálních médií za účelem vytváření profilů, které lze použít k identifikaci lidí, kteří představují bezpečnostní rizika. Jde o součást rostoucí snahy využívat umělou inteligenci (AI) k vyšetřování potenciálních zločinců. Někteří odborníci však tvrdí, že toto hnutí je plné potenciálních problémů.

„Je velmi těžké předvídat lidské chování,“řekl webu Lifewire v e-mailovém rozhovoru Matthew Carr, bezpečnostní výzkumník z Atumcell Group. "Nejsme schopni předvídat ani naše vlastní chování, natož chování někoho jiného. Myslím si, že je možné, že by umělá inteligence mohla být v budoucnu pro tento účel využita, ale v současnosti jsme na hony vzdáleni tomu, abychom toho byli schopni."

Vytváření profilů

Jak nedávno informoval The Guardian, t losangeleské policejní oddělení zkoumalo použití softwaru Voyager Lab pro předpovídání kriminality. Společnost také oznámila, že uzavřela významnou dohodu s japonskou vládní agenturou.

Japonská dohoda poskytuje vládní agentuře vyšetřovací platformu založenou na umělé inteligenci, která analyzuje obrovské množství informací z jakéhokoli zdroje, včetně otevřených a hlubokých dat.

„Jsem rád, že spolupracujeme v boji proti teroru a zločinu,“řekl Divya Khangarot, výkonný ředitel APAC ve Voyager Labs, v tiskové zprávě. "Pomocí špičkových zpravodajských řešení Voyager Lab získávají naši klienti jedinečné schopnosti proaktivně identifikovat a narušovat potenciální hrozby. Přinášíme další vrstvy hlubokých investigativních poznatků pomocí kombinace AI, strojového učení a OSINT k odhalování skrytých stop, informací, které byly porušeny,," dodal. a špatní herci."

Nejste tak chytrý?

V e-mailovém rozhovoru však Matt Heisie, spoluzakladatel společnosti Ferret.ai, která také používá umělou inteligenci k předpovídání pachatelů, zpochybnil některá tvrzení laboratoří Voyager.

"Existuje tak jasná souvislost mezi, řekněme, záznamem o zatčení a budoucím kriminálním chováním, jako je černá skvrna na testu a vznik nádoru?" řekl. „Přemýšlejte o všech potenciálních zmatcích, které se staly při zatčení – v jaké čtvrti daná osoba žila, množství a kvalita, dokonce i předsudky, policie v této oblasti. Věk osoby, její pohlaví, její fyzický vzhled, to vše má prolínající vliv na pravděpodobnost, že tato osoba bude mít záznam o zatčení, zcela odděleně od její skutečné náchylnosti spáchat trestný čin, který se snažíme předvídat."

Obžalovaní s lepšími právníky budou s větší pravděpodobností schopni zabránit tomu, aby se záznamy staly veřejně dostupnými, řekla Heisie. Některé jurisdikce omezují zveřejňování střel nebo záznamů o zatčení, aby chránily obviněné.

"Počítač se bude učit na základě dat, která mu poskytnete, a začlení všechna zkreslení, která byla součástí tohoto sběru dat…"

„To vše přidává algoritmům další zkreslení,“dodal. "Počítač se bude učit na základě dat, která mu poskytnete, a začlení všechny předsudky, které byly do tohoto sběru dat použity, do učení a interpretace."

Bylo několik pokusů vytvořit zločin, který by předpovídal AI, a s často skandálními výsledky, řekla Heisie.

COMPAS, algoritmus, který orgány činné v trestním řízení používají k předpovídání recidivy, se často používá při určování trestu a kauce. Od roku 2016 čelila skandálu kvůli rasové zaujatosti a předpovídala, že černí obžalovaní představují vyšší riziko recidivy než ve skutečnosti, a naopak pro bílé obžalované.

Více než 1 000 technologů a vědců, včetně akademiků a odborníků na umělou inteligenci z Harvardu, MIT, Google a Microsoftu, se v roce 2020 vyslovilo proti článku, který tvrdil, že výzkumníci vyvinuli algoritmus, který dokáže předvídat kriminalitu pouze na základě Heisie poznamenala, že publikování takových studií posiluje již existující rasovou zaujatost v systému trestní justice.

Image
Image

Čína je největším a nejrychleji rostoucím trhem pro tento typ technologie, a to především díky širokému přístupu k soukromým datům, s více než 200 miliony sledovacích kamer a pokročilým výzkumem umělé inteligence zaměřeným na tento problém již mnoho let, řekla Heisie. Systémy, jako je CloudWalk's Police Cloud, se nyní používají k předvídání a sledování zločinců a určení vymáhání práva.

"Avšak i tam jsou hlášeny podstatné zkreslení," řekla Heisie.

Heisie dodal, že jeho společnost pečlivě zpracovává data, která se do nich vkládá, a nepoužívá výstřely ani záznamy o zatčení, „místo toho se zaměřuje na objektivnější kritéria.“

„Naše umělá inteligence se učila z upravených dat, ale co je důležitější, učí se také od lidí, kteří sami analyzují, spravují a vyhodnocují záznamy a říkají nám o svých interakcích s ostatními,“dodal. „Zachováváme také plnou transparentnost a bezplatný a veřejný přístup k naší aplikaci (tak rychle, jak je můžeme pustit do beta verze), a vítáme vhled do našich procesů a postupů.“

Doporučuje: