Az Egyesült Királyság Tom Cruise filmjéből merít ihletet: mesterséges intelligenciával jósolnák meg a bűnözőket

MOZI HÍREK – A brit kormány egy olyan mesterséges intelligencia alapú rendszeren dolgozik, amely képes lehet előre jelezni, ki követhet el gyilkosságot. A projekt, amelyet eredetileg „Homicide Prediction Project” néven indítottak, jelenleg a „Sharing Data to Improve Risk Assessment” nevet viseli, és célja a bűnmegelőzés új szintre emelése. A kezdeményezés azonban komoly vitákat váltott ki, mivel sokan attól tartanak, hogy az algoritmusok megerősítik a meglévő társadalmi előítéleteket és diszkriminációt.

 

A brit Igazságügyi Minisztérium által vezetett projekt célja, hogy a bűnügyi és próbaidős adatok elemzésével azonosítsa azokat az egyéneket, akiknél magas a kockázata annak, hogy súlyos erőszakos bűncselekményt követnek el. A rendszer több százezer ember adatait használja fel, beleértve a nevüket, születési dátumukat, etnikai hovatartozásukat, nemüket és mentális egészségükkel kapcsolatos információkat. Bár a minisztérium hangsúlyozza, hogy csak elítélt bűnözők adatait használják, a jogvédő szervezetek, mint a Statewatch, azt állítják, hogy az áldozatok és más, büntetlen előéletű személyek adatai is bekerülnek az elemzésbe.

 

Intézményesített előítéletek és etikai aggályok

 

A Statewatch szerint az ilyen rendszerek alkalmazása megerősíti az intézményesített rasszizmust és diszkriminációt a büntető igazságszolgáltatásban. Az algoritmusok gyakran a múltbeli, előítéletekkel terhelt adatokra támaszkodnak, ami azt eredményezi, hogy a marginalizált közösségek, különösen a faji kisebbségek és az alacsony jövedelmű csoportok, aránytalanul nagyobb figyelmet kapnak. A kritikusok szerint az ilyen rendszerek nemcsak etikailag problémásak, hanem hatékonyságuk is megkérdőjelezhető, mivel nincsenek megbízható bizonyítékok arra, hogy valóban csökkentik a bűnözést.

Az Amnesty International is figyelmeztetett arra, hogy az ilyen előrejelző rendszerek gyakran előítéleteket kódolnak be, és nem objektívek. A szervezet szerint ezek a rendszerek nemcsak hogy nem hatékonyak, de veszélyesek is lehetnek, mivel megerősítik a meglévő társadalmi egyenlőtlenségeket és előítéleteket.

 

A kormány válasza és a nemzetközi trendek

 

A brit kormány hangsúlyozza, hogy a projekt jelenleg kutatási fázisban van, és célja a közbiztonság javítása a kockázatelemzés fejlesztésével. A minisztérium szerint a rendszer nem kerül azonnali bevezetésre, és kizárólag elítélt bűnözők adatait használják fel. Emellett rámutatnak arra is, hogy más országok, például Argentína, Kína és Dél-Korea is hasonló technológiák integrálásán dolgoznak a társadalomba.

Ennek ellenére a jogvédő szervezetek továbbra is aggályosnak tartják a projektet, és felszólítják a kormányt, hogy állítsa le a fejlesztést, és inkább a szociális jóléti szolgáltatásokba fektessen be, ahelyett hogy „kétes és rasszista AI és algoritmusok” fejlesztésére költené az erőforrásokat.

Forrás: 3DJuegos

Spread the love
Avatar photo
theGeek is here since 2019.