Joe Biden olyan rendeletet írt alá, ami a mesterséges intelligencia fejlesztését befolyásolhatja.
Ezzel a lépéssel lényegében azt akarja az amerikai elnök, hogy ne valósuljon meg a Skynet, mert ha nem kezelik helyén az MI-t, az tényleg elszabadulhat, és a rendelet segítségével elő lehet segíteni azt, hogy a rendszerek biztonságosak és megbízhatóak lesznek a kifejlesztett szabványok, eszközök és tesztek jóvoltából. Az amerikai kormányzat így tudomást szerezhet a mesterséges intelligencia modelljeinek releváns adatairól is.
Biden a deepfake-ekre is felhívta a figyelmet, ugyanis szerinte egy három másodperces hangfelvétel is elegendő ahhoz, hogy valami olyasmit mondjon, amit ő sosem, és tapasztalt már ilyesmit a csalóknak köszönhetően (ő használta ezt a kifejezést). A rendelet az eddigi legátfogóbb intézkedéseket tartalmazza az amerikaiak védelme érdekében az MI-rendszerek potenciális kockázataival szemben.
A nemzetbiztonságot, a nemzetgazdasági biztonságot vagy a nemzeti közegészségügyet és közbiztonságot súlyosan veszélyeztető mesterséges intelligenciájú rendszereket fejlesztő vállalatoknak a biztonsági tesztek eredményeit és más kritikus adatokat kell megosztaniuk az amerikai kormánnyal a védelmi termelési törvénynek megfelelően. Olyan szabványok, eszközök és tesztek lesznek kidolgozva, amelyeket több ügynökség (köztük a nemzeti szabványügyi és technológiai intézet, a belbiztonsági minisztérium és az energiaügyi minisztérium) határoz meg és alkalmaz, hogy a rendszerek biztonságosak és megbízhatóak legyenek. Továbbá cél új szabványok kidolgozása a biológiai szintézisek szűrésére, hogy megvédjék az MI-t az új és veszélyes biológiai anyagok létrehozására való felhasználásának kockázata ellen. A mesterséges intelligencia által generált tartalmak felismerésére és a hivatalos tartalmak hitelesítésére vonatkozó szabványok és legjobb gyakorlatok kidolgozása is ki lett tűzve a csalás és a dezinformáció terjedése elleni védelem érdekében.
Az algoritmikus diszkrimináció ellen is fel kell lépni a rendelet szerint, de azért ez az idézet („a legjobb gyakorlatok kidolgozása a mesterséges intelligenciának a büntetéskiszabás, a feltételes szabadlábra helyezés és a próbaidőre bocsátás, az előzetes letartóztatás, a kockázatértékelés, a felügyelet, a bűnügyi előrejelzés és a prediktív rendőri tevékenység, valamint a törvényszéki elemzés terén történő alkalmazására vonatkozóan”) már kissé gyanúsan szó. Egy nemzeti MI-kutatóforrás létrehozása is a tervek között szerepel, és a releváns információk a kutatóknak és tanulóknak itt elérhetőek lesznek. A Kongresszustól bipartizán (mindkét párt általi) fellépést is kért, hogy a mesterséges intelligenciájú rendszerek edzése és felhasználása során az adatvédelem is biztosított legyen.
A rendelet ugyanazon a napon jelent meg, amikor a G7-es országok bejelentették, hogy megállapodtak a mesterséges intelligencia fejlesztésének irányadó elveiről és a fejlesztők önkéntes magatartási kódexéről az úgynevezett hirosimai folyamat keretében, amelyet májusban hoztak létre a fejlett mesterséges intelligencia rendszerek globális szintű védőkorlátjainak előmozdítása érdekében. „Hiszünk abban, hogy a hirosimai mesterséges intelligencia-folyamat keretében tett közös erőfeszítéseink elősegítik egy olyan nyitott és lehetővé tevő környezet kialakulását, amelyben biztonságos és megbízható mesterséges intelligencia-rendszereket terveznek, fejlesztenek, telepítenek és használnak a technológia előnyeinek maximalizálása és kockázatainak csökkentése mellett, a közjó érdekében világszerte, beleértve a fejlődő és feltörekvő gazdaságokat is, amelyekben kevés a digitális szakadék megszüntetése és a digitális integráció megvalósítása,” fogalmaztak a G7 vezetői közös nyilatkozatukban. A G7-ek arra is felszólították a mesterséges intelligenciával működő rendszerek fejlesztőit, hogy kötelezzék el magukat egy nemzetközi magatartási kódex mellett, és közölték, hogy ezen iránymutatások első aláíróit a közeljövőben bejelentik.
Erős lépések.
Forrás: PCGamer