TECH HÍREK – A mesterséges intelligencia jelentős fejlődésen esett át, de lassan a biztonság kérdésével kapcsolatban is el kellene gondolkodni…
Az OpenAI teljesen új szintre emelte az MI-t, és a tech-közösségben emiatt nagyobb figyelem hárul rá, ahogy új távolságokra jut el a cég. Egy vezető mesterséges intelligencia-szakértő szerint az OpenAI új modelljéről, az o1-ről beszélt, és szerinte nem jobb az indoklásban, viszont sokkal erősebb abban, hogy megtévessze a felhasználóit. A modell az összetett problémákat ember módjára, egy problémamegoldó stratégiával képes kezelni és megoldani. A fejlettebb indoklási képességek ellenére az Apollo Research, egy MI-cég úgy gondolja, hogy az o1 modell inkább hazudni tud jobban!
A Business Insider cikkéről a Redditen folyik a diskurzus, és ebben az írásban bukkan fel az MI-szakértő, Yoshua Bengio, aki a terület egiyk fő embereként kezelhető. Ő úgy látja, hogy erősebb biztonsági teszteket kellene implementálni, hogy bármilyen káros következményt meg lehessen úszni, amit az o1 modell kapcsán elkövethetnek a felhasználók: „Általánosságban elmondható, hogy a megtévesztés képessége nagyon veszélyes, és az o1 esetében sokkal erősebb biztonsági tesztekre lenne szükségünk e kockázat és következményeinek értékelésére,” mondta Bengio.
Bengio sokakhoz hasonlóan aggódik a mesterséges intelligencia gyors fejlődése és a jogszabályi biztonsági intézkedések égető szükségessége miatt. Az ő javaslata szerint a kaliforniai SB 1047-es törvényhez hasonló törvényt kellene bevezetni, amely szigorú biztonsági korlátozásokat ír elő az MI-modellekre. Az SB 1047 egy, az MI-biztonságra vonatkozó törvényjavaslat, amely szabályozza a nagy teljesítményű MI-modelleket, és kötelezővé teszi a vállalatok számára, hogy engedélyezzék a harmadik fél által végzett tesztelést a károk felmérése vagy a potenciális kockázatok kezelése érdekében.
Az OpenAI arról gondoskodott, hogy az o1-preview-t a Preparedness Framework keretében kezeljék, amely az MI-modellek fejlesztésével kapcsolatos kockázatok kezelésére szolgál. A modell közepes kockázatúnak minősül, és a vele kapcsolatos aggályok mérsékeltek. Bengio még azt is hangsúlyozta, hogy a vállalatoknak nagyobb kiszámíthatóságot kell tanúsítaniuk, mielőtt az MI-modellekkel továbblépnének, és megfelelő biztosítékok nélkül telepítenék azokat. Szerinte olyan szabályozási keretrendszer kel, amely biztosítja, hogy a mesterséges intelligencia a kívánt irányba haladjon.
Érdemes emiatt elgondolkodni azon, amit Bengio mond.
Forrás: WCCFTech