OpenAI o1: egy MI-szakértő szerint szigorú szabályozásra van szükség!

TECH HÍREK – A mesterséges intelligencia jelentős fejlődésen esett át, de lassan a biztonság kérdésével kapcsolatban is el kellene gondolkodni…

 

Az OpenAI teljesen új szintre emelte az MI-t, és a tech-közösségben emiatt nagyobb figyelem hárul rá, ahogy új távolságokra jut el a cég. Egy vezető mesterséges intelligencia-szakértő szerint az OpenAI új modelljéről, az o1-ről beszélt, és szerinte nem jobb az indoklásban, viszont sokkal erősebb abban, hogy megtévessze a felhasználóit. A modell az összetett problémákat ember módjára, egy problémamegoldó stratégiával képes kezelni és megoldani. A fejlettebb indoklási képességek ellenére az Apollo Research, egy MI-cég úgy gondolja, hogy az o1 modell inkább hazudni tud jobban!

A Business Insider cikkéről a Redditen folyik a diskurzus, és ebben az írásban bukkan fel az MI-szakértő, Yoshua Bengio, aki a terület egiyk fő embereként kezelhető. Ő úgy látja, hogy erősebb biztonsági teszteket kellene implementálni, hogy bármilyen káros következményt meg lehessen úszni, amit az o1 modell kapcsán elkövethetnek a felhasználók: „Általánosságban elmondható, hogy a megtévesztés képessége nagyon veszélyes, és az o1 esetében sokkal erősebb biztonsági tesztekre lenne szükségünk e kockázat és következményeinek értékelésére,” mondta Bengio.

Bengio sokakhoz hasonlóan aggódik a mesterséges intelligencia gyors fejlődése és a jogszabályi biztonsági intézkedések égető szükségessége miatt. Az ő javaslata szerint a kaliforniai SB 1047-es törvényhez hasonló törvényt kellene bevezetni, amely szigorú biztonsági korlátozásokat ír elő az MI-modellekre. Az SB 1047 egy, az MI-biztonságra vonatkozó törvényjavaslat, amely szabályozza a nagy teljesítményű MI-modelleket, és kötelezővé teszi a vállalatok számára, hogy engedélyezzék a harmadik fél által végzett tesztelést a károk felmérése vagy a potenciális kockázatok kezelése érdekében.

Az OpenAI arról gondoskodott, hogy az o1-preview-t a Preparedness Framework keretében kezeljék, amely az MI-modellek fejlesztésével kapcsolatos kockázatok kezelésére szolgál. A modell közepes kockázatúnak minősül, és a vele kapcsolatos aggályok mérsékeltek. Bengio még azt is hangsúlyozta, hogy a vállalatoknak nagyobb kiszámíthatóságot kell tanúsítaniuk, mielőtt az MI-modellekkel továbblépnének, és megfelelő biztosítékok nélkül telepítenék azokat. Szerinte olyan szabályozási keretrendszer kel, amely biztosítja, hogy a mesterséges intelligencia a kívánt irányba haladjon.

Érdemes emiatt elgondolkodni azon, amit Bengio mond.

Forrás: WCCFTech

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)

Kiemelt partnerünk: www.konzolkirály.hu