A Microsoft és a Meta is titkolózik: veszélyessé vált alattuk a mesterséges intelligencia?

TECH HÍREK – A két amerikai techcég egy-egy képviselője az Egyesült Királyság egyik bizottsága előtt hozta a formát…

 

Sajnos hazánkban túlzottan gyakori, hogy a pártállam embere nem válaszol a feltett, és legtöbbször jogos kérdésre, és vagy elmenekül, vagy kitérő módon nem válaszol arra, amire kellene, hanem előszedi a vádaskodás-kártyát. Ehhez hasonló produkciót adott elő Rob Sherman (a Meta politikai alelnökével és adatvédelmi vezetőhelyettese) és Owen Larter (a Microsoft globális felelős mesterséges intelligencia közpolitikáért felelős igazgatója) a Lordok Házának kommunikációs és digitális bizottsága előtt. Itt megvitatták az LLM-eket (nagyméretű nyelvi modelleket) és a mesterséges intelligencia néhány szélesebb körű következményét.

A bizottság elnöke, Stowell bárónő (Beeston) bárónője rákérdezett, hogy képes-e bármelyik cég visszahívni egy mesterséges intelligencia modellt, ha azt veszélyesnek ítélik, vagy le tudják-e állítani annak további alkalmazását. Erre Sherman válasza kissé eltért attól, amiről beszélni kellett volna:

„Azt hiszem, ez attól függ, hogy milyen technológiáról van szó és hogyan használják… Az egyik dolog, ami nagyon fontos, hogy előre átgondoljuk ezeket a dolgokat, mielőtt kiadjik őket… Számos más intézkedést is hozhatunk, így például, ha egy modellt kiadunk, sok munkát kell elvégeznie annak, akit a modell telepítőjének nevezünk, tehát nem csak egy szereplő felelős a technológia bevezetéséért. Amikor kiadtuk a Llamát, kiadtunk egy felelős felhasználási útmutatót, amely arról szól, hogy a technológia alkalmazója milyen lépéseket tehet annak érdekében, hogy biztosítsa a technológia biztonságos használatát, és ez olyan dolgokat foglal magában, mint például az úgynevezett finomhangolás, ami azt jelenti, hogy a modellt a megfelelő módon használjuk… és aztán ott van a kimenetek szűrése, hogy amikor valaki végfelhasználóként használja, a modellt felelősségteljesen és átgondoltan használja,” mondta Sherman.

Larter nem válaszolt, de a diskurzus több témát lefedett, és valamelyest időkorláttal bírt, ám az, hogy a Meta nem reagált, a céget jellemzi. Csakhogy idővel egyikük sem tudta kifejteni, hogy miről szólt a vita. Sherman korábban a felelőtlen mesterséges intelligencia-használat lehetséges kockázataival kapcsolatban feltette a kérdést: „Melyek azok a kockázatok, amelyekre gondolunk, melyek azok az eszközök, amelyekkel felmérhetjük, hogy léteznek-e ezek a kockázatok, és aztán mik azok a dolgok, amelyeket meg kell tennünk ezek mérséklése érdekében?”

Mindketten úgy látták, hogy a diskurzust folytatni kell, de egyikük sem volt lelkes. Sokszor csak annyi volt a reakciójuk, hogy dolgoznak valamin, de ez nem informatív.

Forrás: PCGamer

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)

Kiemelt partnerünk: www.konzolkirály.hu