TECH HÍREK – A két amerikai techcég egy-egy képviselője az Egyesült Királyság egyik bizottsága előtt hozta a formát…
Sajnos hazánkban túlzottan gyakori, hogy a pártállam embere nem válaszol a feltett, és legtöbbször jogos kérdésre, és vagy elmenekül, vagy kitérő módon nem válaszol arra, amire kellene, hanem előszedi a vádaskodás-kártyát. Ehhez hasonló produkciót adott elő Rob Sherman (a Meta politikai alelnökével és adatvédelmi vezetőhelyettese) és Owen Larter (a Microsoft globális felelős mesterséges intelligencia közpolitikáért felelős igazgatója) a Lordok Házának kommunikációs és digitális bizottsága előtt. Itt megvitatták az LLM-eket (nagyméretű nyelvi modelleket) és a mesterséges intelligencia néhány szélesebb körű következményét.
A bizottság elnöke, Stowell bárónő (Beeston) bárónője rákérdezett, hogy képes-e bármelyik cég visszahívni egy mesterséges intelligencia modellt, ha azt veszélyesnek ítélik, vagy le tudják-e állítani annak további alkalmazását. Erre Sherman válasza kissé eltért attól, amiről beszélni kellett volna:
„Azt hiszem, ez attól függ, hogy milyen technológiáról van szó és hogyan használják… Az egyik dolog, ami nagyon fontos, hogy előre átgondoljuk ezeket a dolgokat, mielőtt kiadjik őket… Számos más intézkedést is hozhatunk, így például, ha egy modellt kiadunk, sok munkát kell elvégeznie annak, akit a modell telepítőjének nevezünk, tehát nem csak egy szereplő felelős a technológia bevezetéséért. Amikor kiadtuk a Llamát, kiadtunk egy felelős felhasználási útmutatót, amely arról szól, hogy a technológia alkalmazója milyen lépéseket tehet annak érdekében, hogy biztosítsa a technológia biztonságos használatát, és ez olyan dolgokat foglal magában, mint például az úgynevezett finomhangolás, ami azt jelenti, hogy a modellt a megfelelő módon használjuk… és aztán ott van a kimenetek szűrése, hogy amikor valaki végfelhasználóként használja, a modellt felelősségteljesen és átgondoltan használja,” mondta Sherman.
Larter nem válaszolt, de a diskurzus több témát lefedett, és valamelyest időkorláttal bírt, ám az, hogy a Meta nem reagált, a céget jellemzi. Csakhogy idővel egyikük sem tudta kifejteni, hogy miről szólt a vita. Sherman korábban a felelőtlen mesterséges intelligencia-használat lehetséges kockázataival kapcsolatban feltette a kérdést: „Melyek azok a kockázatok, amelyekre gondolunk, melyek azok az eszközök, amelyekkel felmérhetjük, hogy léteznek-e ezek a kockázatok, és aztán mik azok a dolgok, amelyeket meg kell tennünk ezek mérséklése érdekében?”
Mindketten úgy látták, hogy a diskurzust folytatni kell, de egyikük sem volt lelkes. Sokszor csak annyi volt a reakciójuk, hogy dolgoznak valamin, de ez nem informatív.
Forrás: PCGamer