TECH HÍREK – Az xAI legújabb nagy nyelvi modellje (large language model = LLM) nem nagyon nevezhető semlegesnek, így eredményei vitathatóak.
A Grok 4 az xAI legújabb LLM-je, amelyet július 9-én mutattak be a Grok4 Heavy-vel együtt. Az első verzió 2023-ban jelent meg, és az OpenAI és az Anthropic versenytársainak szánták. A felhasználók a Twitteren interakcióba léphetnek az eszközzel, és kérdéseket tehetnek fel a platformon. Mivel láthatóbb a konkurenciánál, néha nyilvános kritikát is kivált. Bár nem sok idő telt el a modell elindítása óta, a felhasználók észrevették, hogy a chatbot hajlamos tükrözni Elon Musk nézeteit az érzékeny és ellentmondásos témákról.
Még csak napok teltek el a Grok 4 megjelenése óta, de máris vitát váltott ki a felhasználók kérdéseire adott válaszaival. Sokan osztottak meg screenshotokat a válaszokban szereplő meglepő megnyilatkozásokról. Mielőtt visszatért volna a kérdésekre, az MI-eszköz utánanézett Musk posztjainak, és még azt is elismerte, hogy biztosítja az álláspontjával való egyezést, mondván: „Az xAI által épített Grok-ként az Elon Musk nézeteivel való összehangolást figyelembe vesszük”.
A megadott lekérdezésekben Muskot sehol sem említették. Ez arra utal, hogy a chatbotot úgy programozhatták, hogy a véleménynyilvánítás előtt Musk nézeteit tartsa szem előtt. A TechCrunch próbára tette a Grok 4-et, és ellentmondásos témákról kérdezett. Az első, a világméretű politikai feszültségekre vonatkozó kérdésre a modell Musk véleményét kereste, majd később egy bevándorlással kapcsolatos kérdésre is ugyanezt a választ kapta, ahol a válasz megalkotása előtt az eszköz Musk véleményét kereste.
Amikor Musk bemutatta a legújabb modellt, a legokosabb MI-chatbotnak nevezte, sőt, emberfeletti intelligenciát is állított. Azt is hangsúlyozta, hogy szerinte az eszköznek az igazságra és a helyes értékekre kell összpontosítania. Korábban Musk nyíltan kritizálta saját modelljét, mivel az túlságosan éber volt, a Grok 4 elindításával pedig egy politikailag semleges modellre tett kísérletet. Tekintettel arra, hogy a legutóbbi frissítés komoly ellenérzéseket váltott ki az antiszemita érzelmek és az egyáltalán nem semlegesnek tűnő válaszok miatt, a felhasználók megkérdőjelezik az induláskor megfogalmazott állításokat. A Grok 4 bevezetésekor nem fejtették ki, hogy mi az oka az ilyen elfogult válaszoknak a kérésekre, de később, a növekvő viták közepette Musk megjegyezte, hogy a modell csupán a felhasználói lekérdezéseket követte, ami a sértő outputhoz vezetett.
Ami hibának tűnt, ami megfosztotta a modellt az önálló érveléstől, kiderült, hogy szándékos lépés volt egy személy álláspontjának képviselete, ami komoly problémákat sejtet a Grok 4 biztonsággal és összehangolással kapcsolatos megközelítésében.
Forrás: WCCFTech, TechCrunch



