TECH HÍREK – Azaz annyira felgyorsul a fejlődése, hogy azt ma már nem vagyunk képesek teljesen megérteni és megjósolni?
Az OpenAI leleplezte az eddigi legerősebb, mesterséges intelligencián alapuló nagy nyelvi modelljét (LLM), a GPT-4 Turbót, amelynek „gyártásra kész” verziója néhány héten belül, tehát legkésőbb 2024 elején el is rajtol. Az eredeti GPT-4-et 2021. szeptemberéig bezáruló információkkal edzették, míg a GPT-4 Turbo ennél modernebb adatokkal épült fel, mert 2023 áprilisáig bezárólag rendelkezik információkkal.
Két változata van. Az egyik a szövegelemzésre specializálódott, míg a másik képes a szöveges és képi kontextus feldolgozására és értelmezésére. Az előbbi már elérhető egy API-előzetes változaton keresztül. Az új mesterséges intelligencia-modell üzemeltetése jelentősen olcsóbb lenne a fejlesztők számára, mivel a bemenet mindössze 1 cent 1000 tokenenként (a szöveg vagy kód alapvető egysége, amelyet az LLM a válasz generálásához használ), szemben a vanília GPT-4 modell esetében alkalmazott 3 centes árral. Mindkét esetben a kimenet 1000 tokenenként körülbelül 3 cent lenne. Az OpenAI legújabb ajánlata a DALL-E 3 integráción keresztül továbbra is támogatni fogja a szöveg-beszéd kéréseket, a képalapú bevitelt és a képgenerálási kéréseket.
A GPT-4 Turbo a hírek szerint képes egyetlen promptba zárt, rendkívül bonyolult feladatok kezelésére a sokkal kimerítőbb képzésének köszönhetően. A legnagyobb változás azonban az LLM token-kontextusablakához kapcsolódik, amely egy adott LLM bemeneti és kimeneti adatainak gazdagságát vagy mélységét jelzi. A GPT-4 Turbo körülbelül négyszer nagyobb kontextusablakot kínál, mint a GPT-4, és 128 000 token feldolgozására képes. A kontextus szempontjából 1000 token nagyjából 750 szónak felel meg. Így az OpenAI legújabb terméke 96 ezer szó feldolgozására képes. Az Anthropic Claude 2 jelenleg csak 100 ezer token feldolgozására képes.
Joseph Ayoub, a rug.ai és a Diffusion alapítója a Twitteren taglalta, hogy a GPT-4 Turbo a legnagyobb lépés a mesterséges intelligencia szingularitása felé: „Tegnap az OpenAI kiadta a GPT-4 Turbot. Ez a legnagyobb lépés a szingularitás felé, amit életünkben láttunk. Az MI szingularitás az a felismerés, hogy az MI meghaladja az emberi intelligenciát. Az MI már most is képes nagyobb adathalmazokat pontosabban kiszámítani, mint az emberek ilyen hatalmas számítási teljesítmény mellett, de az intelligencia nem a nagy adathalmazok kiszámításának képessége. Az intelligencia meghatározása tág, de az én értelmezésem szerint az intelligencia az a képesség, hogy racionálisan konvergáljunk a helyes válaszhoz. Intelligensnek lenni, de nem jutni el a helyes következtetésekre nem egyenlő az intelligenciával; helyesnek lenni, de nem racionálisan eljutni a válaszra szintén nem egyenlő az intelligenciával.
Miért jelentős ez az OpenAI frissítés? Megfizethetően megnövelték a modelljeik által feldolgozható kontextust 8k-ról 128k-ra. Ez azt jelenti, hogy a GPT-4 most már képes beszélgetést folytatni, miközben ~90.000 szót „megjegyez és feldolgoz”, mielőtt választ adna. A kontextus az intelligens számítás egyik legnagyobb korlátja. Nagyobb kontextus nélkül a modellek nem képesek nagyobb adathalmazokat, összetettebb problémákat kezelni. Ez a fejlesztés azt jelenti, hogy most már hatalmas adathalmazokat is be lehet adni, és intelligensebb válaszokat kaphatunk. Ezért jobb az emberi intelligencia, mint a mesterséges. Több évnyi felfedezés és megértés során képesek vagyunk megérteni az adathalmazok, a világ, a probléma szélesebb kontextusát. A mesterséges intelligencia modellekkel ellentétben nekünk rövid- ÉS hosszú távú memóriánk is van, míg a modelleknek csak rövid távú. De a kontextus növekedésével a modell kognitív képessége a hosszú távú memóriával a többszörösére nő. Ez a fejlesztés megkönnyíti a modellek számára, hogy a feladatok megoldásához saját programokat hozzanak létre. Ez csak annyit jelent, hogy a modellek hatékonyabban képesek önmagukban megoldani nehezebb feladatokat. Egy hipotetikus forgatókönyvben ez a kontextusra vonatkozó áttörés azt jelenti, hogy egy modellt egy adott területről szóló tudományos dolgozatok nagy adathalmazának felhasználásával képezhetünk ki, és új, újszerű kérdéseket tehetünk fel. És ennek következtében új, újszerű válaszokat kapnánk olyan problémákra, amelyeket az emberek még nem oldottak meg…
Tehát ha a modellek képesek több kontextusban megoldani a problémákat (több hosszú távú memóriát használva), és jobban képesek feldolgozni az adatokat, mint az emberek, akkor nehezebb problémákat is meg tudnak oldani, amelyeket mi nem tudunk, és okosabbak nálunk. Ennek széleskörű következményei vannak. Személyes meggyőződésem, hogy számos olyan problémát, amellyel az emberek ma szembesülnek, az MI fog megoldani. A tudományos felfedezésektől kezdve a hosszú életig. Szélesebb kontextusban az AI intelligensebben tud közelíteni a helyes válaszhoz. Ezek a modellek az emberi intelligencia kiterjesztése. Ennek érdekében az MI nem fog minket helyettesíteni, hanem bizonyos mértékig szuperhatalmat ad nekünk (konkrétan kit kellene kérdezni?),” írta Ayoub.
Itt a fényes jövő?
Forrás: WCCFTech