TECH HÍREK – A Ubisoft elérte, hogy egy versenyzős játékban önmagától megtanuljon vezetni a mesterséges intelligencia révén egy jármű.
A Ubisoft La Forge, a franciák kísérletező csapata/stúdiója egy „nyilvánosan elérhető játékban” (nagy eséllyel a The Crew első vagy második részéről van szó) valósították meg azt az algoritmust, ami képes kiszámítható és elvi alapon kezelni önálló, folytatólagos videojátékbeli cselekedeteket.
„A Reinforcement Learning applikációk [megerősítésen alapuló gépi tanulási módszer – a szerk.] a videojátékokban jelentős fejlődésen mentek keresztül az Atari játékok pixelek révén való megtanulásától kezdve a komplikált, nem tökéletes, információalapú játékokban a világ legjobb játékosaival való megküzdéséig. Ezek a rendszereket nem igazán használják ki a játékiparban, és úgy hisszük, hogy a hozzáférhetőség hiánya ennek egy jelentős oka. Az igazán meghatározó eredményeket… nagy kutatócsoportok érik el számításbeli erőforrásokkal, amik messze túlmutatnak azon, amik általában elérhetőek a videojátékos stúdiók számára,” írják a kutatás társszerzői.
A Ubisoft kutatói (nyugodtan nevezhetjük őket így…) kiemelték, hogy az adatminták gyűjtése sokáig tart, és az időkorláttal is küzdenek a mesterséges intelligenciájuk fejlesztése közben. A rendszerük a Soft Actor-Critic (SAC) architektúrán alapul – ezt a berkeleyi Kaliforniai Egyetem kutatói mutatták be 2018 elején. Ez a megközelítés a minták hatékonyságát tekintve jóval hatékonyabb, mint a hagyományos megerősítésen alapuló gépi tanulás. A SAC erősen tanul, hogy általánosítson olyan körülményekben, amiket eddig nem tapasztalt. Ezt a rendszert a Ubisoft kinyújtotta egy hibrid környezetbe, amiben folytatólagos és önálló cselekedetek egyaránt vannak (Hybrid SAC; pl. egy játékosnak lehetősége van ugrani és mozogni is, és ezek olyan paraméterekhez köthetőek, mint a cél koordinátái vagy az irány). Az algoritmust három olyan környezetben értékeltek, amiben az ilyen gépi tanulási rendszereket tesztelik (egy egyszerű platformer és két futball alapú cím). Az ipari vezető technikákhoz képest lemaradást mutattak fel, ami a technológia felépítéséhez köthető. Viszont egy másik tesztben egy járművet oktattak ki egy játékkörnyezetben, hogy két folytatólagos cselekedetet (gáz, fék), és egy bináris, különálló mozdulatot (kézifék) tanuljon meg a mesterséges intelligencia. A cél az volt, hogy egy olyan meghatározott útvonalat kövessen a lehető leggyorsabban, amit az MI az edzése során még nem tapasztalt.
„Megmutattuk, hogy a Hybrid SAC sikeresen alkalmazható egy autó edzésére, hogy nagy sebességnél elvégzendő feladatot hajthasson végre egy nyilvánosan elérhető videojátékban. [Ez bemutatja] az algoritmus használhatóságát a videojátékok iparában,” írták még a szerzők. A mesterséges intelligenciának akár olyan bevitele (kontroller) is lehet, mint egy játékosnak (akinek az analóg kar folytatólagos értékeket eredményez a játék, míg a gombok, gombkombinációk különálló cselekedeteket hoznak össze).
Remélhetőleg hamarosan videóban is láthatjuk ezt a technológiát.
Forrás: VentureBeat
Kérjük, támogassátok a theGeek.hu oldalt a Patreonon, hogy fennmaradhasson, függetlenül, napi hírekkel és tesztekkel, a Patreon adományozó rendszerén keresztül! Köszönjük! theGeek csapata
Become a Patron!