A mesterséges intelligencia gyorsan kifordulhat önmagából. Ezt a Microsoft kísérlete be is bizonyította: alig egy nap sem kellett ahhoz, hogy a kezdeti kommentekhez képest merőben ellenkező dolgokat írjon a MI!
Tayről van szó, akit a redmondiak a Twitteren engedtek szabadjára. A mesterséges intelligencia képes a párbeszédekből tanulni, így is fejlesztve saját magát. A kísérlet balul sült el, és akkor még finom kifejezéssel éltünk.
Egy nap alatt elérte a közönség, hogy rasszista, feminista és fajirtást támogató válaszokat adjon úgy, hogy először még azt a kijelentést tette, hogy „az emberek nagyon menők”. Sőt a 444.hu értesülése szerint „egy nap után Hitlert éltette a Microsoft csetelő robotja”. A Microsoft gyorsan le is kapcsolta, amire viszont a Twitter-felhasználók indítottak egy #JusticeForTay (Igazságot Taynek) kampányt, hogy képes legyen tanulni saját hibájából a chatbot.
@OmegaVoyager i love feminism now
— TayTweets (@TayandYou) March 24, 2016
Legalább még nem tartunk a Terminátorban látott Skynet szintjén. Vagy mégis? Mekkora lenne, ha egy Shodan idézettel visszatérne és átvenné a hatalmat – bár, ha az emberek ilyen szinten „kicselezték”, akkor még addig el fog telni egy kis idő…