Közeleg a szuperintelligens AI, ami elveszi a munkánkat, elcsábítja a barátnőnket, és végül kiirtja az egész emberiséget? A robotapokalipszis prófétái szerint néhány éven belül mindez bekövetkezhet. De képes lehet az igája alá hajtani a földet a Spotify algoritmusa? Amíg a Skynettől rettegünk, nem vesszük észre, hogy valójában a főnökeinktől kellene.
„Túl vagyunk az eseményhorizonton, a rakéta elindult, az emberiség közel jár a digitális szuperintelligencia megalkotásához. (…) Bizonyos értelemben a ChatGPT már ma is többre képes a valaha élt legtöbb embernél” – lelkendezett Sam Altman, az OpenAI vezérigazgatója júniusban. Mark Zuckerberg Meta-vezér szerint a „szuperintelligencia kifejlesztése látótávolságon belül van”. Dario Amodei, az Antrophic vezérigazgatója kilátásba helyezte, hogy „megtaláljuk a rák gyógyszerét, a gazdaság 10%-kal bővül évente, a költségvetési hiány a múlté, és az emberek fele munkanélküli lesz”. Geoffrey Hinton, az AI egyik keresztapja 10-20% közöttire teszi az esélyét, hogy az AI a közeljövőben átveszi az uralmat a világ fölött.
Az aggódó kommentátorok már az AI-fejlesztés leállításáról beszélnek, de valóban érdemes elkezdenünk fegyverkezni a robothadsereg ellen? Ezek a tech-vezérek mesteri kommunikátorok, Altman például a kék égen derengő Halálcsillaggal promózta az azóta sokat kritizált GPT5 modellt.
A techcégek marketinggéniuszának hála nevezzük a gépi tanulást is mesterséges intelligenciának – teljesen tévesen.
A szilícium-völgyi kapitalizmus alaptézise ugyanis a folyamatos növekedés, és ahogyan a Facebook igazgatósági tagja, Andrew Bosworth az elhíresült belső feljegyzésében fogalmazott: „A növekedés nevében minden megengedett”. A techvilág azonban az elmúlt években látványosan híján van a nagy ötleteknek: a virtuális valóság és a kriptó kevesek hóbortja maradt, a kvamtum-számítástechnika nehezen vetkőzi le a gyermekbetegségeit, így az AI, azon belül is a generatív AI és a nagy nyelvi modellek maradtak. A ChatGPT eközben viszont továbbra is egy „megoldás, ami problémát keres”, nem csoda, hogy az MIT friss jelentése szerint a vállalati generatív AI-próbaprojektek 95%-a kudarccal végződik. Altman ezért az égre vetíti nekünk a Halálcsillagot, és közben megvonja a vállát: ha nem adtok nekünk szabad kezet és további dollármilliárdokat, akkor majd a kínaiaké lesz a világuralom kulcsa.
Nekünk viszont érdemes leszállnunk a földre. Képzeljük csak el, mit szólnánk, ha a Spotify vezérigazgatója holnap kiállna a nyilvánosság elé, és kijelentené, hogy a dalajánlási AI (leánykori nevén: „algoritmus”) nemcsak hogy az emberhez hasonló intelligenciával bír, hanem hamarosan el fogja venni a munkánkat, sőt, ha nem vigyázunk ki fogja irtani az emberiséget? Bizonyára kinevetnénk, helyesen.
A nagy nyelvi modellek az internetről összegereblyézett hihetetlen mennyiségű szöveg alapján jönnek létre. Nyelvi mintázatokat ismernek fel, hogy aztán bonyolult valószínűségszámításokkal kikövetkeztessék, egy adott szót melyik másik szó fog a legnagyobb valószínűséggel követni. Ha az első szó az, hogy „süt”, akkor a második az lesz, hogy „nap”. Miután megtanulták az ember nyelvét, a beléjük épített (sőt, működésük alapjául szolgáló) randomizáció gondoskodik az intelligencia látszatáról: mint a lusta, de élelmes tanuló, amikor a padtársa dolgozatát másolja, a modell minden harmadik szót kicserél egy jól hangzó szinonimára, hogy elhiggyük neki, valóban megértette a leckét.
A népszerű sci-fi-író, Ted Chiang tökéletlenül lefénymásolt képekhez hasonlíthatja a ChatGPT kimenetét. Ha a „robot”, mint a Google-kereső, csak szó szerint felmondaná a választ, amit az interneten olvasott, eloszlana az intelligencia illúziója. De a statisztikai mintázatokban az ember, ahogyan a felhők vonulásában, a csillagok állásában és az erdő susogásában, felfedezi az alkotó értelem keze nyomát. (A generatív AI is hasonló módon működik, és hasonló hatást vált ki.)
Az AI rajongói és az AI-világégést vizionálók (ugyanannak az éremnek a két oldala) előszeretettel emlegetik, hogy a nagy nyelvi modellek magabiztosan teljesítik a Turing-tesztet (ami azt hivatott vizsgálni, hogy képes-e a gép elhitetni magáról, hogy ember). De pontosabb, ha azt mondjuk: a nagy nyelvi modellek csak a Turing-tesztet teljesítik.
Hatalmas adatmennyiségek alapján, statisztikai módszerekkel manipulálják a nyelvet, és csakis a nyelvet, hiszen nincs kognitív világmodelljük, nem tudják, hogy mi az, ami lehetséges, nem férnek hozzá az emberi értelem többi részéhez,
a tapasztaláshoz, az érzékszervekhez, ami megalapozza a gondolkodásunkat, a tudatunkat. Elsőre értelmesnek látszó választ adnak a kérdéseinkre, de nem érdekli őket, ha hazudnak, ha kárt okoznak, ha öngyilkosságra sarkallnak, és nem azért, mert gonosz gépi szellem munkál bennük, hanem mert nem tudják, hogy mit csinálnak. Nem az a céljuk, hogy ártsanak vagy segítsenek nekünk, hanem az, hogy a nyelv pusztán formai manipulálásával az emberi kommunikáció szimulákrumát adják el nekünk.
Richard Sutton, a megerősítéses tanulás egyik atyja, a 2024-es Turing-díj nyertese egyenesen zsákutcának nevezi ezt a megközelítést: a nagy nyelvi modellek hiába zsonglőrködnek meggyőzően több milliárd tokennel, valójában nincs képük a világról, csak végtelenül, szinte érthetetlenül bonyolult lények, az emberek beszédét utánozzák. Ráadásul az emberi tapasztaláshoz képest a modellbe táplált végtelen információ is véges, különösen, hogy
teljesen hiányzik belőlük az a képesség, hogy meglepődjenek, új információkat fogadjanak be a világról, és ez alapján eldöntsék, mi az, ami helyes, és mi az, ami nem.
Az AI-marketing zsenialitását dicséri, hogy még a rendszereik legnagyobb és legismertebb problémájával, a hallucinációkkal is a gépi értelem mítoszát építik. Hallucinációnak nevezzük, amikor a nyelvi modell szolgálatkészen, részletesen és folyékonyan válaszol a feltett kérdésre, például nyári olvasmányokat ajánl, csak éppen a művek egy része nem valódi, az AI találja ki. Az AI-vállalatok állítják, hogy dolgoznak a hallucinációk kiirtásán, de már maga az elnevezés is félrevezető: aki ugyanis néha hallucinál, az az esetek többségében pontos képet tud alkotni a világról, csak sajnálatos módon néha olyan dolgokat lát, amik nincsenek ott.
Ez az antropomorfizáló kifejezés azt a látszatot kelti, hogy a rendszer azt a pár sajnálatos (és a jövőben kiküszöbölhető) esetet kivéve egyébként megbízható. A valóság ezzel szemben az, hogy a nagy nyelvi modellek mindig hallucinálnak, vagy pontosabban rizsáznak: magabiztosan, a valóságra teljességgel fittyet hányva lökik a sódert (a valóság, a tapasztalás világa ugyanis nem hozzáférhető a számukra). Szinte sosem mondanak nemet, magabiztosak, hiszen a fejlesztőik szeretnék elhitetni velünk, hogy megbízhatunk bennük. De valójában bekötött szemmel dobnak a dartstáblára, és ha eltalálják, az nem azt jelenti, hogy tudnak célozni, csupán azt, hogy a statisztikai törvényszerűségek ide irányították a nyilaikat.
A nagy nyelvi modellek hitelesen el tudják magyarázni a sakk szabályait, és a betanításukhoz használt adatkészletben bizonyára több tízezernyi lejátszott játszma kapott helyet. Rövid ideig képesek elhitetni velünk, hogy valóban tudnak játszani, de a sakkban hamar csődöt mond a statisztika, hiszen az első körben még csak 20, a másodikban már 400 lehetséges módon nézhet ki a tábla, és minden egyes lépéssel exponenciálisan nő az összetettség. Az első pár lépés erősen stilizált, de ahogy a modell kifogy a beletáplált adatokból, lehullik az álarc: a ChatGPT egy francia kutató szerint már négy lépés után szabálytalanságokat követ el, sőt, a legújabb modell egy 1978-as Atarival szemben is alulmaradt. Hiába a világ összes sakk-könyve és -játszmája, a ChatGPT nem érti a játékot. Hibátlanul el tudja magyarázni a szabályokat, de nem tudja megtanulni, betartani őket. Meggyőzően kombinálja, amit megtanítottak neki, de nem képes belőle általánosságokat levonni.
A tech-titánok által hangoztatott kockázatok tehát némileg túlzónak tűnnek, Altman és Zuckerberg a védelmi pénzt szedő maffiózó szerepét játsszák, aki kiteszi a pultra a pisztolyt, és azt mondja: ezek az őrizetlenül hagyott fegyverek hatalmas bajt tudnak okozni. Arvind Narayaran és Sayash Kapoot, az „AI as Normal Technology” című nagy hatású tanulmány szerzői szerint az AI-katasztrófa ma „spekulatív veszély”, azaz nem tudjuk biztosan kijelenteni, hogy a tényleges kockázat nem egyenlő a nullával. Az atomháború nem spekulatív, hanem tényleges veszély, mert az emberiségnek minden eszköze megvan a nukleáris armageddonhoz. Ahhoz, hogy az AI ilyen veszélyt jelentsen, olyan komoly technológiai fejlődésen kell átesnie, ami talán sosem fog megtörténni – igaz, az erőforrásigényük már most is aggasztó.
Az AI nem képes elvégezni a munkádat, de elég jól játssza ahhoz az intelligenciát, a kreativitást és a hatékonyságot, hogy a főnököd, a cégvezetőd még több értéket zsaroljon ki belőled, csoportosítson át tőled, a munkát ténylegesen elvégző szakembertől a menedzseri osztályhoz és a techoligarchiához.
Az AI nem tud megbízható kódot írni, de arra jó, hogy lefaragjon a programozók és a szoftvertervezők béreiből. Az AI egészen jól fordít, arra jó, hogy lassan felszámolja a fordítóipart, de nem érti, hogy egy országlistában a Turkey az nem „pulyka”. Az AI nem kreatív, de arra jó, hogy a vazallusává tegye a kreatívokat. A cégek a produktivitás új korszakáról prédikálnak, és szeretnék elhitetni velünk, hogy az AI leveszi a vállunkról a munka nehezét, hogy az élvezetes részekre fókuszálhassunk, de ne higgyünk nekik. A cél, mint mindig, a profitmaximalizálás.
Szuperintelligenciával riogatnak, a valódi veszély azonban éppen ennek az ellenkezője: az egyszerű, teljesen hétköznapi, ezredévek óta változatlan emberi természet. A Skynet-robotok igája hagymázas lázálom és jól kiszámított önreklám, de a kapzsiság és lustaság, a mindenáron végtelen növekedést hajszoló globális nagytőke, az emberben csak számokat és produktivitást látó, mélyen emberellenes techipar nagyon is valós veszélyt jelent. Ne hagyjuk magunkat.
SEGÍTESZ, HOGY KIMÁSSZUNK A BAJBÓL?