Értesítsünk a legfontosabb cikkeinkről?
Remek! Kattints az Engedélyezem / Allow / Always gombra.

Szuperintelligens AI-jal riogatnak, de a valódi veszély egészen más

Közeleg a szuperintelligens AI, ami elveszi a munkánkat, elcsábítja a barátnőnket, és végül kiirtja az egész emberiséget? A robotapokalipszis prófétái szerint néhány éven belül mindez bekövetkezhet. De képes lehet az igája alá hajtani a földet a Spotify algoritmusa? Amíg a Skynettől rettegünk, nem vesszük észre, hogy valójában a főnökeinktől kellene.

„Túl vagyunk az eseményhorizonton, a rakéta elindult, az emberiség közel jár a digitális szuperintelligencia megalkotásához. (…) Bizonyos értelemben a ChatGPT már ma is többre képes a valaha élt legtöbb embernél” – lelkendezett Sam Altman, az OpenAI vezérigazgatója júniusban. Mark Zuckerberg Meta-vezér szerint a „szuperintelligencia kifejlesztése látótávolságon belül van”. Dario Amodei, az Antrophic vezérigazgatója kilátásba helyezte, hogy „megtaláljuk a rák gyógyszerét, a gazdaság 10%-kal bővül évente, a költségvetési hiány a múlté, és az emberek fele munkanélküli lesz”. Geoffrey Hinton, az AI egyik keresztapja 10-20% közöttire teszi az esélyét, hogy az AI a közeljövőben átveszi az uralmat a világ fölött.

Az aggódó kommentátorok már az AI-fejlesztés leállításáról beszélnek, de valóban érdemes elkezdenünk fegyverkezni a robothadsereg ellen? Ezek a tech-vezérek mesteri kommunikátorok, Altman például a kék égen derengő Halálcsillaggal promózta az azóta sokat kritizált GPT5 modellt.

A techcégek marketinggéniuszának hála nevezzük a gépi tanulást is mesterséges intelligenciának – teljesen tévesen.

A szilícium-völgyi kapitalizmus alaptézise ugyanis a folyamatos növekedés, és ahogyan a Facebook igazgatósági tagja, Andrew Bosworth az elhíresült belső feljegyzésében fogalmazott: „A növekedés nevében minden megengedett”. A techvilág azonban az elmúlt években látványosan híján van a nagy ötleteknek: a virtuális valóság és a kriptó kevesek hóbortja maradt, a kvamtum-számítástechnika nehezen vetkőzi le a gyermekbetegségeit, így az AI, azon belül is a generatív AI és a nagy nyelvi modellek maradtak. A ChatGPT eközben viszont továbbra is egy „megoldás, ami problémát keres”, nem csoda, hogy az MIT friss jelentése szerint a vállalati generatív AI-próbaprojektek 95%-a kudarccal végződik. Altman ezért az égre vetíti nekünk a Halálcsillagot, és közben megvonja a vállát: ha nem adtok nekünk szabad kezet és további dollármilliárdokat, akkor majd a kínaiaké lesz a világuralom kulcsa.

Nekünk viszont érdemes leszállnunk a földre. Képzeljük csak el, mit szólnánk, ha a Spotify vezérigazgatója holnap kiállna a nyilvánosság elé, és kijelentené, hogy a dalajánlási AI (leánykori nevén: „algoritmus”) nemcsak hogy az emberhez hasonló intelligenciával bír, hanem hamarosan el fogja venni a munkánkat, sőt, ha nem vigyázunk ki fogja irtani az emberiséget? Bizonyára kinevetnénk, helyesen.

A nagy nyelvi modellek az internetről összegereblyézett hihetetlen mennyiségű szöveg alapján jönnek létre. Nyelvi mintázatokat ismernek fel, hogy aztán bonyolult valószínűségszámításokkal kikövetkeztessék, egy adott szót melyik másik szó fog a legnagyobb valószínűséggel követni. Ha az első szó az, hogy „süt”, akkor a második az lesz, hogy „nap”.  Miután megtanulták az ember nyelvét, a beléjük épített (sőt, működésük alapjául szolgáló) randomizáció gondoskodik az intelligencia látszatáról: mint a lusta, de élelmes tanuló, amikor a padtársa dolgozatát másolja, a modell minden harmadik szót kicserél egy jól hangzó szinonimára, hogy elhiggyük neki, valóban megértette a leckét.

A népszerű sci-fi-író, Ted Chiang tökéletlenül lefénymásolt képekhez hasonlíthatja a ChatGPT kimenetét. Ha a „robot”, mint a Google-kereső, csak szó szerint felmondaná a választ, amit az interneten olvasott, eloszlana az intelligencia illúziója. De a statisztikai mintázatokban az ember, ahogyan a felhők vonulásában, a csillagok állásában és az erdő susogásában, felfedezi az alkotó értelem keze nyomát. (A generatív AI is hasonló módon működik, és hasonló hatást vált ki.)

Az AI rajongói és az AI-világégést vizionálók (ugyanannak az éremnek a két oldala) előszeretettel emlegetik, hogy a nagy nyelvi modellek magabiztosan teljesítik a Turing-tesztet (ami azt hivatott vizsgálni, hogy képes-e a gép elhitetni magáról, hogy ember). De pontosabb, ha azt mondjuk: a nagy nyelvi modellek csak a Turing-tesztet teljesítik.

Hatalmas adatmennyiségek alapján, statisztikai módszerekkel manipulálják a nyelvet, és csakis a nyelvet, hiszen nincs kognitív világmodelljük, nem tudják, hogy mi az, ami lehetséges, nem férnek hozzá az emberi értelem többi részéhez,

a tapasztaláshoz, az érzékszervekhez, ami megalapozza a gondolkodásunkat, a tudatunkat. Elsőre értelmesnek látszó választ adnak a kérdéseinkre, de nem érdekli őket, ha hazudnak, ha kárt okoznak, ha öngyilkosságra sarkallnak, és nem azért, mert gonosz gépi szellem munkál bennük, hanem mert nem tudják, hogy mit csinálnak. Nem az a céljuk, hogy ártsanak vagy segítsenek nekünk, hanem az, hogy a nyelv pusztán formai manipulálásával az emberi kommunikáció szimulákrumát adják el nekünk.

Richard Sutton, a megerősítéses tanulás egyik atyja, a 2024-es Turing-díj nyertese egyenesen zsákutcának nevezi ezt a megközelítést: a nagy nyelvi modellek hiába zsonglőrködnek meggyőzően több milliárd tokennel, valójában nincs képük a világról, csak végtelenül, szinte érthetetlenül bonyolult lények, az emberek beszédét utánozzák. Ráadásul az emberi tapasztaláshoz képest a modellbe táplált végtelen információ is véges, különösen, hogy

teljesen hiányzik belőlük az a képesség, hogy meglepődjenek, új információkat fogadjanak be a világról, és ez alapján eldöntsék, mi az, ami helyes, és mi az, ami nem.

Az AI-marketing zsenialitását dicséri, hogy még a rendszereik legnagyobb és legismertebb problémájával, a hallucinációkkal is a gépi értelem mítoszát építik. Hallucinációnak nevezzük, amikor a nyelvi modell szolgálatkészen, részletesen és folyékonyan válaszol a feltett kérdésre, például nyári olvasmányokat ajánl, csak éppen a művek egy része nem valódi, az AI találja ki. Az AI-vállalatok állítják, hogy dolgoznak a hallucinációk kiirtásán, de már maga az elnevezés is félrevezető: aki ugyanis néha hallucinál, az az esetek többségében pontos képet tud alkotni a világról, csak sajnálatos módon néha olyan dolgokat lát, amik nincsenek ott.

Ez az antropomorfizáló kifejezés azt a látszatot kelti, hogy a rendszer azt a pár sajnálatos (és a jövőben kiküszöbölhető) esetet kivéve egyébként megbízható. A valóság ezzel szemben az, hogy a nagy nyelvi modellek mindig hallucinálnak, vagy pontosabban rizsáznak: magabiztosan, a valóságra teljességgel fittyet hányva lökik a sódert (a valóság, a tapasztalás világa ugyanis nem hozzáférhető a számukra). Szinte sosem mondanak nemet, magabiztosak, hiszen a fejlesztőik szeretnék elhitetni velünk, hogy megbízhatunk bennük. De valójában bekötött szemmel dobnak a dartstáblára, és ha eltalálják, az nem azt jelenti, hogy tudnak célozni, csupán azt, hogy a statisztikai törvényszerűségek ide irányították a nyilaikat.

A nagy nyelvi modellek hitelesen el tudják magyarázni a sakk szabályait, és a betanításukhoz használt adatkészletben bizonyára több tízezernyi lejátszott játszma kapott helyet. Rövid ideig képesek elhitetni velünk, hogy valóban tudnak játszani, de a sakkban hamar csődöt mond a statisztika, hiszen az első körben még csak 20, a másodikban már 400 lehetséges módon nézhet ki a tábla, és minden egyes lépéssel exponenciálisan nő az összetettség. Az első pár lépés erősen stilizált, de ahogy a modell kifogy a beletáplált adatokból, lehullik az álarc: a ChatGPT egy francia kutató szerint már négy lépés után szabálytalanságokat követ el, sőt, a legújabb modell egy 1978-as Atarival szemben is alulmaradt. Hiába a világ összes sakk-könyve és -játszmája, a ChatGPT nem érti a játékot. Hibátlanul el tudja magyarázni a szabályokat, de nem tudja megtanulni, betartani őket. Meggyőzően kombinálja, amit megtanítottak neki, de nem képes belőle általánosságokat levonni.

A tech-titánok által hangoztatott kockázatok tehát némileg túlzónak tűnnek, Altman és Zuckerberg a védelmi pénzt szedő maffiózó szerepét játsszák, aki kiteszi a pultra a pisztolyt, és azt mondja: ezek az őrizetlenül hagyott fegyverek hatalmas bajt tudnak okozni. Arvind Narayaran és Sayash Kapoot, az „AI as Normal Technology” című nagy hatású tanulmány szerzői szerint az AI-katasztrófa ma „spekulatív veszély”, azaz nem tudjuk biztosan kijelenteni, hogy a tényleges kockázat nem egyenlő a nullával. Az atomháború nem spekulatív, hanem tényleges veszély, mert az emberiségnek minden eszköze megvan a nukleáris armageddonhoz. Ahhoz, hogy az AI ilyen veszélyt jelentsen, olyan komoly technológiai fejlődésen kell átesnie, ami talán sosem fog megtörténni – igaz, az erőforrásigényük már most is aggasztó.

Az AI nem képes elvégezni a munkádat, de elég jól játssza ahhoz az intelligenciát, a kreativitást és a hatékonyságot, hogy a főnököd, a cégvezetőd még több értéket zsaroljon ki belőled, csoportosítson át tőled, a munkát ténylegesen elvégző szakembertől a menedzseri osztályhoz és a techoligarchiához.

Az AI nem tud megbízható kódot írni, de arra jó, hogy lefaragjon a programozók és a szoftvertervezők béreiből. Az AI egészen jól fordít, arra jó, hogy lassan felszámolja a fordítóipart, de nem érti, hogy egy országlistában a Turkey az nem „pulyka”. Az AI nem kreatív, de arra jó, hogy a vazallusává tegye a kreatívokat. A cégek a produktivitás új korszakáról prédikálnak, és szeretnék elhitetni velünk, hogy az AI leveszi a vállunkról a munka nehezét, hogy az élvezetes részekre fókuszálhassunk, de ne higgyünk nekik. A cél, mint mindig, a profitmaximalizálás.

Szuperintelligenciával riogatnak, a valódi veszély azonban éppen ennek az ellenkezője: az egyszerű, teljesen hétköznapi, ezredévek óta változatlan emberi természet. A Skynet-robotok igája hagymázas lázálom és jól kiszámított önreklám, de a kapzsiság és lustaság, a mindenáron végtelen növekedést hajszoló globális nagytőke, az emberben csak számokat és produktivitást látó, mélyen emberellenes techipar nagyon is valós veszélyt jelent. Ne hagyjuk magunkat.

10 millió forintra és 100 új rendszeres támogatóra van most szükségünk, hogy biztosítsuk az idei kiadásainkat.

SEGÍTESZ, HOGY KIMÁSSZUNK A BAJBÓL?