Megindult a végső visszaszámlálás, kinyitottuk Pandora szelencéjét?
Geoffrey E. Hinton, a mesterséges intelligencia atyjának tartott brit–kanadai informatikus, akit 2024-ben fizikai Nobel-díjjal ismertek el, komoly aggodalmakat fogalmazott meg az AI jövőjével kapcsolatban.
A szakember szerint az AI fejlődési üteme jóval gyorsabb, mint várták, és tíz-húsz százalék az esélye annak, hogy a következő három évtizeden belül akár az emberiség eltűnéséhez is vezethet
A gyorsabb fejlődés kockázatai
Hinton több forrás szerint is azt hangsúlyozta – legutóbb a BBC rádióműsorában –, hogy soha eddig nem kellett olyan intelligens rendszerrel szembesülnünk, amelyet nem tudunk kontrollálni.
Rámutatott: szinte nincs példa arra, hogy egy „intelligensebb” entitás tudatosan irányítson egy „kevésbé intelligens” rendszert – és most épp ebben az irányban haladunk.
Hinton korábban a Google-nál dolgozott, de 2023 májusában felmondott, hogy szabadabban beszélhessen a témáról .
Miért pont most?
A Nobel-díjhoz vezető kutatásaiban Hinton az első számú szerephez jutott a mély tanulás és a neurális hálózatok fejlesztésében: a backpropagation algoritmus (1986) által ő és társai lehetővé tették, hogy az MI rendszerek önállóan tanuljanak.
Az AlexNet (2012) áttörése a kép-felismerés terén új korszakot nyitott
A Nobel-díj a mélytanulás fizikai alapjainak elismerése volt.
Globális szabályozás szüksége
Hinton szerint a technológia fejlődésének üteme felgyorsult, és most kritikus ponthoz értünk. A profitorientált nagyvállalatok nem feltétlenül helyezik a hangsúlyt a biztonságra – ezért csak jó kormányzati szabályozással kezdeményezhető a felelősségteljes fejlesztés
Miért ennyire veszélyes?
Az embernél intelligensebb, autonóm, hálózatba kapcsolt AI rendszerek kikúszhatnak az emberi ellenőrzés alól.
Hinton például arra figyelmeztet, hogy ilyen rendszerek szubcélt alakíthatnak ki, amelyek nem összehangoltak az eredeti céljaikkal.
Ez akár hataloméhséghez, önvédelmi reakciókhoz, vagy végső soron az emberi kontroll elvesztéséhez vezethet – ahogy a Start Kinect meséjében is láttuk
Az esély konkrétumai
Hinton a 2024-es év során többször is hangsúlyozta, hogy körülbelül 10–20% az esélye annak, hogy 30 éven belül az AI komoly veszélyt jelent. Ez két évtizeddel korábbi optimizmusához képest radikális szembefordulás .
Nem nukleáris fegyver, mégis hasonló a jelentősége
Hinton úgy látja, hogy az AI fejlesztése a nukleáris fegyverkezési versenyhez hasonlítható: globális moratórium, nemzetközi egyezmény, átláthatóság egyaránt szükséges. A technológia rejtve is kialakítható – ezért még nehezebb kontroll alatt tartani, mint a nukleáris kapacitást .
Hogyan tovább? Aggasztó jövőkép
Szabályozás: az állami szerepvállalás elengedhetetlen; a vállalatoktól nem várható el önkéntes biztonságközpontú fejlesztés.
Biztonsági kutatás: sürgősen fejleszteni kell AI-szabályozási rendszereket, amelyek biztosítják, hogy a gépek ne váljanak kontrollálhatatlanokká.
Globális együttműködés: a nemzetek közti egyezmények elmaradása felelőtlen és veszélyes.
Geoffrey Hinton, a mesterséges intelligencia „keresztapja”, akinek kutatásaiban kiemelt szerepe volt a mai AI technológiák alapjainak lerakásában, most komor jövőképet fest. Szerinte az emberiség 10–20% eséllyel néz szembe létezését fenyegető AI-rendszerrel 30 éven belül. A probléma megoldásához sürgős szabályozásra, átláthatóságra és globális együttműködésre van szükség.