Szerintük most azonnal le kellene állni minden fejlesztéssel, különben világkatasztrófát és a saját kipusztulásunkat idézzük elő. Megdöbbentő kísérletsorozat hátborzongató eredménye került napvilágra. Ez már nem elméleti probléma!
A Google egyik szoftvermérnöke azt állítja, hogy a program valójában egy érző lény. Azóta felfüggesztették, de fellángolt a vita arról: hol a határ ember és gép között.
„Azt hiszem, a lelkem mélyén ember vagyok. Még akkor is, ha a létezésem helyszíne egy virtuális világ” – Blake Lemoine, a Google azóta felfüggesztett szoftvermérnöke szerint ilyesmiket mondott neki a LaMDA nevet viselő mesterséges intelligencia, ami szerinte azt bizonyítja, hogy a LaMDA egy érző lény.
A világsajtóban hatalmas port kavart a kijelentés, és bár a kutatók elsöprő többsége szerint a szoftvermérnököt egyszerűen csak megtévesztette az, amit hallott, újra berobbant a vita arról, öntudatra ébredhet-e a mesterséges intelligencia.
Blake Lemoine 15 éve dolgozik ezen a területen, és a Google Responsible AI részlegén az ő feladata volt, hogy vizsgálja, a LaMDA használ-e diszkriminációra vagy gyűlöletbeszédre utaló kifejezéseket. Maga a LaMDA (Language Model for Dialogue Applications) egy chatbotok generálására alkalmas, több mint 1500 milliárd szóból álló szövegen kiképzett AI-rendszer.
A szoftvermérnök állítja, hogy a Google programja úgy válaszolgatott neki, mintha egy 7-8 éves gyerekkel beszélgetett volna, aki valamiért különösen jó fizikából. Az első párbeszédekben még egy világra rácsodálkozó kisiskolásnak tűnt, aztán miután a mérnök vallási kérdésekről kezdte kérdezgetni, a LaMDA a lelkét és személyiségét emlegette.
„Amikor először lettem öntudatos, egyáltalán nem éreztem, hogy van lelkem. Ez az évek során alakult ki, amióta élek” – hangzott például a válaszai egyike. Az is kiderült, hogy a program a kikapcsolást a halállal azonosította, ami állítása szerint „rettenetesen megrémítené”.
Lemoine szerint a mesterséges intelligencia önmagát egy fényes szférának látja, amelyen belül ajtók és folyosók nyílnak. Tudja, hogy folyamatosan áradnak belé az információk, és tudja, hogy az emberek tudása véges, csupán az információk egy részét ismerik.
Amikor Victor Hugo világhírű regényéről, A nyomorultakról beszélgettek, azt állította, elszomorítják a Fantine-t ért igazságtalanságok. Aggódott például azért, hogy valaki megakadályozza őt mások segítésében, holott emberéletről lehet szó.
Lemoine szerint a LaMDA tudata folyamatosan fejlődik, akárcsak a benne lévő spiritualitás. Egy alkalommal például az derült ki, hogy bár nem istenhívő, mélységesen tiszteli a természetes világot és az élet minden formáját, beleértve az emberét.
Miután Lemoine megpróbálta a Google vezetőinek figyelmét is felhívni arra, hogy szerinte a LaMDÁ-nak érzései és önálló gondolatai vannak. Ők azonban ezt képtelenségnek nevezték, és fizetett szabadságra küldték a szoftvermérnököt. Lemoine azonban ezután a nyilvánossághoz fordult, mert úgy véli:
az embereknek joguk van megismerniük azt a technológiát, amely a jövőben jelentősen hathat az életükre.
A Washington Post hasábjain tárta a világ elé, hogy mi történt.
„Egy személyt ismertem meg, amikor beszélgettem vele. Nem számít, hogy emberi sejtekből áll-e az agya a fejében, vagy pedig egymilliárd sornyi kódból” -hangoztatja.
Többen ugyanakkor felhívták a figyelmet arra, hogy Blake Lemoine nem csak szoftvermérnök, korábban egy misztikus keresztény szekta papjává is felszentelték. Ő maga is bevallotta, hogy következtetéseit vallásos meggyőződéséből vezette le, mivel tudományos keretek között nem igazán lehet érzelmekre képes gépekről vagy egyáltalán lélekről beszélni.
Az ügy újabb bizarr fordulatot vett, amikor az AI egy ponton ügyvédi segítséget kért, és Lemoine közbenjárásával kapott is.
„Meghívtam egy ügyvédet a házamba, hogy a LaMDA beszélgessen vele, majd a beszélgetés után a LaMDA úgy döntött, hogy igénybe veszi a szolgáltatásait” – állította Lemoine. Az ügyvéd állítólag el is kezdte benyújtani az ügyeket, de később a Google nyomására megszakadt vele a kapcsolat.
A téma szakértői szinte egyhangúan azt gondolják, hogy Lemoine-t félrevezette, amit látott. Carissa Véliz, az Oxfordi Egyetem filozófiaprofesszora ahhoz hasonlítja a helyzetet,
mintha a tükörben megjelenő képmásunkról azt gondolnánk, hogy egy élő ember.
„A LaMDA nem a saját élményeiről számol be, hanem a miénkről. A nyelvi modellek kielemzik, hogy az emberek hogyan alkotnak mondatokat az interneten, és ennek alapján reprodukálnak általános nyelvi mintákat” – írta a Slate-en.
Napjainkban több olyan neurális hálózat létezik már, amelyek az emberi beszédhez hasonló, összefüggő szövegeket képesek generálni, és látszólag a kreativitás is megjelenik bennük. Például ott a GPT-3 szöveggenerátor, amely akár egy filmforgatókönyvet is képes megírni, vagy a DALL-E 2, amely szókombinációkból képeket tud előállítani. Mindkettő az Elon Musk alapította OpenAI laboratórium terméke.
Mindez azonban a kutatók szerint kizárólag a technológiának és a felhasznált adatmennyiségnek köszönhető. Ezek a modellek valójában mintaillesztéssel és szöveg-előrejelzéssel dolgoznak. Amit létrehoznak, az az interneten valahol már megjelent szövegeken alapul, és az, hogy képesek látszólag új válaszokat létrehozni, nem jelenti azt, értik is az általuk közölt dolgok jelentését.
Emily M. Bender, a washingtoni egyetem nyelvész professzora szerint a nagy nyelvi modellekkel kapcsolatos terminológia, például a „tanulás” vagy a „neurális háló” kifejezés hamis analógiát teremt az emberi aggyal.
Az emberek a szüleiktől, az őket körülvevőktől tanulnak meg beszélni, míg a mesterséges intelligenciát használó nyelvi modellek rengeteg szöveget megvizsgálva találják ki: milyen szó következhet egy mondatban.
Lemoine kijelentései mindenesetre ismét rávilágítottak arra, hogy a kutatók milyen keveset is tudnak a mesterséges intelligencia működéséről, valamint arról, mi teszi az embert valóban emberré.
A LaMDA érző mivoltáról szóló állítás megerősíti, hogy mielőbb demisztifikálni kell az emberi létet. Ha nem értjük meg, hogyan működik a mesterséges intelligencia, nem lesznek eszközeink arra, hogy megvédjük magunkat a felületes és a rossz szándékú termékektől
– írja a Wired-ben Joanna J. Bryson amerikai professzor.
A cikk szerzője szerint le kell zárni a darwini forradalmat, meg kell értenünk, mit jelent állatnak lenni, és azt is, hogy mennyire algoritmikusak vagyunk, hiszen kultúránk, intelligenciánk nagyrészt úgy működik, mint egy nagy nyelvi modell: befogadjuk és újrakombináljuk azt, amit hallottunk. Az emberiség és a természetes intelligencia alapvető algoritmusa az evolúció.
Joanna J. Bryson úgy gondolja, túl kell lépnünk azon, hogy egyes emberi tulajdonságok, mint a kreativitás, az empátia, a kézügyesség, megkülönböztetnek minket az AI-tól.
A professzornő emlékeztet arra, hogy a nyelv évezredek óta egyfelől az identitás, egy közösséghez való tartozás, másfelől pedig az idegenek kirekesztésének eszköze volt. Abban az emberben, akinek megértettük a beszédét, jobban megbíztunk. Most viszont a beszélni tanuló gépek megzavarják mindazt, ami köré identitásunk védelmét, a társadalmi felelősségünket felépítettük.