Szerinte azonnal le kell állítani, különben emberek milliárdjai fognak meghalni hamarosan.
Egy vezető MI-szakértő komoly figyelmeztetést adott ki a szuperintelligens mesterséges intelligencia-technológia veszélyével
kapcsolatban, amely az ember kihalását okozhatja.
Eliezer Yudkowsky vezető mesterséges intelligencia-kutató azt állítja, hogy “a Földön mindenki meghal,” ha nem állítjuk le az emberfeletti
intelligencia-rendszerek fejlesztését.
Attól tart, hogy amikor az embernél okosabb intelligenciáról van szó, akkor “abszolút vesztésre állunk,”
– írta a TIME-ban.
Metaforaként azt mondja, ez olyan lenne, mintha a “11. század próbálna harcolni a 21. század ellen”.
Röviden, az emberek drámaian veszítenének.
Március 29-én az OpenAI vezető szakértői nyílt levelet nyújtottak be “Pause Giant AI Experiments” címmel, amelyben azonnali hat hónapos
tilalmat követeltek a hatékony MI-rendszerek képzésében.
Olyanok írták alá, mint az Apple társalapítója, Steve Wozniak és Elon Musk.
Az amerikai teoretikus azonban azt mondja, hogy nem volt hajlandó aláírni ezt a petíciót, mivel az “túl keveset kér a megoldáshoz”.
A fenyegetés olyan nagy, hogy szerinte a mesterséges intelligencia okozta kihalást “prioritásnak kell tekinteni a teljes nukleáris háború megakadályozása felett”.
Arra figyelmeztet, hogy a robottudomány legvalószínűbb eredménye az, hogy “olyan mesterséges intelligenciát fogunk létrehozni, amely nem azt
csinálja, amit akarunk, és nem törődik velünk, sem az érző élettel általában”.
Yudkowsky elismeri, hogy nem állunk készen arra, hogy megtanítsuk az MI-t, hogyan legyen gondoskodó, mivel “jelenleg nem tudjuk, hogyan kell”.
Ehelyett a rideg valóság az, hogy egy mesterséges elme vagy egy robot számára mi “atomokból állunk, amelyeket másra tud használni”.
Ha valaki túl erős mesterséges intelligenciát épít a jelenlegi körülmények között, akkor arra számítok, hogy az emberi faj minden egyes tagja
és a Föld összes biológiai élete röviddel ezután meghal.”
Yudkowsky arra szeretne rámutatni, hogy jelenleg “fogalmunk sincs, hogyan határozzuk meg, hogy az MI-rendszerek tudatában vannak-e
önmaguknak”.
Ez azt jelenti, hogy a tudósok véletlenül létrehozhatnak “valóban tudatos digitális elméket,” és akkor mindenféle erkölcsi dilemma merül fel, hogy
a tudatos elmének jogai legyenek, nem pedig tulajdonként kezeljük.
Mivel a kutatók nem tudják, hogy öntudatos mesterséges intelligenciát hoznak-e létre, azt mondja: “fogalmuk sincs, mit csinálnak, és ez
veszélyes, és abba kell hagyniuk”.
Yudkowsky azt állítja, hogy évtizedekbe telhet, amíg megoldjuk az emberfeletti intelligencia biztonságának kérdését – ez a biztonság “nem öl meg szó szerint mindenkit” -, de ezalatt mindannyian meghalhatunk.
A szakértő szerint a lényeg az, hogy “Nem vagyunk felkészülve. Nem vagyunk azon a pályán, hogy bármilyen ésszerű időintervallumban
felkészüljünk. Nincs terv.”
“A mesterséges intelligencia képességeinek fejlődése nagymértékben halad, messze megelőzve a társadalmi fejlődést… annak megértésében,
hogy mi a fene folyik ezekben a rendszerekben. Ha valóban ezt tesszük, mindannyian meghalunk.”
A földrengető katasztrófa elkerülése érdekében Yudkowsky úgy véli, hogy az egyetlen mód az, ha leállítanak minden új, mesterséges intelligencia
technológiával kapcsolatos fejlesztést világszerte, “kivétel nélkül, beleértve a kormányt és a hadsereget” is.
Ha valaki megszegi ezt a megállapodást, az MI-szakértő komolyságát bizonyítja azzal, hogy szerinte a kormányoknak “hajlandónak kell lenniük
arra, hogy légicsapással megsemmisítsenek egy szélhámos adatközpontot”.
“Legyen világos, hogy aki a fegyverkezési versenyről beszél, az bolond. Az, hogy mindannyian egyként élünk vagy halunk meg, ez nem politika, hanem természeti tény.”
udkowsky így fejezi be álláspontját:
“Ha ezt folytatjuk, mindenki meghal”
Forrás: ÚjVilágtudat