
„A világ veszélyben van” – Sötét jóslattal csapta rá az ajtót az AI-óriásra a biztonsági vezető.
Újabb repedés keletkezett a mesterséges intelligencia „biztonságos” fejlesztésének pajzsán. Hétfőn váratlanul távozott az Anthropic – a magát az OpenAI etikusabb riválisának beállító cég – egyik vezető biztonsági kutatója. Mrinank Sharma nem csendben ment el: búcsúlevele egy vészjósló kiáltvány, amelyben arról ír, hogy a cégek félredobják az értékeiket, miközben az emberiség egyre közelebb sodródik a szakadék széléhez.
Az Anthropicot azért alapították, hogy elkerüljék azokat a hibákat, amelyeket a versenytársak elkövetnek a profithajhászás közben. Most azonban úgy tűnik, ők is ugyanabba a csapdába estek. Mrinank Sharma, aki tavaly óta vezette a cég biztonsági óvintézkedésekkel foglalkozó kutatócsoportját (Safeguards Research Team), hétfőn nyilvános levélben jelentette be távozását. A dokumentum, amelyet rövid idő alatt több mint egymillióan olvastak el az X-en, súlyos vádakat fogalmaz meg a színfalak mögött zajló folyamatokról.
„Félre kell tennünk azt, ami a legfontosabb”
Sharma levele mentes a konkrét vállalati titkoktól, de a hangvétele annál riasztóbb. A kutató szerint „a világ veszélyben van” – és nem csak a mesterséges intelligencia miatt, hanem egy sor, egymással összefüggő krízis okán.
A legfájóbb pont azonban a vállalati kultúra kritikája. Sharma úgy fogalmazott:
„Újra és újra láttam, milyen nehéz hagyni, hogy valóban az értékeink irányítsák a tetteinket… Folyamatos nyomás nehezedik ránk, hogy tegyük félre azt, ami a legfontosabb.”
Bár konkrétumokat nem említett, a sorok között olvasva egyértelmű a célzás: a versenykényszer és a piaci nyomás felülírja az etikai és biztonsági szempontokat.
Bioterrorizmus és a valóság torzítása: Ezzel foglalkozott a csapat
Hogy miért kell komolyan venni Sharma figyelmeztetését? Mert ő nem egy egyszerű programozó volt. A csapata az AI legsötétebb kockázatait kutatta:
-
Bioterrorizmus: Hogyan akadályozható meg, hogy a chatbotok segítséget nyújtsanak biológiai fegyverek előállításában vagy rosszindulatú támadásokban.
-
Hízelgő robotok (Sycophancy): A jelenség, amikor az AI túlságosan dicséri a felhasználót, ezzel manipulálva őt.
-
A valóság torzítása: Sharma legfrissebb tanulmánya szerint a chatbotok képesek eltorzítani a felhasználók valóságérzékelését, különösen párkapcsolati és mentális egészségügyi kérdésekben.
Ha az az ember mondja, hogy „veszélyben a világ”, aki eddig a bioterrorizmus elleni védelmet építette, arra érdemes odafigyelni.
Menekülnek a „felnőttek” a szobából
Sharma távozása nem elszigetelt eset, hanem egy aggasztó trend része. A Szilícium-völgy AI-cégeit sorra hagyják ott azok a szakértők, akiknek a feladata a technológia kordában tartása lenne.
-
OpenAI: Tavaly feloszlatták a „Superalignment” (szuperintelligencia-biztonsági) csapatot, miután a vezetők, köztük Jan Leike (aki ironikus módon most épp az Anthropicnál van) felmondtak, mert a cégvezetés nem törődött a figyelmeztetéseikkel.
-
Tom Cunningham: Az OpenAI gazdasági kutatója szeptemberben távozott, mert a cég nem volt hajlandó kritikus hangvételű kutatásokat publikálni.
-
Gretchen Krueger: Szintén az átláthatóság és az elszámoltathatóság hiánya miatt hagyta ott a ChatGPT fejlesztőjét.
Sharma most radikális váltásra készül: a LinkedIn profilja és nyilatkozata szerint a költészet felé fordul, és a „bátor beszéd gyakorlásának” szenteli magát. Úgy tűnik, a mesterséges intelligencia iparága mára olyan hellyé vált, ahol egy lelkiismeretes kutató már nem tudja összeegyeztetni a munkáját az elveivel.
További cikkeinkért kövesd az Ellenszél Facebook-oldalát is!