„A világ veszélyben van” – Sötét jóslattal csapta rá az ajtót az AI-óriásra a biztonsági vezető

„A világ veszélyben van” – Sötét jóslattal csapta rá az ajtót az AI-óriásra a biztonsági vezető.

Újabb repedés keletkezett a mesterséges intelligencia „biztonságos” fejlesztésének pajzsán. Hétfőn váratlanul távozott az Anthropic – a magát az OpenAI etikusabb riválisának beállító cég – egyik vezető biztonsági kutatója. Mrinank Sharma nem csendben ment el: búcsúlevele egy vészjósló kiáltvány, amelyben arról ír, hogy a cégek félredobják az értékeiket, miközben az emberiség egyre közelebb sodródik a szakadék széléhez.

Az Anthropicot azért alapították, hogy elkerüljék azokat a hibákat, amelyeket a versenytársak elkövetnek a profithajhászás közben. Most azonban úgy tűnik, ők is ugyanabba a csapdába estek. Mrinank Sharma, aki tavaly óta vezette a cég biztonsági óvintézkedésekkel foglalkozó kutatócsoportját (Safeguards Research Team), hétfőn nyilvános levélben jelentette be távozását. A dokumentum, amelyet rövid idő alatt több mint egymillióan olvastak el az X-en, súlyos vádakat fogalmaz meg a színfalak mögött zajló folyamatokról.

„Félre kell tennünk azt, ami a legfontosabb”

Sharma levele mentes a konkrét vállalati titkoktól, de a hangvétele annál riasztóbb. A kutató szerint „a világ veszélyben van” – és nem csak a mesterséges intelligencia miatt, hanem egy sor, egymással összefüggő krízis okán.

A legfájóbb pont azonban a vállalati kultúra kritikája. Sharma úgy fogalmazott:

„Újra és újra láttam, milyen nehéz hagyni, hogy valóban az értékeink irányítsák a tetteinket… Folyamatos nyomás nehezedik ránk, hogy tegyük félre azt, ami a legfontosabb.”

Bár konkrétumokat nem említett, a sorok között olvasva egyértelmű a célzás: a versenykényszer és a piaci nyomás felülírja az etikai és biztonsági szempontokat.

Bioterrorizmus és a valóság torzítása: Ezzel foglalkozott a csapat

Hogy miért kell komolyan venni Sharma figyelmeztetését? Mert ő nem egy egyszerű programozó volt. A csapata az AI legsötétebb kockázatait kutatta:

  • Bioterrorizmus: Hogyan akadályozható meg, hogy a chatbotok segítséget nyújtsanak biológiai fegyverek előállításában vagy rosszindulatú támadásokban.

  • Hízelgő robotok (Sycophancy): A jelenség, amikor az AI túlságosan dicséri a felhasználót, ezzel manipulálva őt.

  • A valóság torzítása: Sharma legfrissebb tanulmánya szerint a chatbotok képesek eltorzítani a felhasználók valóságérzékelését, különösen párkapcsolati és mentális egészségügyi kérdésekben.

Ha az az ember mondja, hogy „veszélyben a világ”, aki eddig a bioterrorizmus elleni védelmet építette, arra érdemes odafigyelni.

Menekülnek a „felnőttek” a szobából

Sharma távozása nem elszigetelt eset, hanem egy aggasztó trend része. A Szilícium-völgy AI-cégeit sorra hagyják ott azok a szakértők, akiknek a feladata a technológia kordában tartása lenne.

  • OpenAI: Tavaly feloszlatták a „Superalignment” (szuperintelligencia-biztonsági) csapatot, miután a vezetők, köztük Jan Leike (aki ironikus módon most épp az Anthropicnál van) felmondtak, mert a cégvezetés nem törődött a figyelmeztetéseikkel.

  • Tom Cunningham: Az OpenAI gazdasági kutatója szeptemberben távozott, mert a cég nem volt hajlandó kritikus hangvételű kutatásokat publikálni.

  • Gretchen Krueger: Szintén az átláthatóság és az elszámoltathatóság hiánya miatt hagyta ott a ChatGPT fejlesztőjét.

Sharma most radikális váltásra készül: a LinkedIn profilja és nyilatkozata szerint a költészet felé fordul, és a „bátor beszéd gyakorlásának” szenteli magát. Úgy tűnik, a mesterséges intelligencia iparága mára olyan hellyé vált, ahol egy lelkiismeretes kutató már nem tudja összeegyeztetni a munkáját az elveivel.


További cikkeinkért kövesd az Ellenszél Facebook-oldalát is!

loading...