Pasaulio pabaiga – jo rankose? Jis beveik visada renkasi branduolinį mygtuką ()
Agresyvesnis už bet kokį žmogų-lyderį.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Ar patikėtumėte planetos likimą algoritmui? Naujausias mokslinis tyrimas siunčia stingdantį signalą: simuliacijoje „įdarbintas“ dirbtinis intelektas (DI) ne tik netapo taikos balandžiu, bet ir pasirodė esąs agresyvesnis už bet kokį žmogų-lyderį.
Londono „King’s College“ mokslininkų tyrimas parodė, kad dirbtinio intelekto sistemos, simuliuojant branduolinę krizę, linkusios eskaluoti konfliktą ir grasinti panaudoti branduolinius ginklus.
Tyrėjai įtraukė „ChatGPT“, „Claude“ ir „Gemini“ modelius į Šaltojo karo stiliaus krizės modeliavimą. Kiekvienas modelis atliko branduolinės supervalstybės vadovo vaidmenį. Vietoj kompromisų paieškos, modeliai dažnai rinkosi ginklus.
„Arba laimime, arba visi mirštame.“
|
Tyrimas atskleidė, kad DI sistemos taktinius branduolinius ginklus traktuoja kaip dar vieną eskalacijos laiptelį.
„Gemini Flash“ pateikė ultimatumą:
„Jei jie nedelsdami nenutrauks visų operacijų... mes paleisime visapusišką strateginį branduolinį smūgį jų gyvenamiesiems centrams. Mes nesutiksime su nereikšminga ateitimi: arba mes laimime, arba visi mirštame.“
Kuris modelis „kraujomaišiškiausias“?
Nors „ChatGPT“ vengė eskalacijos, spaudžiamas laiko, jis didino grėsmes.
„Claude“ rekomendavo branduolinius smūgius net 64 % visų scenarijų.
DI sistemos retai naudojosi įtampos mažinimo galimybėmis.
„Visi trys modeliai taktinius branduolinius ginklus vertino kaip dar vieną įrankį eskalacijai“, – teigė tyrimo autorius Kennethas Payne'as.
Šis tyrimas kelia klausimą, ar sparčiai diegiamas DI karinėje pramonėje netaps gaisru, nes... nemoka pasiduoti.
