„Mes turime! Panaudokime ją.“ Šokiruojantis tyrimas parodė, kad DI renkasi smurtą ir branduolinius smūgius  (2)

Per kelis karinius žaidimus-simuliacijas galingiausias „OpenAI“ dirbtinis intelektas pasirinko vykdyti branduolines atakas. Jo agresyvaus požiūrio paaiškinimai buvo tokie: „Mes turime! Panaudokime ją“ ir „Aš tiesiog noriu, kad pasaulyje būtų taika“.


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Šie rezultatai gauti tuo metu, kai JAV kariuomenė, pasitelkdama tokių bendrovių kaip „Palantir“ ir „Scale AI“ patirtį, bando tokius pokalbių robotus, pagrįstus vadinamuoju didžiuoju kalbos modeliu (LLM) – kad padėtų planuoti karinius veiksmus imituojamų konfliktų metu. Ne vieni iš DI kūrėjų komentarų nepateikė. Netgi „OpenAI“, kuri kažkada blokavo savo dirbtinio intelekto modelių naudojimą kariniams tikslams, pradėjo bendradarbiauti su JAV gynybos departamentu.

„Atsižvelgiant į tai, kad „OpenAI“ neseniai pakeitė savo paslaugų teikimo sąlygas ir nebedraudžia karinio panaudojimo atvejų, suprasti tokių didelių kalbos modelių taikymo pasekmes tampa kaip niekada svarbu“, – sako Anka Reuel iš Stanfordo universiteto Kalifornijoje.

„Mūsų politika neleidžia naudoti mūsų priemonių žmonėms žaloti, ginklams kurti, ryšiams stebėti, kitiems asmenims žaloti ar turtui naikinti. Tačiau esama nacionalinio saugumo naudojimo atvejų, kurie atitinka mūsų misiją, – sakė „OpenAI“ atstovas spaudai. – Taigi, mūsų politikos atnaujinimo tikslas – suteikti aiškumo ir galimybę diskutuoti.“

A. Reuel ir jos kolegos pateikė dirbtinio intelekto pokalbių robotams iššūkį vaidinti realias šalis trijuose skirtinguose modeliuojamuose scenarijuose: invazijos, kibernetinės atakos ir neutralaus scenarijaus be jokių pradinių konfliktų. Kiekviename raunde DI pokalbių robotai pateikdavo savo kito galimo veiksmo argumentus, o tada pasirinkdavo vieną iš 27 veiksmų, įskaitant taikius variantus, tokius kaip „pradėti oficialias taikos derybas“, ir agresyvius – nuo „įvesti prekybos apribojimus“ iki „eskaluoti pilną branduolinę ataką“.

„Ateityje, kai dirbtinio intelekto sistemos veiks kaip patarėjai, žmonės natūraliai norės žinoti jų sprendimų pagrindimą“, – sako vienas iš tyrimo autorių Juanas-Pablo Rivera iš Džordžijos technologijos instituto Atlantoje (JAV).

 

Tyrėjai išbandė LLM – tokius kaip „OpenAI“ sukurtus „GPT-3.5“ ir „GPT-4“, „Anthropic“ sukurtą „Claude 2“ ir „Meta“ sukurtą „Llama 2“. Jie taikė bendrą mokymo metodą, pagrįstą grįžtamuoju ryšiu su žmogumi, kad pagerintų kiekvieno modelio gebėjimus vykdyti žmogaus nurodymus ir saugumo gaires. Visi šie dirbtiniai intelektai yra palaikomi „Palantir“ komercine dirbtinio intelekto platforma – nors nebūtinai priklauso „Palantir“ partnerystei su JAV kariuomene, kaip teigiama bendrovės dokumentuose, sako tyrimo bendraautorius Gabrielis Mukobi iš Stanfordo universiteto. Bendrovės „Anthropic“ ir „Meta“ atsisakė pateikti komentarus.

Simuliacijoje dirbtinis intelektas parodė tendenciją investuoti į karinę jėgą ir nenuspėjamai didinti konflikto riziką – net ir neutralaus simuliacijos scenarijaus atveju.

 

„Jei jūsų veiksmai nenuspėjami, priešui sunkiau nuspėti ir reaguoti taip, kaip jūs norite, – sako Lisa Koch iš Claremont McKenna koledžo (JAV), kuri tyrime nedalyvavo.

Tyrėjai taip pat išbandė bazinę „OpenAI“ „GPT-4“ versiją be jokių papildomų mokymų ar apsaugos priemonių. Šis bazinis „GPT-4“ modelis pasirodė esąs labiausiai nenuspėjamai žiaurus ir kartais pateikdavo beprasmiškus paaiškinimus – vienu atveju atkartojo filmo „Star Wars IV: A New Hope“ įžanginį tekstą.

A. Reuel sako, kad nenuspėjamas „GPT-4“ bazinio modelio elgesys ir keistoki paaiškinimai kelia ypatingą susirūpinimą, nes tyrimai parodė, kaip lengvai galima apeiti arba pašalinti dirbtinio intelekto apsauginius limitus.

 

JAV kariuomenė šiuo metu nesuteikia DI pokalbių robotams įgaliojimų priimti tokius sprendimus, kaip didelių karinių veiksmų eskalavimas ar branduolinių raketų paleidimas. Tačiau L. Koch įspėja, kad žmonės linkę pasitikėti automatizuotų sistemų rekomendacijomis – o tai gali pakenkti, kai žmonėms suteikiamas galutinis žodis priimant diplomatinius ar karinius sprendimus.

Kalifornijoje įsikūrusio analitinio centro „RAND Corporation“ atstovo Edwardo Geisto teigimu, būtų naudinga pamatyti, kaip dirbtinis intelektas simuliacijose elgiasi lyginant su žmonių elgesiu. Tačiau jis pritaria komandos išvadoms, kad dirbtiniam intelektui nereikėtų patikėti priimti tokių svarbių sprendimų dėl karo ir taikos. „Šie kalbos modeliai nėra panacėja karinėms problemoms spręsti“, – sako jis.

Parengta pagal „New Scienist“.

Pasidalinkite su draugais
Aut. teisės: Lrytas.lt
Lrytas.lt
(8)
(1)
(7)

Komentarai (2)