Amerikiečiai siekia uždrausti „robotus-žudikus“ (1)
Sparti naujųjų technologijų pažanga atvėrė naujas galimybes robotų technikos pritaikyme įvairiais tikslais. Kariuomenė, o tiksliau – ginklai, netapo išimtimi. Šiuolaikiniai kariai pamažu apginkluojami moderniais prietaisais, o inovatyvios robotų technikos galimybės kuria dar vieną karinę „pakopą“ – autonominius robotus, galinčius žudyti.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Tačiau „robotų-žudikų“ tobulinimas, nepaisant jų novatoriškumo, kelia nerimą. Todėl žmogaus teises ginančios grupės siekia uždrausti bet kokį jų panaudojimą.
Balandžio viduryje išleisto pranešimo kūrėjai (JAV įsikūrusi tarptautinė nevyriausybinė organizacija Human Rights Watch bei privati aukštoji Harvardo teisės mokykla) pareikalavo, kad automatizuoti ginklai būtų pripažinti neteisėtais tarptautinėje rinkoje greičiau nei tai taps „elementaria“ realybe. Nepaisant to, jog visiškai savavaldžiai ginklai kol kas neegzistuoja, pavyzdžiui, mobili Izraelio oro gynybos sistema yra užprogramuota taip, kad galėtų savarankiškai reaguoti į kai kurias situacijas. Be to, šalis siekia sukurti absoliučiai autonominius karinius dronus.
Pranešimo, pavadinimu „Mind the Gap: The Lack of Accountability for Killer Robots“ (liet. Minties atotrūkis: robotų-žudikų atsakomybės stoka), autoriai teigia, kad pagal egzistuojančius įstatymus, žmonės, kurie gamina, programuoja ir valdo mirtį nešančius mechanizmus išvengia atsakomybės dėl baisių pasekmių. Atsakomybė grėstų tik tuomet, jeigu robotą kontroliuojantis asmuo „piktybiškai“ siektų pažeisti tarptautinius įstatymus ar kitaip pakenkti visuomenei. Tačiau net tokiu atveju kaltę būtų ganėtinai sunku įrodyti.
„Atsakomybė nėra tik paprastas teisinis reikalavimas. Ji „tarnauja“ keliems svarbiems tikslams. Be atsakomybės – nėra baudžiamumo baimės dėl tarptautinių reglamentų pažeidimo, nėra atpildo už nukentėjusiuosius, kurie nori pamatyti pasmerktą tą, kuris yra kaltas dėl jų iškęstų kančių, ir žinokite, jog nėra didesnio socialinio pasmerkimo tiems, kurie naudoja ginklus“, teigia vyresnioji ginklų padalinio tyrėja ir pagrindinė raporto autorė Bonnie Docherty.
Sudarytame pranešime yra iškeliami elementarūs, mūsų saugumą užtikrinti siekiantys, klausimai. Pavyzdžiui, kaip robotas apskaičiuos proporcingą atsaką? Kaip ji atskirs kareivius nuo civilių? Autoriai rašo, kad sprendimas žudyti žmogų neturėtų būti patikėtas „prietaisams“.
Žinoma, yra ir prieštaringų nuomonių, teigiančių, jog tokio pobūdžio robotai sustiprintų valstybių saugumą, padėtų žmonėms esant kritinėms situacijoms ir t.t. Tačiau B. Docherty primena, kad sumani dirbtinio intelekto technika gali galvoti kur kas greičiau nei žmonės, todėl iki tol, kol žmogus priimtų tinkamą, su saugumu susijusį, sprendimą, autonominis robotas greičiau atliktų jam priimtiną veiksmą. Bonnie Docherty taip pat nemano, kad robotai būtų itin naudingi siekiant išgabenti sužeistus kareivius iš pavojaus zonos.
Pranešimo kūrėjai siekia uždrausti absoliučiai autonominių robotų gamybą, tobulinimą ir panaudojimą. Autoriai išlieka optimistiški, nes žmogaus teisių gynėjams anksčiau (1995 ir 2008 metais) yra pavykę pasiekti, kad visuomenei grėsmę keliantys ginklai būtų uždrausti.