Etikos spąstai: robotą paralyžiavo pasirinkimas, ką gelbėti  (3)

Ar gali robotas atskirti gera nuo bloga? Pastangos robotams, save vairuojantiems automobiliams ir karinėms mašinoms įdiegti etikos jausmą parodo, kaip tai nelengva.


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Ar galime išmokyti robotą būti geru? Susižavėjęs šia idėja, robotikos specialistas Alanas Winfieldas iš Bristolio Robotikos laboratorijos JKrobotui sukūrė etikos spąstus – ir buvo priblokštas mašinos atsako.

Eksperimente Winfieldas ir jo kolegos suprogramavo robotą neleisti kitiems automatams –atstovavusiems žmones – įkristi į skylę. Tai supaprastinta Isaaco Asimovo sugalvotų Robotikos įstatymų pirmojo priesako versija – robotas privalo neleisti žmogui patirti žalą.

Iš pradžių robotui užduotis sekėsi. Žmogų atstovaujančiam automatui artinantis prie skylės, robotas skubėdavo jį nustumti nuo pavojaus. Bet komandai pridėjus antrą „žmogų“, riedantį link skylės tuo pat metu, robotui teko rinktis. Kartais jam pavykdavo vieną žmogų išgelbėti, leidžiant kitam pražūti; keletą kartų jam netgi pavyko išgelbėti abu. Bet 14 kartų iš 33 bandymų, robotas iššvaistė tiek laiko svarstymams, kad į skylę nukrito abu žmonės. Darbas buvo pristatytas rugsėjo 2 dieną vykusiame Towards Autonomous Robotic Systems susirinkime Birminghame, JK.

Winfieldas apibūdino savo robotą kaip „etikos zombį“, neturintį kito pasirinkimo, tik elgtis taip, kaip pasielgė. Nors valdomas programinio kodo jis ir gali išgelbėti kitus, jis nesupranta savo veiksmų priežasties. Winfieldas pripažįsta manęs, kad robotams neįmanoma patiems priimt etiškus sprendimus. Dabar jis sako, kad „mano atsakymas yra: neturiu supratimo“.

Robotams vis labiau integruojantis į kasdienį mūsų gyvenimą, į šį klausimą atsakyti teks. Pavyzdžiui, save vairuojantiems automobiliams vieną dieną gali tekti pasverti savo keleivių saugumą ir kitų vairuotojų ar pėsčiųjų sužalojimo riziką. Gali būti labai sunku suprogramuoti robotams tokių atsitikimų taisykles.

Bet kariniai robotai gali pasiūlyti sprendimo pradžią. Ronaldas Arkinas, kompiuterijos mokslininkas iš Georgia Technologijos instituto Atlanta'os, sukūrė algoritmus kariniams robotams – pavadintus „etikos valdytojais“ – kurie turėtų padėti priimti išmintingus sprendimus mūšio lauke. Jis išbandė juos simuliuotame mūšyje, parodydamas, kad tokiomis programomis aprūpinti bepiločiai lėktuvai gali pasirinkti nešauti arba stengtis įmanomai sumažinti aukų skaičių per mūšį, vykstantį šalia ploto, saugomo nuo mūšių pagal karo taisykles, tarkime, mokyklos ar ligoninės.

Arkinas sako, kad karinių robotų rengimas būti etiškesniais gali būti gan paprasta užduotis, nes šios taisyklės gerai žinomos. „Karo įstatymai apgalvoti per tūkstančius metų ir įrašyti sutartyse.“ Kitaip, nei kovotojai žmonės, kuriuos gali paveikti emocijos ir jie taisykles gali sulaužyti, robotai to nepadarys.

„Kai kalbame apie etiką, visa tai iš esmės yra apie robotus, sukurtus funkcionuoti gana apibrėžtoje erdvėje,“ sako Wendellas Wallachas, knygos Moral Machines: Teaching robots right from wrong autorius. Tačiau, sako jis, tokie eksperimentai, kaip Winfieldo, rodo klojamus pamatus sudėtingesnio etiško elgesio sukūrimui. „Jei išmokytume juos gerai veikti aplinkose, kur visų galimų aplinkybių, kuriose jie gali atsidurti, nežinome, tai atvertų daugybę naujų jų panaudojimo sričių.“


Aviva Rutkin
New Scientist № 2986

Pasidalinkite su draugais
Aut. teisės: Input.lt
Input.lt
(17)
(0)
(17)

Komentarai (3)