Raginama kurti robotams skirtą "įstatymų" sistemą (20)
Prieš du metus sugedęs Pietų Afrikos karinis robotas nužudė devynis kareivius. Šių metų pradžioje buvo nubausta viena Švedijos gamykla, kai robotizuota mašina sužeidė vieną darbininką. Robotams kaltė verčiama už dar daugybę smulkesnių nusižengimų, tokių kaip nereagavimas į komandas. Kaip apsisaugoti nuo tokių problemų?
Visi šio ciklo įrašai |
|
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Robotų ekspertai teigia, jog tam tereikia nustoti gaminti "psichopatiškus" robotus. "Jei jūs kuriate dirbtinį intelektą, tačiau nemastote apie jo moralės suvokimą, arba įdiegiate kaltės jausmą, tačiau šis aktyvuojasi tik tada, kai padaroma kažkas blogo, techniniu požiūriu tai yra psichopatas", teigia mokslininkas Josh'as Hall'as, knygos "Beyond AI: Creating the Conscience of a Machine" autorius.
Rašytojo fantasto Isaac'o Asimov'o sukurti trys robototechnikos dėsniai buvo laikomi kaip pakankami, ir jų tikrai pakako visiems robotų entuziastams. Pirmą kartą šie dėsniai arba savotiški robotų įstatymai buvo išdėstyti trumpoje apysakoje "Runaround". Jie buvo palyginti paprasti: robotas negali daryti žalos žmogui ir negali leisti, kad žmogui žala būtų daroma; robotas turi paklusti žmogaus duotiems įsakymams; robotas turi saugoti savo paties egzistavimą. Dėsniai pateikti prioriteto tvarka, t.y. pirmesnis dėsnis yra svarbesnis nei po jo einantis. Taigi, pagal Asimov'o taisykles, robotui negalima įsakyti žudyti žmogaus ir jis turi paklusti įsakymams, netgi jei tai reikštų jo paties sunaikinimą.
Tačiau robotams nepaliaujamai sudėtingėjant ir vis daugiau integruojantis į žmonių gyvenimą, Asimov'o suformuluoti dėsniai tampa tiesiog per daug paprasti, teigia Chien Hsun Chen, praėjusį mėnesį žurnale "International Journal of Social Robotics" publikuoto straipsnio bendraautorius. Straipsnis įžiebė diskusiją robotų ekspertų tarpe, kurie teigia, jog jau atėjo laikas žmonėms spręsti šias etikos dilemas. Roboetikos atstovai siekia sukurti tam tikrų rekomendacijų rinkinį, kurios nusakytų, kaip galima nubausti robotą, kas turi teisę reglamentuoti jų elgesį ir netgi skatina kurti "teisinę mašinų bazę", kuri padėtų palaikyti teisėtvarką naujos kartos intelektualių automatizuotų įrenginių tarpe.
Netgi jei robotai nėra visiškai autonomiški, jų veiksmams turi būti taikoma aiški atsakomybės sistema, teigia atvirojo kodo (angl. open source) principais veikiančios kompanijos "Willow Garage" mokslininkė Leila Katayama. "Mes turime žinoti, kam priklauso nuopelnas, jei mašina dirba sėkmingai, ir kas yra atsakingas, kai ji dirba blogai. Tai turi tapti visiškai skaidru", sako specialistė.
Visuomene, kurioje kartu egzistuos robotai ir žmonės, gali susiformuoti jau iki 2030 metų, teigia Chen savo straipsnyje. Pavyzdžiui, kompanijos "iRobot" gaminamas robotizuotas dulkių siurblys "Roomba" ir grindų valytojas "Scooba" yra daugiau kaip 3 milijonų amerikiečių šeimų nuosavybė. Ateinanti robotų karta bus sudėtingesnė ir, kaip tikimasi, tieks tokias paslaugas, kaip slaugymas, saugumo užtikrinimas ir švietimas. Šios mašinos galės savarankiškai priimti sprendimus ir veikti iš esmės be priežiūros. Būtent dėl to Chen teigimu būtina nuspręsti, kas reglamentuoja robotų elgseną. Naujos visuomenės taisyklės turės apimti ir tai, kaip žmonės turėtų bendrauti su robotais, ir tai, kaip robotai turėtų elgtis. "Atsakomybė už robotų veiksmus šiandien yra tik vienos eismo krypties gatvė", sako Hall'as. "Iki šiol vyrauja standartinė nuomonė, kad jei mašina kažką padarė blogo, kaltas tu, nes tu pagaminai ją. Tačiau aišku kaip dieną, kad ateityje mes pagaminsime mašinas, kurios bus tiek sudėtingos, kad galės pačios priimti sprendimus, ir mes turime būti tam pasiruošę", sako mokslininkas.
Surasti "kaltus" dėl roboto sukelto incidento ne visada paprasta. Šių metų pradžioje viena Švedijos gamykla buvo nubausta, kai sugedęs robotas vos neužmušė čia dirbusį darbininką, bandžiusį pataisyti sunkiems kroviniams kilnoti skirtą mašiną. Manydamas, kad jis atjungė energijos tiekimą, darbuotojas nieko nelaukdamas priėjo prie įrenginio, tačiau robotas staiga atgijo ir sugriebė aukos galvą. Šiuo atveju prokuroras gamyklą nubaudė už prastą saugumo reikalavimų laikymąsi, tačiau dalį kaltės priskyrė ir pačiam darbuotojui. "Mašinos evoliucionos iki taško, kuriame mums teks vis dažniau spręsti, ar kaltė dėl blogo veiksmo tenka kažkam, kas sukūrė mašiną, ar pačiai mašinai", teigia Hall'as.
Taisykles taip pat teks sukurti ir socialinei žmonių ir robotų sąveikai, įsitikinęs Džordžijos Technologijų instituto robotikos padalinio vadovas Henrik'as Christensen'as. Pavyzdžiui, robotikos ekspertas Hiroshi Ishiguro sukūrė į save panašų robotą. "Čia iškyla klausimas, kaip jūs ketinate sąveikauti su tokiais robotais", aiškina Christensen'as. "Ar jūs turėtumėte būti mandagus su jais, ar elgtis grubiai? Ar normalu spardyti robotizuotą šunį, o vaikams aiškinti, kad su gyvais šunimis to nedarytų? Kaip nusakysite savo vaikams skirtumą tarp jų?". Christensen'o manymu, robotų elgseną ir žmonių sąveiką su jais reglamentuojanti etika susijusi ne tik su saugumu, bet ir turi nusakyti, kokio pobūdžio bendravimas tarp šių pusių yra "teisingas".
Ekspertų manymu, kai kurios tokių taisyklių bus kietai "įsiūtos" mašinų aparatinėje dalyje, kitos taps mašinas valdančių programų dalimis, tačiau bus ir tokių, kurių laikymąsi turės stebėti nepriklausomos monitoringo agentūros. Tam prireiks sukurti "teisinę mašinų kalbą", sako Chen. Ji turėtų būti sudaryta iš tam tikrų nežodinių taisyklių, dalis kurių ar net jos visos turės turėti galimybę jas įrašyti robotų atmintyje. Šios taisyklės turėtų apimti įvairias veiklos sritis ir nurodytu, pavyzdžiui, kaip arti robotas gali prieiti prie žmogaus esant tam tikroms sąlygoms, taip pat apibrėžtų saugumo reikalavimus, kuriuos pagal dabartinius savo lūkesčius mes laikome esant teisingas.
Nepaisant to, pastangos sukurti robotą, kuris gali sėkmingai bendrauti su žmonėmis, bėgant laikui bus bevaisės, sako ekspertai. "Žmonės tūkstančius metų bandė susisteminti tai, ką jie laiko žmogiškąja morale", sako Hall'as. "Net jei mes sukursime robotų etikos nuorodas, savo apimtimi prilygstančias valstybių teisinei bazei, jo vis vien nepakaks. Moralė yra tai, ko negalima užrašyti formaliais išsireiškimais".
Priminsime, jog tai ne pirmutinis pasvarstymas apie robotų, tiksliau dirbtinio intelekto teisinę sistemą arba tiesiog robotų garbės kodeksą - apie jį galima paskaityti šiame mūsų parengtame straipsnyje.