Dirbtinio intelekto ekspertas atviras: tik laiko klausimas, kol jis atsisuks prieš mus (3)
Nors esame labai toli nuo to, kad būtų sukurta sistema, prilygstanti žmogaus smegenims, dirbtinio intelekto kūrėjai vis labiau artėja prie savarankiškai sprendimus priimančių ir mąstančių sistemų. Jau visai netrukus dirbtinis intelektas gali pradėti kelti grėsmę žmonijai, jei ji priims neteisingus sprendimus.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Taip sako mokslo žurnalistas, dirbtinio intelekto ekspertas ir žiniasklaidos kompanijos „Scout“ įkūrėjas Brettas Horvathas.
„JAV kariuomenė jau naudoja autonomines karines transporto priemones. Jos kontroliuojamos žmonių, vadinasi, sprendimus priima ne dirbtinis intelektas. Tačiau Amerikos kariuomenės vadai jau diskutuoja, kas būtų, jeigu robotas priimtų sprendimus pats, t. y. nuspręstų, pavyzdžiui, ar kažką nužudyti, ar ne“, – teigia jis.
„Scout“ projektas vienija mokslininkus, technologus ir mokslinės fantastikos rašytojus. Jie kartu prognozuoja technologijų, ypač dirbtinio intelekto, ateitį, moralinius aspektus, o visus įdomiausius dalykus visuomenei suprantama kalba surašo mokslinės fantastikos autoriai. Populiarinti mokslą su rašytojų pagalba – nėra naujas metodas. Taip su visuomene susikalbėti jau daugybę metų bando JAV prezidentai ir specialiosios tarnybos.
B. Horvathas, sakęs kalbą „TEDxVilnius“ konferencijoje, pasakoja, kad dirbtinis intelektas dabar išnaudojamas ne ten, kur reikėtų, nes geriausi ekspertai sprendžia ne opiausias pasaulio problemas, o tai, kaip „Facebook“ surinkti daugiau dėmesio.
– Kaip manote, kuriame mokslinės fantastikos veikale dirbtinis intelektas buvo aprašytas įdomiausiai?
– Išskirčiau kelis. Vienas jų – pirmoji mokslinės fantastikos knyga, kurią perskaičiau vaikystėje, – Franko Herberto „Dune“. Nuostabi knyga! Įdomu tai, kad veiksmas vyksta tolimoje ateityje, kai dirbtinis intelektas yra uždraustas, nes tapo nekontroliuojamas. Tik žmonėms leidžiama atlikti tam tikrus darbus.
Antrasis – Danielio Suarezo „Daemon“. Šis autorius dirbo kompiuterių saugumo ekspertu NSA ir CŽV. Pagrindinė knygos idėja yra ta, kad net labai nedaug dirbtinio intelekto gali pridaryti daug bėdos.
– Kai kalbama apie dirbtinį intelektą, žmonės įsivaizduoja robotus, humanoidus ir pan., kurie galiausiai užkariaus pasaulį, o žmonija atsidurs didžiuliame pavojuje. Tokį įvaizdį formuoja tiek mokslinės fantastikos filmai, tiek literatūra. Kokia yra dažniausiai pasitaikanti klaidinga dirbtinio intelekto interpretacija, kurią Jūs, kaip mokslo žurnalistas, norėtumėte ištaisyti?
– Manau, kad didžiausia klaida yra naudoti kitų sukurtus dirbtinio intelekto apibrėžimus. Dabar apie tai rašoma daug straipsnių, daug diskutuojama, tačiau nėra bendro sutarimo, kas tiksliai yra dirbtinis intelektas. Problema yra ta, kad naudojami terminai dažnai daugiau paslepia, negu atskleidžia. Du ekspertai, bendraudami tarpusavyje, gali naudoti terminą „dirbtinis intelektas“, tačiau galvoje turėti du skirtingus dalykus.
Raginu visus, kurie nors kiek domisi dirbtiniu intelektu, pasidomėti daugiau, kvestionuoti kitų siūlomus terminus. Tik tada atsiskleis patys įdomiausi dalykai.
– Dirbtinis intelektas yra visur. Kartais kažkuo taip dažnai naudojamės, kad net nepagalvojame, jog tai – dirbtinis intelektas. „Google“, „Paypal“, „Siri“, autonominiai automobiliai – tik keli pavyzdžiai. Ar manote, kad tikrai gali atsitikti taip, jog vieną dieną dirbtinis intelektas užkariaus pasaulį?
– Na, vėlgi priklauso nuo to, ką laikote dirbtiniu intelektu ir ką tiksliai reiškia „užkariauti pasaulį“. Pavyzdžiui, dirbtinis intelektas jau dominuoja didžiausiose fondų biržose pasaulyje. Šios technologijos kas sekundę padaro milijonus statymų už šimtus milijardų dolerių.
Dirbtinį intelektą naudojančios didžiausios bendrovės daro įtaką visai pasaulio ekonomikai. Taigi nereikia žiūrėti tolyn į ateitį, yra sričių, kurias dirbtinis intelektas jau kontroliuoja.
– Ar pagal Jūsų apibrėžimą įmanoma, kad dirbtinio intelekto sistemos atsisuks prieš žmones?
– Manau, kad taip, tikrai atsitiks. Tai – tik laiko klausimas. Vėlgi – priklauso nuo to, kas jas programuoja ir koks jų tikslas. JAV kariuomenė jau naudoja autonomines karines transporto priemones. Jos kontroliuojamos žmonių, vadinasi, sprendimus priima ne dirbtinis intelektas. Tačiau Amerikos kariuomenės vadai jau diskutuoja, kas būtų, jeigu robotas priimtų sprendimus pats, t. y. nuspręstų, pavyzdžiui, ar kažką nužudyti, ar ne. Tokios kalbos kelia aršias diskusijas Jungtinėse Tautose (JT), tarp akademikų ir įvairių aktyvistų, kurie nori, kad robotai-žudikai būtų uždrausti, dar prieš juos sukonstruojant.
– Kalbant apie kontrolę, dabar itin daug dėmesio skiriama dirbtinio intelekto sistemose naudojamai programinei įrangai. Anot kai kurių ekspertų, būtent tai yra trūkstama grandis, norint sukurti visiškai nepriklausomai mąstančias sistemas. Ypač kalbant apie mokymosi technikas – prižiūrimąjį (supervised) ir neprižiūrimąjį (unsupervised) mokymąsi. Ar sutinkate, kad dabar viskas priklauso nuo programinės įrangos?
– Na, programinė įranga yra svarbiausia, nes tie, kurie ją programuoja, turi daugiausiai galios. Ar tai yra kompanija, ar valstybė.
Šiame pokalbyje jau paminėjau daug skirtingų dirbtinio intelekto tipų. Tačiau noriu pabrėžti, kad esame dar labai labai toli nuo to, kad sukurtume sistemą, kurios intelektas būtų toks, kaip žmogaus.
Man yra tekę dirbti su garsiuoju Bobu Bishopu, kuris sudėjo pagrindus „Human brain project“. Tai – milžiniškas Europos projektas, kuriam daugiau nei milijardą eurų skyrė Europos Sąjunga (ES). Projekto iniciatoriai teigė, kad naudodami tradicinius kompiuterius su žmogaus smegenimis tikrai nepasivaržysime. Žmogaus smegenys veikia horizontaliai, t. y. jos negali vienu metu atlikti milijonų sudėtingų matematinių užduočių, tačiau puikiai susitvarko su dviprasmybėmis, generuoja idėjas ir konceptus. Taigi „Human brain project“ bando sukurti įrangą, kuri būtų, kiek įmanoma, panašesnė į žmogaus smegenis.
– Ar manote, kad tikrai įmanoma sukurti programinę įrangą, kuri veiktų taip, kaip veikia žmogaus smegenys? Galėtų mokytis, mąstyti ir pan. Jau turbūt girdėjote ir Ray Kurzweilo prognozes, kad 2045 m. kompiuteryje jau bus simuliuojamos žmogaus smegenys. Tačiau kritikai tokias idėjas atmeta – bent jau iki tol, kol kompiuteriuose įvyks dar vienas didelis lūžis, koks įvyko pradėjus kurti kompiuterinius žaidimus.
– Tikrai įmanoma. Taip, kompiuterijoje turi įvykti esminių lūžių, bet vienas dalykas, kurio išmokome, sekdami technologijas: tikėkitės netikėto. Galbūt tai įvyks su kvantiniais ar fotoniniais kompiuteriais. Mes nežinome, bet tikrai įvyks.
R. Kurzweilas yra vienas geriausių futurologų pasaulyje. Tačiau aš nepritariu jo singuliarumo idėjai, kuri tarsi teigia, kad technologijos yra neišvengiamos, kad einame aiškiu keliu ir nieko pakeisti negalime. Nemanau, kad ateities scenarijus gali būti tik vienas, nes mes turime pasirinkimą. Kai kalbame apie technologijas kaip kažką neišvengiamo, pasiduodame idėjai, kad niekas nuo mūsų nepriklauso. Mes, kaip demokratinė visuomenė, turėsime kartu nuspręsti, ką daryti ir kaip viskas bus. Turėsime labai pasistengti susikalbėti, nes yra daug žmonių, kurie arba mano, kad technologijos gali viską išspręsti, arba priešingai – visas technologijas reikia naikinti, o inovacijas stabdyti. Nei vienas iš šių požiūrių nėra teisingas.
Galvojame, kad smegenys yra evoliucijos viršūnė. Manau, jeigu žmogaus smegenis naudosime kaip matą, kaip atskaitos tašką, nesugebėsime blaiviai įvertinti dirbtinio intelekto sistemų progreso, pamatyti pliusų ir minusų. Juk jas galime išnaudoti labai skirtingai, nebūtina kurti tokių sudėtingų, kaip žmogaus smegenys.
– Grįžkime prie žmonių moralės. Minėjote, kad galiausiai žmonės turės demokratiškai nuspręsti, ką daryti su dirbtiniu intelektu. Tačiau ar tikrai tai galime palikti visų teismui? Dabar iš daug pavyzdžių matome, kad demokratiškai priimami sprendimai ne visada yra patys geriausi. Geriausias pavyzdys būtų augantys Donaldo Trumpo reitingai.
– D. Trumpo kompanija parodo mums, kiek daug problemų yra žiniasklaidoje, kuriai suteikiame tiek daug reikšmės, kiek daug galime tobulinti ten naudojamus algoritmus ir t. t.
Pagrindinė priežastis, kodėl D. Trumpo reitingai taip kyla, yra ta, kad didžiausios žiniasklaidos kompanijos galbūt netgi nesąmoningai kelia savo reitingus, cituodamos fašistinius, seksistinius ir pan. pareiškimus. Juk daugelis žiniasklaidos atstovų prisipažįsta, kad su D. Trumpu susijusi naujiena iš karto surinks daug peržiūrų. Tačiau tai nereiškia, kad žmonės tiesiog daug apie jį skaito. Ne, viskas kur kas sudėtingiau. Už tų peržiūrų slepiasi reklamos ir socialinių tinklų algoritmai.
Kitaip tariant, čia susitinka itin gerai išvystyti algoritmai ir moralinis pavojus paveikti visuomenės mąstymą dėl peržiūrų skaičiaus. Žmogaus smegenų dalis, atsakinga už baimę, pyktį, yra labai galinga. Taigi nuolatiniai seksistiniai, rasistiniai ir tiesiog kvaili D. Trumpo pasisakymai sulaukia labai daug skaitytojų reakcijos.
– Tačiau pagalvokite, jeigu didžiosios kompanijos dėl finansinės naudos taip formuoja mūsų nuomonę dabar, kaip įmanoma išvengti, kad taip nebūtų daroma, kai bus priimami esminiai sprendimai, susiję su dirbtiniu intelektu? Juk vis vien didžiausi šių sistemų kūrėjai yra didžiosios pasaulio bendrovės, negi tikrai tikite, kad jos nebandys paveikti sprendimų?
– Na, tikiuosi, kad D. Trumpo pavyzdys išprovokuos diskusiją visuomenėje dėl moralinių technologijų naudojimo aspektų.
Aš tikiu demokratijos ateitimi. Tačiau sutinku, kad reikia ją reikia tobulinti. Norėčiau, kad dirbtinio intelekto sistemos ne ją iškreiptų, o padėtų ją sustiprinti, patikslinti. Jeigu nuolat kartosime, kad dirbtinis intelektas vienu ar kitu būdu atsisuks prieš mus, o demokratija žlugs, pradėsime tikėti tuo, nebematysime ateities, kurią galime reguliuoti naudodami technologijas.
Kitas dalykas, kurį svarbu paminėti, yra skaitmeninė priklausomybė. Apie ją girdėsime vis dažniau. Jeigu nuolat skrolinate „Facebook“, tai nėra atsitiktinumas, toks yra viso tinklo dizainas. Reikia suprasti, kad dabar galingiausias verslo modelis pasaulyje yra išnaudoti šią priklausomybę. Visos didžiausios pasaulio kompanijos tai daro. Būtent ten lengviausia suformuoti nuomonę, todėl būtina kuo greičiau imtis veiksmų.
– Kaip manote, kokios yra didžiausios problemos, kurias dirbtinio intelekto kūrėjai turi išspręsti artimiausioje ateityje?
– Dirbtinio intelekto pritaikymą ir panaudojimą. Tai, kad patys šviesiausi protai pasaulyje – geriausi fizikai, matematikai, IT ekspertai ir pan., žmonės, kurie prieš 30 metų būtų dirbę NASA ar kituose moksliniuose centruose – dabar ieško būdų, kaip žmones priversti kuo labiau įsitraukti į „Instagram“ ar „Facebook“. Inovacijos yra gerai, bet technologijas reikėtų išnaudoti kitokiems tikslams: sustabdyti klimato pokyčius, badą ar pan.
– Kaip manote, koks dabartinis dirbtinio intelekto projektas turi daugiausiai potencialo ateityje?
– Netrukus ateis metas, kai demokratija keisis. Sistema, pagal kurią sprendimus priimame dabar, keisis iš esmės. Manau, kad dirbtinis intelektas padės žmonėms labiau įsitraukti į demokratinius procesus. Jau dabar viena organizacija iš Australijos ketina per rinkimus į parlamentą siūlyti savo kandidatą, tačiau kandidatas yra ne žmogus, o algoritmas. Jeigu algoritmas bus išrinktas, jo sprendimus priims žmonės.
Vadinasi, užuot balsavę kartą per kelerius metus, jie galės balsuoti daug dažniau ir tiesiogiai dalyvauti valstybiniuose sprendimų priėmimo procesuose. Ne visi turi laiko nuolat balsuoti, tačiau kiekvienas, padedamas dirbtinio intelekto, galės sukurti savo vertybių ir prioritetų sąrašus, pagal kuriuos ir bus priimami sprendimai.
Taip pat labai laukiu, kol dirbtinis intelektas pradės spręsti globalinio atšilimo problemos.