Tamsioji dirbtinio intelekto paslaptis: niekas iš tiesų nesupranta jo veikimo (12)
Dabar visi kas netingi, kalba apie dirbtinį intelektą ir beribes jo galimybes. Iš tiesų, jis jau dabar keičia mūsų gyvenimus ir mes priimame tai kaip duotybę, kaip technologijų vystymosi išdavą, žmogaus pergalę ir proto triumfą. Nuneigti jo galimybes sunku, juolab, nežinome viso jo potencialo. Ką ten ten potencialo, net dorai nesuprantame, kaip jis atlieka tai, ką atlieka…
Visi šio ciklo įrašai |
|
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Pernai ramiose Naujojo Džersio valstijos Monmouth apygardos gatvėse pasirodė keistas bepilotis automobilis. Ši eksperimentinė transporto priemonė, sukurta vaizdo plokščių gamintojos Nvidia, iš pirmo žvilgsnio niekuo nesiskyrė nuo kitų autonominių automobilių, bet ji nebuvo panaši į nieką, ką demonstravo Google, Tesla, ar General Motors, ir rodė kylančią dirbtinio intelekto galią. Automobilis nesivadovavo inžinierių ar programuotojų sukurtomis instrukcijomis. Jis vadovavosi tik algoritmu, kuris vairuoti išmoko pats, žiūrėdamas, kaip tai atlieka žmonės.
Priversti automobilį taip vairuoti – įspūdingas pasiekimas. Tačiau kartu ir šiek tiek keliantis nerimą, kadangi nėra iki galo aišku, kaip automobilis priima sprendimus. Informacija iš automobilio jutiklių keliauja tiesiai į didžiulį dirbtinių neuronų tinklą, kuris apdoroja duomenis ir pateikia komandas vairui, stabdžiams ir kitoms sistemoms. Gauti rezultatai atrodo tokie patys, kokių tikėtumėmės iš vairuotojo žmogaus. Bet jei vieną dieną jis iškrės ką nors netikėto – trenksis į medį, ar nepajudės iš vietos, užsidegus žaliam šviesoforo signalui? Kol kas išsiaiškinti priežastis būtų sunku. Ši sistema tokia sudėtinga, kad netgi ją sukūrusiems inžinieriams gali nepavykti išskirti kurio nors konkretaus veiksmo priežasties. O jos pačios paklausti neįmanoma: nėra jokio akivaizdaus būdo, kaip sukurti sistemą, kuri pati visą laiką galėtų pagrįsti savo veiksmų priežastis.
Paslaptingasis šio automobilio protas nurodo žiojinčią dirbinio intelekto problemą. Šiame automobilyje naudojama DI technologija – gilusis mokymasis, – pastaraisiais metais įrodė problemų sprendimo galimybes, daug kur pritaikyta ir plačiai naudojama tokiose srityse, kaip atvaizdų ir balso atpažinimas, bei kalbų vertimas. Dabar tikimasi, kad tokia pat technika galės nustatyti mirtinas ligas, sudaryti milijonų dolerių vertės prekybos sandorius ir atlikti dar daug dalykų, transformuosiančių ištisas pramonės šakas.
Bet taip negalės nutikti – ar neturėtų nutikti – kol nerasime būdų kaip padaryti tokias technikas kaip gilusis mokymasis labiau suprantamas jų kūrėjams ir keliančias didesnį pasitikėjimą jų naudotojams. Antraip bus sunku prognozuoti, kada gali kilti problemų – o tai įvyks neišvengiamai. Būtent todėl Nvidia automobilis vis dar eksperimentinis.
Matematiniai modeliai jau naudojami, nustatant, ką galima išleisti lygtinai, kam galima teikti paskolas, ir ką pasamdyti darbui. Apžiūrėjus šiuos matematinius modelius, būtų galima suprasti jų priimamų sprendimų priežastis. Bet bankai, kariuomenė, darbdaviai ir kiti savo dėmesį kreipia link sudėtingesnių mašininio mokymosi metodų, kurie gali automatiškai priimti sprendimus – ir jų perprasti neįmanoma. Labiausiai paplitęs iš šių metodų, gilusis mokymasis, yra iš esmė kitoks kompiuterių programavimo būdas.„Ši problema aktuali jau dabar, o ateityje ji taps dar aktualesnė,“ sako Tommi Jaakkola, MTI profesorius, tiriantis mašininio mokymosi pritaikymą. „Ar tai būtų sprendimas, susijęs su investavimu, medicina, ar gal karyba, nesinori kliautis vien „juodos dėžės“ principu.“
Jau dabar teigiama, kad galimybė išklausinėti DI sistemą, kaip ji priėjo išvadą, yra fundamentali naudotojo teisė. Nuo 2018 metų vasaros Europos Sąjunga gali pradėti reikalauti, kad kompanijos naudotojams pateiktų paaiškinimus, kaip automatinės sistemos priima sprendimus. Tai gali būti neįmanoma, netgi tokiose iš pirmo žvilgsnio paprastose sistemose, kaip, tarkime, programėlėse ir interneto svetainėse, kurios naudoja gilųjį mokymąsi reklamų ar rekomenduojamų dainų pateikimui. Šias tarnybas atliekantys kompiuteriai susiprogramavo save patys, ir jie atliko tai mums nesuprantamu būdu. Netgi programėles sukūrę inžinieriai negali visapusiškai išaiškinti jų veikimo.
Tai kelia itin svarbius klausimus. Technologijai tobulėjant, netrukus galime peržengti ribą, kai naudotis DI galėsime tik todėl, kad tikime, jog DI žino ką daro. Aišku, mes, žmonės, irgi ne visada galime paaiškinti savo mąstymo procesus – bet mokame intuityviai pasitikėti ir vertinti žmones. Ar tai įmanoma mašinoms, kurios mąsto ir sprendimus priima kitaip, nei žmonės? Niekada nesame kūrę mašinų, kurios veiktų taip, kad jų kūrėjas to negalėtų suprasti. Kaip galime tikėtis bendrauti – ir sutarti – su protingomis mašinomis, kurios gali būti nenuspėjamos ir neperprantamos? Šių klausimų vedinas, patraukiau į pažangiausių DI algoritmų tyrimų kelionę, nuo Google iki Apple ir daugybės kitų, o taip pat susitikau su vienu iš žymiausių mūsų laikų filosofų.
2015 metais Niujorko Mount Sinai Hospital tyrėjų grupė giliajam mokymuisi panaudojo didžiules ligoninės pacientų ligų istorijų duomenų bazes. Šiuose duomenyse yra užfiksuoti šimtai pacientų kintamųjų – anamnezės, gydytojų vizitų, analizių rezultatai, etc. Programa, kurią tyrėjai pavadino Deep Patient, buvo treniruojama, naudojant
Tuo pat metu Deep Patient kelia šiokius tokius neaiškumus. Jis stulbinamai gerai nuspėjo psichinius sutrikimus, tokius, kaip šizofrenija. Bet kadangi šizofreniją gydytojai diagnozuoja sunkiai, Dudley'iui kilo klausimas, kaip tai įmanoma. Atsakymo jis vis dar nežino. Naujasis įrankis nepateikia savo veikimo principo užuominų. Jei kas nors panašaus į Deep Patient ketina padėti gydytojams, idealiu atveju jis turėtų pateikti jiems diagnozės nustatymo pagrindimą, kad jie galėtų įsitikinti, kad viskas yra tikslu ir pritarti, tarkime, naudojamų vaistų pakeitimui. „Galime sukurti šiuos modelius, tačiau nežinome, kaip jie veikia“, skėstelėjo rankomis Dudley'is.
Dirbtinis intelektas ne visados buvo toks. Iš pradžių buvo du požiūriai, kiek suprantamas ar paaiškinamas turėtų būti DI. Daug kas manė, kad protingiausia kurti mašinas, kurios vadovautųsi taisyklėmis ir logika, kad jų veikimas būtų suprantamas bet kam, kas panagrinėtų kodą. Kiti manė, kad intelektas lengviau rastųsi, jei mašinos įkvėpimo semtųsi iš gamtos ir mokytųsi stebėdamos ir patirdamos. Tam reikėjo kompiuterių programavimą apverti aukštyn kojomis. Užuot problemų sprendimui naudojusi programuotojo užrašytas komandas, programa sukuria savo algoritmą, remdamasi pavyzdžiais ir pageidaujamu rezultatu. Mašininio mokymosi technikos, vėliau išsivysčiusios į dabartines galingiausias DI sistemas, naudojosi antruoju būdu: mašina iš esmės pati save programavo.
Iš pradžių šio būdo praktinis panaudojimas buvo ribotas, ir septintajame bei aštuntajame praėjusio amžiaus dešimtmetyje laikėsi šios srities paraštėse. Tada daugelio pramonės šakų kompiuterizacija ir didelių duomenų kiekių atsiradimas atgaivino susidomėjimą šia sritimi. Tai buvo galingesnių mašininio mokymosi technikų, ypač vadinamojo neuroninio tinklo, versijų kūrimo stimulas. Dešimtajame dešimtmetyje neuroniniai tinklai galėjo automatiškai skaitmeninti rankraštinius tekstus.
Bet tik šio dešimtmečio pradžioje, po kelių protingų patobulinimų ir pataisymų, labai dideli – arba „gilūs“ – neuroniniai tinklai pademonstravo dramatišką automatizavimo patobulėjimą. Dabartinį DI sprogimą sukėlė gilusis mokymasis. Jis suteikė kompiuteriams nepaprastas galias, pavyzdžiui, gebėjimą atpažinti tariamus žodžius praktiškai taip pat gerai, kaip tai atlieka gyvas žmogus, – tokį gebėjimą užprogramuoti rankomis pernelyg sudėtinga. Gilusis mokymasis transformavo kompiuterinę regą ir dramatiškai patobulino mašininį vertimą. Dabar gilusis mokymasis padeda priimti svarbius sprendimus medicinoje, finansuose, gamyboje – ir dar daug kur.
Bet kokios mašininio mokymosi technologijos iš prigimties yra labiau neperprantamos, netgi kompiuterių mokslininkams, nei „rankomis sukoduotos“ sistemos. Tai nereiškia, kad visos būsimos DI technologijos bus lygiai tokios pat nepažinios. Bet jau dėl pačios savo prigimties gilusis mokymasis yra itin tamsi juodoji dėžė.
Neįmanoma tiesiog žvilgtelėti į giliojo neurotinklo vidų ir pažiūrėti, kaip jis veikia. Tinklo sprendimų pagrindimas priklauso nuo tūkstančių simuliuojamų neuronų dešimtyse ar net šimtuose glaudžiai susijusių sluoksnių, veikimo. Pirmojo sluoksnio neuronai gauna pradinius duomenis, pavyzdžiui, vaizdo taško intensyvumą, ir atlikęs skaičiavimus, sukuria naują signalą. Kiekvieno žemiausio neuronų sluoksnio rezultatai perduodami kito lygio neuronams, ir procesas kartojamas, kol gaunamas rezultatas. Be to, vyksta ir atgalinio klaidos sklidimo procesas, paderinantis atskirų neuronų skaičiavimus taip, kad tinklas išmoktų kurti norimą rezultatą.
Daugiasluoksnis gilusis neurotinklas geba atpažinti įvairaus abstrahavimo lygio dalykus. Tarkime, sistemoje, skirtoje šunų atpažinimui, žemesni sluoksniai atpažįsta tokius paprastus dalykus, kaip siluetai ar spalvos; aukštesni sluoksniai atpažįsta sudėtingesnius, pavyzdžiui, kailį ar akis; aukščiausias sluoksnis visa tai identifikuoja kaip šunį. Iš principo tokiu pat metodu mašinos gali mokytis: iš garsų sudaromi kalbos žodžiai, raidės ir žodžiai sukuria teksto sakinius, vairo judesiai – vairavimą.
Stengiantis detaliau perprasti ir išsiaiškinti, kas tokiose sistemose vyksta, buvo pasitelktos įvairios strategijos. 2015 metais Google mokslininkai giliuoju mokymusi paremtus vaizdų atpažinimo algoritmus pakeitė taip, kad šie, užuot aptikę objektus fotografijose, juos kurtų ar keistų. Iš esmės paleidę algoritmą „atbulai“, jie galėjo stebėti, iš kokių bruožų programa atpažįsta, tarkime, paukštį ar statinį. Gauti atvaizdai, sukurti, vykdant Deep Dream projektą, rodo iš debesų ir augalų atsirandančius groteskiškus, nežemiškus gyvius, ir pagodų haliucinacijas, kylančias iš miškų ir kalnų. Šie atvaizdai įrodė, kad gilusis mokymasis nebūtinai visiškai neperprantamas; jie atskleidė, kad algoritmai remiasi pažįstamais vaizdiniais bruožais, tarkime paukščių snapu ar plunksnomis. Bet šie vaizdai taipogi pademonstravo, kaip skiriasi gilusis mokymasis nuo žmogiško suvokimo, kai ką nors bando įžvelgti artefakte, kurį mes žinome, kad galima tiesiog ignoruoti. Google tyrėjai pastebėjo, kad algoritmas, generuodamas hantelio vaizdus, generavo ir jį laikančio žmogaus ranką. Mašina nusprendė, kad ranka yra hantelio dalis.
Toliau buvo žengta, pasiskolinus neurologijos ir kognityvinių mokslų idėjas. Wyomingo universiteto profesoriaus Jeffo Clune'o vadovaujama komanda giliuosius neurotinklus išbandė DI optinių iliuzijų atitikmenimis. 2015 metais Clune’o grupė parodė, kaip panaudojant žemojo lygio sluoksnių kontūrų atpažinimą, tam tikri vaizdai gali apkvailinti tokius tinklus, kad šie regėtų nesamus dalykus. Vienas Clune’o bendradarbis, Jasonas Yosinski'is, sukūrė įrankį, veikiantį kaip į smegenis įterptas zondas. Jo įrankis pasiekia bet kurį neuroną tinklo viduje ir ieško labiausiai jį aktyvuojančio atvaizdo. Šie abstraktūs vaizdai (įsivaizduokite impresionisto nutapytą flamingą ar mokyklos autobusą) atskleidžia paslaptingus mašinų suvokimo gebėjimus.
Tačiau vien užmesti akį į DI mąstyseną negana ir paprasto šios problemos sprendimo nėra. Aukštesnio lygio vaizdų atpažinimas ir sudėtingų sprendimų priėmimas priklauso nuo gilaus neurotinklo viduje vykstančių skaičiavimų tarpusavio sąveikos, bet šie skaičiavimai yra matematinių funkcijų ir kintamųjų liūnas. „Jei neuroninis tinklas visai mažytis, jį suprasti galima,“ sako Jaakkola . „Bet labai didelis ir turintis tūkstančius neuronų sluoksnyje ir šimtus sluoksnių, tinklas tampa visai nesuprantamas.“
Šalia Jaakkola biuro dirba Regina Barzilay, MIT profesorė, pasiryžusi pritaikyti mašininį mokymąsi medicinoje. Prieš porą metų jai buvo diagnozuotas krūties vėžys. Jau pati diagnozė sukrėtė, bet Barzilay buvo nusivylusi ir tuo, kad naujausi statistikos ir mašininio mokymosi metodai nenaudojami onkologiniuose tyrimuose ar pacientų gydymo tobulinimui. Ji sako, kad DI turi didžiulį panaudojimo medicinoje potencialą, bet to potencialo realizavimas reiškia ne vien ligos istorijų skaitymą ir analizavimą. Barzilay įsivaizduoja didesnį neapdorotų duomenų, kurie dabar iki galo nepanaudojami, pasitelkimą: „atvaizdai, patologijų duomenys, visa ši informacija.“
Pernai pabaigusi vėžio gydymą, Barzilay su savo studentais ir Massachusettso bendrosios ligoninės gydytojais pradėjo kurti sistemą, galinčią nagrinėti patologų ataskaitas ir identifikuoti pacientus su tam tikromis klinikinėmis charakteristikomis, kurias tyrėjai norėtų išstudijuoti. Tačiau Barzilay suprato, kad sistema turėtų paaiškinti savo sprendimus. Tad, drauge su Jaakkola ir studentu, ji žengė toliau: sistema išskiria ir paryškina atrastą bruožą nurodančias teksto ištraukas. Barzilay su studentais dar kuria ir giliojo mokymosi algoritmą, gebantį mamogramose aptikti ankstyvus krūties vėžio ženklus, ir siekia suteikti sistemai galimybę pagrįsti savo sprendimus. „Ten, kur vyksta žmonių ir mašinų bendradarbiavimas, atgalinis ryšys būtinas,“ pažymi Barzilay.
Kaip galime sutarti su neprognozuojamomis ir nepažiniomis mašinomis?
JAV kariuomenė skiria milijardus projektams, kurie mašininį mokymąsi panaudos automobilių ir lėktuvų pilotavimui, taikinių nustatymui ir padės analizuoti kalnus žvalgybinės informacijos. Čia, labiau nei kur kitur, netgi labiau nei medicinoje, ne vieta algoritmų paslaptims, ir Gynybos departamentas nurodė paaiškinamumą kaip pagrindinę technologijos pritaikymo kliūtį.
Davidas Gunningas, DARPA programos vadybininkas, prižiūri atitinkamai pavadintą Paaiškinamo dirbtinio intelekto (Explainable Artificial Intelligence) programą. Žilaplaukis agentūros veteranas, anksčiau prižiūrėjęs DARPA projektą, galiausiai nulėmusį Siri atsiradimą, Gunningas sako, kad automatizavimas smelkiasi į nesuskaičiuojamas karybos sritis. Žvalgybos analitikai išbando mašininį mokymąsi kaip būdą aptikti struktūras daugybėje žvalgybinių duomenų. Kuriama ir bandoma daugybė autonominių antžeminių transporto priemonių ir orlaivių. Bet vargu ar kareiviai jaustųsi patogiai robotizuotame tanke, kuris nepaaiškina savo veiksmų, o analitikai nebūtų linkę vadovautis informacija be jokio paaiškinimo. „Dėl šių mašininio mokymosi sistemų prigimties jos pateikia daug netikrų aliarmų, tad žvalgybos analitikams išties reikia papildomo paaiškinimo, kodėl buvo pateikta viena ar kita rekomendacija,“ sako Gunningas.
Šį kovą DARPA pasirinko 13 akademinių ir industrinių projektų, kurie bus finansuojami per Gunningo programą. Kai kurie iš jų gali remtis Carlos Guestrin, Washingtono universiteto profesoriaus, darbais. Jis su kolegomis sukūrė būdą mašininio mokymosi sistemoms pateikti savo išvadų pagrindimą. Iš esmės, vadovaudamasis šiuo metodu, kompiuteris automatiškai suranda kelis duomenų pavyzdžius ir pateikia juos su trumpais paaiškinimais. Pavyzdžiui, sistema, sukurta aptikti teroristų siunčiamus elektroninius laiškus, gali treniruotis ir mokytis priimti sprendimus iš daugybės milijonų žinučių. Bet naudodama Washingtono komandos metodą, ji paryškina tam tikrus žodžius žinutėse. Guestrino grupė taip pat sukūrė būdus vaizdų atpažinimo sistemoms leisti suprasti savo sprendimų priežastis, paryškinant svarbiausias atvaizdo dalis.
Šio ir kitų panašių būdų, kaip Barzilay, trūkumas – pateikiamas paaiškinimas visada bus supaprastintas, tad gali būti prarandama svarbi informacija. „Neįgyvendinome svajonės, kur DI kalbasi su jumis ir gali viską paaiškinti,“ sako Guestrinas. „Iki išties suprantamo DI dar tolimas kelias.“
Tai gali sukelti problemų netgi ne tokioje svarbioje situacijoje kaip vėžio diagnozavimas ar karo manevrai. DI samprotavimo perpratimas gali būti itin svarbus, jei ši technologija taps paplitusia ir naudinga kasdienybės dalimi. Tomas Gruberis, vadovaujantis Apple kompanijos Siri komandai, sako, kad gebėjimas paaiškinti yra svarbiausias jo komandos tikslas, nes jo komanda stengiasi padaryti Siri išmanesniu ir gabesniu virtualiu asistentu. Gruberis konkrečių Siri ateities planų neatskleidžia, bet nesunku įsivaizduoti, kad iš Siri gavus restorano rekomendacijas, norėtųsi žinoti, kuo remdamasi Siri jas pateikė. Ruslanas Salakhutdinovas, Apple DI tyrimų direktorius ir asocijuotasis profesorius Carnegie Mellon universitete, gebėjimą paaiškinti sprendimus vertina kaip žmogaus ir mašinos santykių vystymosi pagrindą. „Tai suteiks pasitikėjimą,“ sako jis.
Lygiai kaip neįmanoma detaliai paaiškinti daugelio žmonių elgesio aspektų, taip tikriausiai ir DI nesugebės paaiškinti visko, ką jis daro. „Net jei kas gali pateikti logiškai skambantį [savo veiksmų] paaiškinimą, jis tikriausiai nėra visapusiškas, ir tas pats galioja DI atveju,“ sako Clune, iš Wyomingo universiteto. „Gali būti, kad dėl pačios proto prigimties racionaliai paaiškinama tik jo dalis. Dalis jo yra tiesiog instinktyvi, ar pasąmoninga, ar nepažini.“
Jei taip, tada kažkuriuo metu teks tiesiog pasikliauti DI sprendimu arba išvis juo nesinaudoti. Panašiai šis sprendimas turės ir inkorporuoti ir visuomeninį intelektą. Kadangi visuomenė statoma, remiantis numanomu elgesiu, turėsime kurti DI sistemas, gerbiančias ir atitinkančias socialines normas. Kuriant robotizuotus tankus ir kitas žudymo mašinas, svarbu, kad jų sprendimai derėtų su mūsų etinėmis nuostatomis.
Šių metafizinių koncepcijų patikrinti nuvykau į Tuftso universitetą ir susitikau su Danieliu Dennettu, žymiu filosofu ir kognityvinių mokslų specialistu, tyrinėjančiu protą ir sąmonę. Naujausios jo knygos, enciklopedinio veikalo apie sąmonę From Bacteria to Bach and Back, skyrelyje teigiama, kad natūrali paties proto vystymosi dalis yra sistemų, galinčių atlikti užduotis, kurias pats sistemos kūrėjas nežino, kaip atlikti, kūrimas. „Klausimas tik, kaip tai atlikti išmintingai – kokių standartų reikalaujame iš jų ir kokių – iš savęs?“ svarsto jis idiliškame universiteto miestelyje įsikūrusiame popieriais užverstame savo biure.
Jis įspėja ir dėl paaiškinamumo paieškų. „Manau, jei naudosime šiuos dalykus ir remsimės jais, reikia kuo daugiau sužinoti, kaip ir kodėl jie pateikia būtent tokius atsakymus,“ sako jis. Bet kadangi idealaus atsakymo gali ir nebūti, DI paaiškinimus turėtume vertinti taip pat atsargiai, kaip ir vieni kitų – nesvarbu, kokia protinga mašina beatrodytų. „Jeigu ji negali geriau už mus paaiškinti, ką daro, tada nepasitikėkite ja,“ sako jis.
Will Knight
MIT Technology Review
businessinsider.com