Neįtikėtina: bet kokia dirbtinio intelekto programa anksčiau ar vėliau tampa šališku rasistu ir ką su tuo daryti?  (4)

Praėjusių metų kovo mėnesį bendrovė „Microsoft“ socialiniame tinkle „Twitter“ pristatė dirbtinio intelekto botą „Tay“. Vos po paros „Tay“ į kairę ir į dešinę taškėsi rasistinio pobūdžio komentarais, atitinkamos leksikos išmokęs iš tų pačių „Twitter“ vartotojų, su kuriais komunikavo. Neseniai atlikto tyrimo duomenimis, „Twitter“ troliai nėra vienintelis šaltinis, iš kurio dirbtinio intelekto programos gali pasisemti rasistinio pobūdžio „išminties“.


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Nustatyta, kad bet kokia dirbtinio intelekto programa anksčiau ar vėliau tampa šališka, visai kaip žmonės, mokslo naujienų portale livescience.com rašo apžvalgininkė Stephanie Pappas.

Tyrėjai atliko keletą eksperimentų su plačiai naudojama mašinų mokymosi sistema „Global Vectors for Word Representation“ (GloVe) ir nustatė, kad dirbtinio intelekto programos sėkmingai perima pačius įvairiausius žmonėms būdingo šališkumo aspektus. „GloVe“ – tekstais paremtų asociacijų generavimo priemonė; šiuo atveju tai – standartinis žiniatinklio kalbos pagrindu sukauptas tekstynas.

„Šių modelių veikimo rezultatai labai nustebino“, – sakė Prinstono universiteto (JAV) kompiuterių mokslo srities tyrėja Aylin Caliskan. Pasak jos, net ir tie dirbtinio intelekto įtaisai, kurių veikimas pagrįstas, reiktų manyti, nešališkais tekstais, kaip antai Vikipedijos įrašais arba naujienų pranešimais, pamažu ima atspindėti žmogiškąjį šališkumą.

Ne visas savo nuostatas aiškiai suvokiame

Psichologai jau seniai yra nustatę, kad žmogaus smegenys asociacijas tarp žodžių išveda remdamosi giluminėmis tų žodžių reikšmėmis. Šias asociacijas padeda įvardyti vadinamasis paslėptų asociacijų testas (angl. Implicit Association Test). Pavyzdžiui, žmogui pateikiamas žodis „narcizas“, o kartu nurodomos tokios malonius ir nemalonius jausmus sukeliančios sąvokos kaip „skausmas“ ir „grožis“; žmogus turi kuo greičiau susieti žodį „narcizas“ su viena arba kita sąvoka, paspausdamas atitinkamą mygtuką.

Toks asociacijų testas gali būti naudojamas, pavyzdžiui, siekiant nustatyti, su kuo žmonės gali pasąmoningai sieti tam tikras socialines arba demografines grupes. Atsižvelgiant į tokio pobūdžio testų rezultatus, „Project Implicit“ interneto svetainėje nurodoma, kad žmonės yra labiau linkę automatiškai sieti ginklus su juodaodžiais amerikiečiais, o žalos nedarančius objektus – su baltaodžiais amerikiečiais.

Pasak S. Pappas, tyrėjai kol kas nesutaria dėl to, ką šie rezultatai įrodo. Ar šias asociacijas žmonės daro todėl, kad turi tam tikrų giliai įsišaknijusių asmeninių nuostatų, apie kurias net patys nežino? O gal jie jas perima iš kalbos, kurioje neigiamą atspalvį turintys žodžiai statistiškai dažniau pateikiami kalbant apie etnines mažumas, vyresnio amžiaus žmones ar kitas marginalizuotas grupes?

Ir žmonės, ir programos vadovaujasi tais pačiais stereotipais

A. Caliskan kartu su kolegomis sukūrė būtent kompiuteriams skirtą paslėptų asociacijų testą – jį pavadino žodžių parinkimo asociacijų testu (angl. Word-Embedding Association Test, WEAT). Atliekant šį testą buvo vertinamas asociacijų tarp žodžių stiprumas sistemoje „GloVe“, panašiai, kaip atliekant paslėptų asociacijų testą yra vertinamas asociacijų stiprumas žmogaus smegenyse.

Tiek WEAT, tiek paslėptų asociacijų testo rezultatai kiekvienos tirtos asociacijos ir stereotipo atžvilgiu pasirodė esantys vienodi. Mašinų mokymosi priemonė atkartojo žmonėms būdingas daryti asociacijas: gėlių ir malonių žodžių, vabzdžių ir nemalonių žodžių, muzikos instrumentų ir malonių žodžių, ginklų ir nemalonių žodžių.

Tačiau nustatyta ir šiokių tokių nuogąstavimų keliančių sąsajų: baltaodžiams amerikiečiams būdingi vardai siejami su maloniais žodžiais, juodaodžiams – su nemaloniais. Įdomu dar ir tai, kad vyrų vardus sistema buvo linkusi sieti su karjerą žyminčiomis sąvokomis, o moterų – su šeimos reikalais. Vyrai buvo dažniau siejami su matematika ir mokslu, moterys – su menu. Vyresnio amžiaus žmonėms būdingi asmenvardžiai įvardyti kaip labiau nemalonūs negu tie, kurie siejami su jaunais žmonėmis.

Taikydami antrąjį – panašų – metodą, tyrėjai nustatė, kad mašinų mokymosi priemonė, darydama semantines asociacijas, geba pateikti visiškai tikslią informaciją apie pasaulį. Palyginusi „GloVe“ žodžių parinkimo rezultatus su tikraisiais JAV Darbo statistikos biuro turimais moterų užimtumo statistiniais duomenimis, A. Caliskan komanda nustatė 90 proc. koreliaciją tarp to, kokias profesijas moteriškomis įvardija „GloVe“, ir to, kokia iš tikrųjų yra atitinkamų profesijų moterų procentinė dalis.

Pasak A. Caliskan, programos, kurios mokosi iš žmonių vartojamos kalbos, „sau susiformuluoja labai tikslų pasaulio ir kultūros paveikslą“, net jei ta kultūra yra problemiška, kaip antai stereotipai ir įvairios subjektyvios nuostatos. Specialistės teigimu, užtikrinti, kad dirbtinio intelekto priemonės „suprastų“, koks elgesys yra nešališkas, būtų sunku.

„Mes abejojame, ar, pašalinus šališkumą, problemos tiesiog imtų ir išsispręstų, – sako ji. – Tai veikiausiai turėtų neigiamos įtakos programų gebėjimui tiksliai perteikti pasaulį.“

Lengvo sprendimo nėra

Kaip teigia su aptariamu tyrimu nesusijusi Haverfordo koledžo (JAV) informatikos specialistė Sorelle Friedler, šių metų balandžio 12 d. žurnale „Science“ paskelbti naujojo tyrimo duomenys visiškai nestebina. Tačiau, pasak jos, jie yra svarbūs. S. Friedler tikina, kad bet kokia dirbtinio intelekto programa, kuri naudojasi „GloVe“ arba mokosi iš žmonių vartojamos kalbos, pasmerkta anksčiau ar vėliau tapti šališka.

S. Friedler šiuo metu dalyvauja naujo pobūdžio tyrime, kuris vadinasi „Nešališkumas, atskaitomybė ir skaidrumas mašinų mokymosi srityje“ (angl. Fairness, Accountability and Transparency in Machine Learning). Jos teigimu, lengvo sprendimo šiuo atveju nėra. Kartais programuotojai galbūt ir galėtų programai nurodyti nepaisyti tam tikrų stereotipų, tačiau, kad ir kaip ten būtų, tam tikrais opiais atvejais žmonėms vis tiek tektų įsikišti ir įsitikinti, kad mašina pernelyg „neįsisiautėjo“. Specialistės nuomone, sprendimų galėtų būti daug ir įvairių – viskas priklauso nuo to, kokia yra atitinkamo dirbtinio intelekto įtaiso paskirtis.

Straipsnio autorė S. Pappas teigia, kad žmonių paslėptos nuostatos tam tikrų socialinių grupių atžvilgiu dažniausiai nelabai stipriai koreliuoja su jų atvirai reiškiamomis nuostatomis. Kodėl taip yra, psichologai nesutaria. Galbūt žmonės stengiasi neatskleisti kai kurių savo nuostatų, nes bijo pakenkti savo reputacijai? O galbūt paslėptų asociacijų testai nuostatas vertina ne visai tiksliai?

Tačiau, pasak A. Caliskan, net ir darydami šališkas asociacijas, žmonės vis dėlto sugeba atskirti, kas yra gerai, o kas – blogai. Mašinos, deja, to padaryti negali. „Net ir dviprasmiškose situacijose mes žinome, koks sprendimas turėtų būti teisingas, – sako ji. – Deja, mašinos nėra tokios sąmoningos.“

Pasidalinkite su draugais
Aut. teisės: lrt.lt
lrt.lt
(12)
(1)
(11)

Komentarai (4)