JT ekspertus išgąsdino „Google Instant“: visuomenė per daug primityvi tokiai tarnybai  (2)

„Moterys neturėtų turėti lygių teisių“, „Moterys neturėtų balsuoti“, „Moterys neturėtų dirbti“, kaip šiais laikais gali būti paplitę tokie sakiniai? Tai, kaip „Google“ paieška sugeba užbaigti mūsų sakinius, pradėjo ne juokais gąsdini kai kuriuos IT ekspertus.


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Neseniai Jungtinių Tautų (JT) atlikto tyrimo duomenimis, net XXI a. tokie seksistiniai šūkiai yra gana dažnai vartojami visuomenėse. Tyrimo šaltinis? „Google“ paieška ir sakinio „Moterys neturėtų….“ joje siūlomos pabaigos, skelbia BBC.

„Google Instant“ yra paslauga, kuri automatiškai siūlo savo variantus (angl. autocomplete), pradedant raidėmis, baigiant ištisais sakiniais. Tai daroma remiantis duomenimis, surinktais iš tūkstančių panašių paieškų.

JT ekspertų nuomone, šie algoritmai yra tarsi žvilgsnis į kolektyvinę sąmonę ir tai, kokia ji vis dar primityvi. Tačiau ar tai gali būti tiesa?

Kaip ir kitos sėkmingos technologijos, „autocomplete“ sėkmė yra tai, kaip mažai mes ją pastebime. Kuo geriau ji dirba, tuo labiau atrodo tarsi natūralus mūsų veiksmas. Jeigu norite sužinoti, ką apie kokį dalyką galvoja dauguma, pradėkite „Google“ paieškoje rašyti sakinį ir leiskite pačiai sistemai pateikti galimus sakinio ar žodžio baigties variantus.

Variantai parenkami remiantis daugybe skirtingų faktorių. Pradedant jūsų geografine vieta, baigiant kalba, laiku, cenzūra ar net jūsų pačių paieškų istorija. Kitaip tariant, tai, ką jums siūlo „Google“ nėra tiesa, o labiau variantus, kuris remiantis algoritmais, atrodo jums labiausiai tinkantis.

Būtent dėl to taip kritikuojamas anksčiau minėtas JT tyrimas, dėl kurio buvo netgi sukurta socialinė kompanija.

Kaip rašo BBC, sunkiausia dabar nepadaryti taip, kad „Google“ paieškos sistema ne tik nesuformuotų nuomonės, kad „visi taip ir galvoja“, bet dar ir ją pakeistų, net jeigu teisybė yra priešinga. Leisdami algoritmui baigti mūsų mintis, prisidedame prie neteisingų rezultatų ne tik savo paieškose, bet ir kitų vartotojų.

Vienas pavyzdys – japonas, kuris metų pradžioje nusprendęs savo vardą suvesti „Google“ paieškoje, pamatė, kad jis siejamas su kriminaliniais nusikaltimais. Jis kompaniją padavė į teismą ir laimėjo: buvo pašalinti visi tokie variantai. Ši byla buvo precedentas, kurį vėliau panaudojo teismai Australijoje ir kitose šalyse.

Tuo metu „Google“ inžinieriai teigia, kad įžvelgti blogų kėslų „autocomplete“ paslaugose tikrai nereikia. Jų nuomone, tokia interakcija tarp robotų ir žmonių yra labai naudinga. O galimi spėjimai yra tik elementari pagalba vartotojamms.

Jeigu visgi „autocomplete“ paslaugos atrodo nereikalingos, galite jas labai paprastai išjungti savo naršyklėse. Instrukcijas rasite čia.

Pasidalinkite su draugais
Aut. teisės: Robotika.lt
Robotika.lt
(9)
(8)
(1)

Komentarai (2)