Banas ir depresija. Kaip dirba YouTube ir Facebook turinio moderatoriai (4)
Internetas buvo kuriamas kaip atvira erdvė laisvam žodžiui ir mintims, tačiau labai greitai paaiškėjo, kad jis tapo patogia platforma sadistams, rasistams, teroristams, prievartautojams ir kitiems nusikaltėliams. Kilo klausimas, kaip apsaugoti žmones nuo žalingo turinio (ir ar verta tai daryti)? Taip atsirado moderatoriaus profesija. Visame pasaulyje tokių moderatorių armijos dieną naktį peržiūri ir atrenka interneto turinį. Pasak Facebook, moderatoriai kasdien įvertina milijonus turinio vienetų. Su kokiais sunkumais ir etinėmis prieštaromis tenka susidurti moderatoriams, o taip pat nevienprasmišką svetainių turinio skelbimo politiką rašo Verge.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Po YouTube paleidimo 2005 metais kompanija labai greitai – jau kitais metais – įkūrė dešimties žmonių SQUAD (Safety, Quality, and User Advocacy Department, saugumo, kokybės ir vartotojų apsaugos) komandą, kuri peržiūrėdavo įkeltus vaizdo įrašus, kuriuos vartotojai pažymėdavo kaip įžeidžiamus ar žalingus. YouTube sparčiai peraugo iš formato, kuriame giminaičiai dalinosi tarp savęs šeimyniniais vaizdo įrašais, į vietą, kurioje netrūko mėgėjiškos ir profesionalios pornografijos, video, kurioje tyčiojamasi ir žiauriai elgiamasi su vaikais ir gyvūnais. SQUAD pradėjo kuri tokio turinio atsijojimo taisykles. Iš pradžių padalinio darbuotojai vadovavosi paprastu argumentu: „Ar galėčiau šį video parodyti savo artimiesiems?“ – tačiau ilgainiui pasidarė aišku, kad būtinas griežtesnis ir oficialiai patvirtintas reglamentas. 2007 metais YouTube paskelbė pirmąsias naudojimosi svetaine taisykles – pagal jas, buvo draudžiama įkelti pornografiją, brukalus, nusikaltimų vykdymo, prievartos, grasinimų ir neapykantos kurstymo vaizdo įrašus. Tačiau dėl griežtai neapibrėžtų šių taisyklių terminų, piktavaliams liko pakankamai veiksmų laisvės.
Vystantis interneto platformoms, panašūs daliniai buvo kuriami ir kitose kompanijose. Ėmė rastis atskiros firmos (pavyzdžiui, Modsquad), teikiančios kitoms kompanijoms turinio moderavimo paslaugas. Šią temą žmonės nagrinėdavo moksliniuose darbuose universitetuose, SQUAD pobūdžio skyriuose stažuodavosi aspirantai. Tačiau, nepaisant audringo profesijos vystymosi, moderatoriai, kaip ir anksčiau, lieka izoliuoti nuo kitų darbuotojų. Dažniausiai jų biuro dalis būna toli nuo kitų, užtemdyta, o kompiuterių ekranai apsaugoti nuo pašalinių žvilgsnių. Jie neturi teisės šokiruojančio turinio rodyti kolegoms (to, beje, ir nereikia – darosi bloga netgi vien nuo pasakojimų) ir viešinti savo kompanijos moderavimo principų.
Moderatoriai kasdien peržiūrėdami žiaurius video ir vaizdus, patiria didžiulį stresą. Kai kas nusigeria, kai ką kamuoja nemiga ir nerviniai priepuoliai. Pasak buvusios YouTube SQUAD darbuotojos Julie Mora-Blanco, siekdama padėti savo darbuotojams, kompanija pradėjo teikti jiems psichoterapijos seansus. Dabar tokios kompanijos, kaip Google, Microsoft, Yahoo, Facebook ir Kik, siunčia darbuotojus į psichologinio atsparumo treniruotes, organizuoja ekspertų konsultacijas savižudybių, žiauraus elgesio su vaikais, prievartos prieš moteris, terorizmo ir kt. klausimais. Moderatoriams pateikiama nuodugni veiksmų instrukcija. Tačiau daugelis kompanijų šią darbuotojų „kastą“ ir toliau suvokia kaip žmonijos „šiukšlių valytojų“ grupę. Amerikiečių firmos dažnai moderatoriais samdo Trečiojo pasaulio šalių gyventojus, atkakliai ieškančius nors kokio darbo.
Pasigilinus, šie „šiukšlininkai“ daro didžiulę įtaką mūsų gyvenimui. Taip pat ir pasaulio politikai. Kai 2009 metais, per protesto akcijas Teherane, prezidento rinkimuose laimėjus Mahmudui Ahmadinedžadui, buvo nušauta Neda Agha-Soltan, vaizdo įrašai, kuriuose užfiksuota merginos mirtis, kaipmat pasklido po internetą. Kaip pasakoja Mora-Blanco, YouTube SQUAD nusprendė neblokuoti šio įrašo, nors jame ir rodomos prievartos scenos, ką svetainės taisyklės draudė. YouTube programuotojai turėjo skubiai sukurti vaizdo įrašui mygtuką, įspėjantį apie įraše esantį smurtą. Agha-Soltan vaizdo įrašai tapo labai svarbūs Irano opozicijai. Ir tada SQUAD atsisakymas aklai paklusti instrukcijai pademonstravo, kokie įtakingi turinio moderatoriai. Jie daro įtaką „žodžio laisvei, politinei opozicijai, socialinėms normoms, naudotojų saugumui ir gyvenimo prasmės suvokimui“, rašo Verge.
„Moderatoriai daro įtaką žodžio laisvei, politinei opozicijai, socialinėms normoms, naudotojų saugumui ir gyvenimo prasmės suvokimui“Verge
Moderatoriai nuolat susiduria su kultūrinių skirtumų pasireiškimais ir dėl to neretai jie atsiduria aklavietėje. Kaip, tarkime, vaizdo įraše, kur juokaudami pešasi paaugliai, YouTube moderatorius privalo jį pašalinti, kadangi jame vaizduojami nepilnamečiai, užsiimantys prievarta pramogos dėlei, tačiau, antra vertus, Indijoje tokio amžiaus berniukai jau laikomi visiškai suaugusiais žmonėmis, todėl ten toks elgesys nebūtų laikomas nepriimtinu. Kaip tokiu atveju turėtų elgtis moderatorius? Dar vienas pavyzdys: moderatoriui draudžiama patvirtinti vaizdo įrašus su užfiksuotais narkotikų kartelių nusikaltimais Meksikoje, tačiau galima palikti politiniu pagrindu vykdomo smurto vaizdus Sirijoje ar Rusijoje. Pirmieji laikomi žiauriu turiniu, antrieji – politiškai reikšmingais. Kai kam toks sprendimas gali pasirodyti įžeidžiamas, juk Meksikoje narkotikų kartelių smurto problema – irgi tragedija ir nacionalinio masto problema.
2014 metais Dave'as Willneris (buvęs Facebook turinio politikos vadovas) ir Danas Kelmensonas Facebook inžinierius programuotojas) patentavo technologiją, gebančią išaiškinti potencialiai kenkėjišką veiklą internete. Jos naudojamame modelyje yra trys stadijos: piktavalių grupės nustatymas, su jais susijusių vartotojų identifikacija, ir kitų su jais bendraujančių grupių paieška ir analizė. Tarp automatizuotų moderacijos sistemų yra ir PhotoDNA (iš Microsoft), kuri automatiškai nustato, pašalina ir praneša apie atvaizduose esančią vaikų eksploataciją. Per ją pereina visi atvaizdai, įkraunami į tokias svetaines, kaip Facebook, Twitter ir Tumblr. Pagal tą patį principą dabar kuriama programa, atpažįstanti ekstremistinius atvaizdus.
Moderacijos procesas atrodo mums paslaptingas, nes interneto kompanijos sąmoningai jį slepia. Socialiniai tinklai niekada nepublikuoja vidinių savo turinio moderacijos instrukcijų, o esami ir buvę darbuotojai saistomi neskelbimo pasižadėjimais. Turinio moderacijos proceso lyderis dabar yra Pinterest. Jo svetainėje pateikiamos išsamios leidžiamo naudojimosi politikos taisyklės, papildytos vizualiais turinio pavyzdžiais, padedančiais naudotojams suprasti moderatorių darbo principus ir Pinterest turinio vertinimą.
Naudotojai pernelyg priprato suvokti save „interneto klientais, o juk būtent jie generuoja turinį ir aktyviai dalyvauja jo moderavime. Jie žymi vieną ar kitą dalyką kaip nepriimtiną. Kai kas, pavyzdžiui, dalyvauja Facebook vykstančioje counter speech kampanijoje ir padeda svetainei išaiškinti asmenis, propaguojančius ekstremizmą (tiesa, kai kurie pasisako prieš tokią praktiką, nes ji gali sukelti pavojų pačiam skundikui). Kai kurios platformos (kaip 4chan ar anksčiau Reddit) išvis nusimeta nuo savęs atsakomybę už turinį ir palieka tai naudotojų sąžinei. Beje, tai nieko gero neduoda – šiose svetainėse pilna šlykštaus turinio, pastebi Verge.
Анастасия Зырянова