Prieš rinkimus gali padaugėti suklastoto turinio: kibernetinio saugumo ekspertas turi 5 patarimus, kaip nelikti apgautiems  ()

Skaičiuojama, kad šiemet į rinkimus eis balsuoti už jiems patikusius atstovus ir valstybių vadovus maždaug ketvirtadalis pasaulio gyventojų. Lietuvoje vyks net 3 rinkimai: gegužę rinksime Prezidentą, birželį – Europos Parlamentą, o spalį – Seimą. Stiprėjant dirbtinio intelekto vaidmeniui informacinėje erdvėje, ekspertai įspėja apie melagienų ir išmaniojo klastojimo (angl. deepfake) derinio grėsmes. Kaip netapti apgautiems?


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Terminas „melagingos naujienos” arba tiesiog – melagienos – išpopuliarėjo 2016 metais, kai JAV vyko prezidento rinkimai. Praėjus aštuoneriems metams iškilo dar didesnė grėsmė – net ekspertus galintis apgauti melagienų ir išmaniojo klastojimo derinys. Kadangi ne tik Lietuvos piliečiai, bet ir milijonai pasaulio gyventojų šiemet balsuos valstybių rinkimuose, dėl vis didėjančios klastočių tikimybės kyla susirūpinimas, kad siekdamos paveikti rezultatus dezinformacija ir dirbtinio intelekto valdomais triukais, gali pasinaudoti priešiškos jėgos. Kokių pasekmių gali kilti, jei išmanusis klastojimas taps visuotiniu reiškiniu? Tai gali pakeisti politinį žemėlapį ir geopolitikos kryptį artimiausiems keleriems metams ar ilgiau.

Išmaniojo klastojimo grėsmė

Pasaulio ekonomikos forumas (angl. World Economic Forum) dezinformaciją neseniai pripažino didžiausia pasauline rizika per ateinančius dvejus metus. Dirbtinis intelektas dabar tampa pakankamai pigi, prieinama ir galinga technologija, tad gali daryti įtaką dideliu mastu.

Kibernetinio saugumo ekspertai prognozuoja, kad per ateinančius dvejus metus išmanusis vaizdo klastojimas manipuliuos žmonėmis, darys žalą ekonomikai ir skaldys visuomenę įvairiais būdais. „Kyla rizika, kad kai kurios vyriausybės veiksmų imsis per lėtai, susidurdamos su kompromisu tarp dezinformacijos prevencijos ir žodžio laisvės apsaugos”, – sako „NOD Baltic” vyresnysis kibernetinio saugumo inžinierius ir ESET ekspertas Ramūnas Liubertas.

Tokie įrankiai kaip „ChatGPT” ir laisvai prieinamas generatyvinis dirbtinis intelektas (genAI) suteikė galimybę platesniam asmenų ratui dalyvauti kuriant išmaniu klastojimu paremtas dezinformacijos kampanijas. Kadangi visą darbą atlieka dirbtinis intelektas, programišiai turi daugiau laiko dirbti su savo skleidžiamomis melagienomis, kad jos būtų įtikinamesnės ir labiau matomos.

„ChatGPT” įkūrėjai „OpenAI” visai neseniai pristatė savo naująją „Voice Engine" technologiją. Bendrovė teigia, kad ji žmogaus balsą  gali atkurti įrašius vos 15 sekundžių jo kalbėjimo: parašius savo tekstą, programa „perskaito” jį pateiktu balsu.

„Tai išties pažangi technologija, kuri įvairiose srityse gali palengvinti ir pagreitinti žmonių atliekamą darbą, mat programa jūsų pateiktą balsą iškart gali pateikti visomis pasaulio kalbomis. Visgi ši technologija gali kelti ir didelę grėsmę siekiant apsimesti kitu žmogumi, jo balsu skleisti dezinformaciją, šiuo atveju – daryti įtaką artėjantiems rinkimams”, – aiškina IT sprendimų platinimo įmonės „Baltimax“ kibernetinio saugumo inžinierius ir ESET skaitmeninio saugumo sprendimų ekspertas Lukas Apynis.

 

Bendrovė kol kas riboja prieinamumą prie šios programos, tad ši priemonė galbūt apribos kelius piktavalių aferoms.

Klastotė JAV prezidento balsu

Akivaizdu, kad rinkimų kontekste išmaniosios klastotės gali būti naudojamos siekiant sumažinti rinkėjų pasitikėjimą konkrečiu kandidatu. Jei politinės partijos ar kandidato šalininkus galima paveikti suklastotu garso ar vaizdo įrašu, tai būtų laimėjimas konkurentams. Kai kuriose situacijose priešiškos valstybės gali siekti pakirsti tikėjimą visu demokratiniu procesu, kad tam, kas laimės, būtų sunku teisėtai vykdyti valdžios pareigas.

Nerimą kelia tai, kad išmanusis klastojimas gali turėti įtakos rinkėjų nuotaikoms. Štai visai naujas pavyzdys: 2024 m. sausio mėnesį nežinomam skaičiui rinkėjų Naujojo Hampšyro valstijoje buvo išplatintas JAV prezidento Joe Bideno suklastotas garso įrašas. Žinutėje jis akivaizdžiai ragino neiti į rinkimus, o geriau „pasilikti savo balsą lapkričio mėnesio rinkimams“. Skambinančiojo numeris taip pat buvo suklastotas, kad atrodytų, jog automatinė žinutė buvo išsiųsta iš asmeninio Kathy Sullivan, buvusios valstijos Demokratų partijos pirmininkės numerio.

 

Nesunku suprasti, kaip tokie raginimai gali būti panaudoti siekiant atkalbėti rinkėjus dalyvauti rinkimuose. Kai JAV rinkimų rezultatus gali nulemti vos kelios dešimtys tūkstančių rinkėjų keliose svyruojančiose valstijose, tokia tikslinė kampanija gali padaryti daug lemiančią įtaką.

„Apdorojant gautą informaciją visuomet reikia prisiminti, kad šiais laikais išmanųjį vaizdo klastojimą vis sunkiau atskirti nuo tikro turinio”, – akcentuoja R. Liubertas.

Kaip atpažinti klastotę?

Teigiama, kad ir „YouTube“, ir „Facebook“ per lėtai reagavo į kai kurias rinkimus siekiančias paveikti išmaniąsias klastotes. Savo ruožtu „OpenAI“ pareiškė, kad įdiegs Koalicijos dėl turinio autentiškumo (angl. Coalition for Content Provenance and Authenticity) skaitmeninius įgaliojimus vaizdams, sukurtiems naudojant DALL-E 3. Ši kriptografinė vandens ženklų technologija, kurią taip pat bando „Meta“ ir „Google“, skirta apsunkinti netikrų vaizdų kūrimą.

 

„Visgi tai dar tik pirmieji žingsniai, kurių gali nepakakti. Pasaulyje rinkiminės kampanijos jau įsibėgėja, o technologijų įmonės kol kas neskuba pranešti apie daugiau priemonių siekiant užkirsti kelią suklastotam turiniui”, – apgailestauja kibernetinio saugumo ekspertas R. Liubertas ir priduria, kad dėl to visiems informacijos gavėjams visuomet būtina išlikti budriems ir kritiškiems, o atskirti tikrą turinį nuo klastotės, padė šie 5 patarimai:

  1. atkreipkite dėmesį, ar matomas vaizdas yra nuoseklus, pavyzdžiui, ar nėra keistų vaizdo šuolių – galimų montavimo pėdsakų, balso paryškinimo pokyčių, prastos garso kokybės, neryškių dėmių ar keistų apšvietimo skirtumų;
  2. analizuojant vaizdo įrašą ar tiriant garso takelį galima aptikti neatitikimus lyginant juos su jau patvirtintais šaltiniais ir nustatyti, ar pranešimas, ar istorija yra tikri;
  3. išmanioms klastotėms taip pat būdingi tam tikri neatitikimai tarp kūno ir veido proporcijų arba tarp veido išraiškų bei kūno judesių;
  4. išmaniojo klastojimo atpažinimą palengvintų specializuota programinė įranga, pavyzdžiui, Informacinių technologijų instituto Graikijoje kuriamas „InVID Verification Plugin” įskiepis, tačiau šiuo metu jis vis dar yra kuriamas ir nėra visiškai tikslus;
  5. susidūrus su abejotinu ir kontraversišku vaizdo įrašu, jį reikėtų kritiškai įvertinti ir įdėmiai pasvarstyti, ar šis turinys tikrai galėtų būti tikras ir ar pateikiama situacija gali būti reali.

 

„Bet kokiu atveju, jei kyla įtarimas dėl jus pasiekusios informacijos tikslumo ir tikrumo, tokiu turiniu nesidalinkite su kitais, o geriau pateikite pranešimą (angl. report) socialinio tinklo administratoriams”, – ragina R. Liubertas.

Pasidalinkite su draugais
Aut. teisės: www.technologijos.lt
(2)
(0)
(2)

Komentarai ()