„Intel“ praneša apie įrankį, kuris identifikuoja „Deepfake“ suklastotus vaizdus (Video) ()
Į gilias klastotes („Deepfake“), kurios paprastai susijusios su kieno nors veido ir balso uždėjimu ant kito asmens, pradėta atkreipti dėmesį prieš kelerius metus, kai suaugusiesiems skirtose svetainėse buvo uždrausti vaizdo įrašai, kuriuose šiuo metodu buvo naudojami garsių aktorių veidai prie pornožvaigždžių kūnų.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Nuo to laiko DF vaizdo įrašai tapo vis pažangesni. Yra daugybė programėlių, leidžiančių naudotojams įterpti draugų veidus į filmus, taip pat matėme, kaip šis dirbtinio intelekto valdomas procesas naudojamas senoms nuotraukoms atgaivinti ir jaunoms aktorių versijoms vėl perkelti į ekraną.
Tačiau ši technologija turi ir nemaloniąją pusę. Be to, kad ji naudojama kuriant netikrą keršto pornografiją, ja pasinaudoja ir sukčiai, besikreipiantys dėl nuotolinio darbo. Taip pat buvo sukurta programėlė, skirta skaitmeniniu būdu nuimti moterų drabužius. Tačiau didžiausią susirūpinimą kelia tai, kaip „Deepfake“ paskatino dezinformacijos plitimą – šių metų pradžioje socialinėje žiniasklaidoje buvo išplatintas netikras Ukrainos prezidento Volodymyro Zelenskio pasidavimo vaizdo įrašas.
Organizacijos, įskaitant „Facebook“, Gynybos departamentą, „Adobe“ ir „Google“, sukūrė įrankius, skirtus giluminėms klastotėms atpažinti. Tuo tarpu „Intel“ ir „Intel Labs“ versija, taikliai pavadinta „FakeCatcher“, taiko unikalų metodą: analizuoja kraujotaką.
Užuot taikiusi metodą, pagal kurį tiriamas vaizdo įrašo failas, ieškant iškalbingų požymių, „Intel“ platforma naudoja giluminį mokymąsi, kad išanalizuotų subtilius veidų spalvos pokyčius, kuriuos sukelia venose tekantis kraujas – šis procesas vadinamas fotopletizmografija, arba PPG.
„FakeCatcher“ nagrinėja kraujo tekėjimą vaizdo taškuose – tai, ką giluminiai klastotojai dar turi ištobulinti, – ir tiria kelių kadrų signalus. Klasifikatorius nustato, ar atitinkamas vaizdo įrašas yra tikras, ar suklastotas.
„Intel“ teigia, kad kartu su akių žvilgsniu pagrįstu aptikimu šis metodas gali nustatyti, ar vaizdo įrašas yra tikras, per milisekundes ir 96 % tikslumu. Bendrovė pridūrė, kad platformoje naudojami trečiosios kartos „Xeon Scalable“ procesoriai su iki 72 vienu metu veikiančiais aptikimo srautais ir ji veikia per žiniatinklio sąsają.
Tokio didelio tikslumo realaus laiko sprendimas gali būti labai svarbus kovoje su dezinformacija internete. Kita vertus, dėl jo gilios klastotės gali tapti dar tikroviškesnės, nes kūrėjai bandys apgauti sistemą.