Prasideda dar neregėti laikai: „Dabar kiekvienas gali gauti slaptą informaciją, sužinoti vienas kito algas“  ()

Pokalbių robotas „ChatGPT“ padalino visuomenę ir vartotojus į dvi grupes. Vieni apsidžiaugė, kad šis dirbtinio intelekto (DI) įrankis taps patogiu pagalbininku vykdant užduotis bei randant atsakymus į klausimus, kiti susirūpino, jog DI gali ištrinti nusistovėjusias Vakarų visuomenės elgesio taisykles saugančias kiekvieno mūsų privatumą.


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

2021 m. startavęs „ChatGPT“ greitai atsidūrė dėmesio centre. Kai kas šį įrankį prilygina „iPhone“ fenomenui dirbtinio intelekto (DI) srityje, nes priartino jį prie masinio vartotojo. Vis dėlto, naujasis DI įrankis greitai pažėrė ir teisinių klausimų, į kuriuos dabar mėginama atsakyti ir, svarbiausia, nustatyti naujas taisykles vartotojams.

Treniruoja nemokamai

Socialiniuose tinkluose tapo madinga dalintis vartotojų įspūdžiais pirmą kartą pabandžius „ChatGPT“. Įdomu tai, kad visuomenė šį įrankį supranta kaip dar vieną naują žaisliuką, todėl noriai jį išbando. Vartotojai eksperimentuoja, žaidžia, formuluoja užduotis, žavisi DI pateikiamais rezultatais.

„Tai – įžvalgus įrankio kūrėjų žingsnis, nes būtent vartotojų eksperimentai ir moko algoritmą, kuriuo grindžiamas „ChatGPT“. Už DI produkto treniravimą, testavimą mokami didžiuliai pinigai, o šiuo atveju viso pasaulio vartotojai tai daro nemokamai“, – akcentuoja  advokatų kontoros „TGS Baltic“ partneris, Technologijų industrijos grupės vadovas Mindaugas Civilka.

Tinkamas duomenų valdymas

Nors iš pirmo žvilgsnio „ChatGPT“ gali pasirodyti kaip dar vienas skaitmeninis įrankis, tačiau į šį DI produktą nereikėtų žvelgti pro pirštus, ypač, kai kalbame apie asmens duomenų apsaugą.

„TGS Baltic“ teisininkas Mindaugas Beniušis aiškina, kad DI asmens duomenis gali tvarkyti netinkamai, nes „ChatGPT“ veikimo metodas yra toks, kad įrankio pateikiamuose atsakymuose gali slypėti nemažai jautrios informacijos, kuri gali būti neskirta atsakymo gavėjui, nors pastarasis tokios informacijos gali įtikinamai, įsakmiai ir net reikliai pareikalauti. Užklausos gali atskleisti slaptą informaciją, pavyzdžiui, kiek žmonių dirba konkrečioje institucijoje, koks yra vidutinis pareigybės darbo užmokestis, kokia bendrovės vidaus politika bei taisyklės ir pan.

„Yra daug būdų, kaip pergudrauti DI įrankio filtravimo mechanizmą ir išgauti kitų klientų bei naudotojų įvestą slaptą, jautrią, konfidencialią informaciją“, – pabrėžia M. Beniušis.

DI gali kelti didelę grėsmę privatumui, įskaitant duomenų anonimiškumo panaikinimą. Naujausiais tyrimais nustatyta, kad DI pagrįsti giliojo mokymosi modeliai gali pagal radiologinius vaizdus nustatyti pacientų rasę ir tai daro gerokai tiksliau nei žmonės. Kyla rizika, kad DI sistemos pateikti duomenys gali atskleisti privačią asmens informaciją arba susieti ją su kitais duomenimis.

 

„Norint užtikrinti privatumą, visų pirma, būtina užtikrinti tinkamą duomenų, naudojamų DI, atranką bei tikrinimą. Antra, detaliai informuoti asmenis apie duomenų naudojimą. Trečia, užtikrinti surinktų duomenų saugumą“, – sako M. Beniušis.

Mėginimai pažaboti DI

Viena iš pagrindinių „ChatGPT“ grėsmių, apie kurią vis garsiau kalbama, yra asmens duomenų apsaugos (BDAR) pažeidimai.

2023 m. kovo 31 d. Italija pirmoji žengė itin svarbų žingsnį ir uždraudė šalyje naudotis „ChatGPT“. Toks sprendimas buvo priimtas po kovo 20 d. įvykusio duomenų saugumo pažeidimo, susijusio su naudotojų pokalbiais ir mokamos paslaugos abonentų mokėjimo informacija. Italijos duomenų apsaugos institucija pradėjo incidento tyrimą, nurodydama, kad naudotojams ir suinteresuotiesiems subjektams nebuvo atskleista informacija, taip pat nebuvo teisinio pagrindo, pateisinančio masinį asmens duomenų rinkimą ir algoritmų saugojimą mokymo tikslais.

 

Apibendrinant galima pasakyti, kad Italija griežtų veiksmų ėmėsi dėl šių priežasčių: „ChatGPT“ gali pateikti netikslius faktus, įrankis aiškiai nenurodo, kad renka vartotojų duomenis, „ChatGPT“ valdanti bendrovė „OpenAI“ neturi teisinio pagrindo rinkti duomenis ES, įrankis neturi saugiklių, garantuojančių, kad juo nesinaudos jaunesni nei 13 m. asmenys.

Kaip elgtis?

Nors „ChatGPT“ ir kursto smalsumą bei skatina išmėginti DI galimybes, teisininkas M. Civilka, pataria, kaip tinkamai naudotis šiuo įrankiu.

„Naudojantis viešai prieinamu DI produktu, į užklausą nereikėtų vesti jokios iš esmės konfidencialios informacijos, pavyzdžiui, valdybos susirinkimo detalių, kad „ChatGPT“ pateiktų santrauką ar išvadas; dalintis įmonės finansiniais rezultatais, kad būtų pateiktas įvertis ar apskaičiuotas rodiklis, ir ypač duomenų apie konkrečius asmenis, t.y., nereikėtų įvesti savo darbo užmokesčio tam, kad „ChatGPT“ apskaičiuotų mokėtiną gyventojų pajamų mokestį“, – pavyzdžius vardija M. Civilka.

 

Jis sukonkretina, kad atsargumo priemonių verta laikytis, nes kol kas neaišku, kaip gautą informaciją naudos „Open AI“. Be to, „ChatGPT“ privatumo politikoje nurodoma, kad bendrovė gali dalintis vartotojo įvesta informacija su tam tikrais trečiaisiais asmenimis.  Pati „OpenAI“ savo taisyklėse nurodo, kad viešosios versijos vartotojų įvedami duomenys bus naudojami Chat GPT paslaugų tobulinimui, jai tam nepaprieštarauja patys vartotojai, o mokamų Open AI paslaugų turinys (kai juo naudojamasi kuriant paties naudotojo produktus) nebus naudojamas paslaugų tobulinimui. Visgi, nėra aišku, ar įvestas turinys negali tyčia ar netyčia tapti prieinamu kitiems DI naudotojams.

„Todėl bent jau kol kas naudojantis „Open AI“ teisingiausia laikytis požiūrio, kad viskas, kas įvedama klausimų ar panašiu pavidalu į „ChatGPT“, yra paskleidžiama neribotam arba bent jau nekontroliuojamam asmenų ratui“, – apibendrina M. Civilka.

Pasidalinkite su draugais
Aut. teisės: www.technologijos.lt
(2)
(2)
(0)

Komentarai ()