Paslaptys, kurių negalima atskleisti. Nustokite šnekėtis su „ChatGPT“!  ()

Gali būti blogiausias scenarijus.


DI
DI
© Jernej Furman from Slovenia, CC BY 2.0 | https://commons.wikimedia.org/wiki/File:Hand_holding_smartphone_with_ChatGPT_(52917076309).jpg

Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Panagrinėkime, kokiomis temos ir klausimais draudžiama diskutuoti su „ChatGPT“ ir kodėl svarbu atsižvelgti į šiuos apribojimus.

Pastaraisiais metais daug sužinojome apie pokalbių robotus – ir jie daug sužinojo apie mus. Dirbtinis intelektas išmoko ne tik atsakyti į klausimus, bet ir prisiminti pokalbių detales, formuodamas savotišką „atmintį“. Dėl to jis gali „ištraukti“ anksčiau žinomus faktus apie pašnekovą ir vesti prasmingesnį bei suasmenintą dialogą.

Ką tiksliai reiškia, kad DI „prisimena“? 

Pirma, pokalbių roboto „atmintis“ nėra magija, o mechanizmų rinkinys. Kartais tai tiesiog dabartinės sesijos istorija: modelis išsaugo naujausius pranešimus kontekste ir naudoja juos nuosekliam atsakymui. Kituose modeliuose tai išties ilgalaikė atmintis: platforma saugo individualius faktus apie vartotoją (pomėgius, įpročius, svarbius įvykius) ir juos „ištraukia“ kito seanso metu, kad nereikėtų klausti to paties dar kartą ir kad atsakymai būtų suasmeninti. Ir tai atrodo patogu.

Antra, privalumai akivaizdūs: suasmeninimas padaro bendravimą efektyvesnį ir „žmogiškesnį“. Robotas, kuris prisimena, kad jūs renkatės kavą, o ne arbatą, kad turite mažą vaiką arba kad negalite vartoti tam tikrų vaistų, gali pasiūlyti aktualesnių patarimų, sumažinti rutiną (ne pasikartojančius nustatymus) ir netgi išvengti klaidų. Įmonėms tai reiškia geresnį aptarnavimą ir klientų išlaikymą; individualiems vartotojams tai reiškia patogumą ir mažiau erzinančių pasikartojančių DI klausimų.

[EU+Kuponai] Akumuliatoriniai purkštuvai. Aukščiausia kokybė už juokingas kainas. Paskutiniai vienetai (Video)
1298 2

Rekordiški žemos kainos

Specialūs kuponai

Iš Europos greitas ir saugus pristatymas

Aukščiausia kokybė

Labai ribotas kiekis

Išsamiau

Tačiau yra ir tamsioji pusė. Kai sistema saugo jūsų gyvenimo detales, ji sukuria nutekėjimo, nepageidaujamo profiliavimo ir situacijų, kai robotas netinkamai „prisimena“ dalykus, kuriais nesate pasiruošę dalytis, riziką. Dirbtinio intelekto atmintis gali sukurti jausmą, kad esame stebimi, ir padidinti klaidingų išvadų padarymo tikimybę, jei saugomi duomenys yra neteisingai interpretuojami arba naudojami be konteksto.

Kuo daugiau informacijos apie save pateikiame, tuo naudingesni tampa dirbtinio intelekto pokalbių robotai. Štai kodėl vartotojai dažnai siunčia jiems medicininių tyrimų rezultatus ar net neskelbiamo kodo fragmentus. Atrodo, nieko neįprasto – daugelis tai daro. Tačiau dirbtinio intelekto tyrėjai perspėja: būkite atsargūs su tokiu pasitikėjimu. Yra duomenų, kuriuos atskleisti ypač rizikinga.

„OpenAI“ aiškiai prašo vartotojų „nesidalinti slapta informacija“ savo žinutėse, o „Google“ „Gemini“ gairėse teigiama: „Neįveskite duomenų, kuriais nenorėtumėte dalytis su niekuo kitu“.

 

Problema ta, kad net ir nekenksmingos detalės – skundai dėl keisto bėrimo ar užrašai apie mėnesines išlaidas – galiausiai gali patekti į pavyzdžius, kuriuos robotas naudoja mokymuisi, o tai gali sukelti duomenų nutekėjimą. Tai tikriausiai blogiausias scenarijus. Kita vertus, per didelis nerimas irgi nepadeda. Daug naudingiau suprasti, kokių temų ir duomenų geriausia niekada neįtraukti į pokalbius su dirbtiniu intelektu, ir vadovautis šiomis paprastomis taisyklėmis, kad niekada nereikėtų nerimauti dėl savo duomenų privatumo.

Pokalbių robotai gali kalbėti taip natūraliai, kad kartais pradedame jiems atviriau kalbėti nei pažįstamiems. Tačiau atminkite: viskas, ką sakote dialoge, nebėra visiškai jūsų kontroliuojama. Kai ką nors rašote pokalbių robotui, jūs nebekontroliuojate šios informacijos.

Privatumo iliuzija yra apgaulinga. Pavyzdžiui, 2023 m. kovo mėn. „ChatGPT“ susidūrė su trikdžiu, dėl kurio vartotojai matė kitų žmonių žinutes. Buvo ir kitų incidentų: „OpenAI“ per klaidą išsiuntė prenumeratos patvirtinimo el. laiškus netinkamiems gavėjams, atskleisdama vardus, el. pašto adresus ir mokėjimo informaciją. Jūsų pokalbių istorija gali patekti į nutekintus archyvus arba tapti prieinama teisėsaugos institucijoms jų prašymu.

 

Žinoma, pirmiausia turėtumėte apsaugoti savo paskyrą naudodami stiprų slaptažodį ir dviejų veiksnių autentifikavimą, tačiau svarbiau nebendrinti tam tikrų duomenų su robotu:

1. Asmeninės informacijos.

Geriausia paso duomenis, vairuotojo pažymėjimo numerius, namų adresą, telefono numerį ar gimimo datą pasilaikyti paslaptyje. Net jei pokalbių robotas bando „paslėpti“ tokius duomenis, jų nutekėjimo rizika vis tiek išlieka. Kaip pažymi „OpenAI“, modelių tikslas yra mokytis iš informacijos apie pasaulį, o ne apie asmenis, todėl jie stengiasi kuo labiau sumažinti asmens duomenų rinkimą.

2. Medicininės informacijos.

DI neprivalo išlaikyti medicininio konfidencialumo. Todėl, jei norite parodyti savo tyrimų rezultatus, iš anksto suliekite arba iškirpkite dokumentą, kad jame neliktų jūsų asmens duomenų.

3. Finansų.

Banko duomenys, kortelių numeriai, PIN kodai ar investicinės sąskaitos duomenys yra tiesioginis kvietimas sukčiams nutekėjimo atveju. Dalinkitės tik tuo, kas nekelia grėsmės jūsų saugumui.

 

4. Konfidencialių darbo žinių.

Naudojant pokalbių robotus darbo užduotims spręsti, lengva netyčia atskleisti klientų duomenis ar vidinio kodo elementus. Taigi, po to, kai „Samsung“ inžinierius įkėlė dalį šaltinio kodo į „ChatGPT“, įmonė uždraudė darbuotojams naudotis paslauga darbe. Jei negalite apsieiti be dirbtinio intelekto, verta aptarti įmonės prenumeratą arba įdiegti savo saugų sprendimą.

5. Prisijungimų ir slaptažodžių.

Dirbtinio intelekto asistentai vis dažniau perima sekretorių funkcijas, tačiau patikėti jiems prieigą prie paskyrų nėra saugu. Yra valdytojai, kurie saugo slaptažodžius, o pokalbių robotai tokios apsaugos neužtikrina.

Be to, nerekomenduojame dalytis savo originaliomis idėjomis su dirbtiniu intelektu, nes nėra jokios garantijos, kad anksčiau ar vėliau jų nepanaudos dirbtinio intelekto algoritmai kažkam kitam.

Skirtingos dirbtinio intelekto paslaugos taiko skirtingus duomenų tvarkymo metodus. Pavyzdžiui, „Claude“ pagal numatytuosius nustatymus nenaudoja jūsų pokalbių mokymuisi ir ištrina juos po dvejų metų. „ChatGPT“, „Microsoft Copilot“ ir „Google Gemini“ naudoja pokalbius mokymuisi, tačiau leidžia išjungti šią funkciją nustatymuose.

Norėdami sumažinti riziką:

  • Ištrinkite pokalbius iš karto po pokalbio pabaigos.

 

Visada pravartu išvalyti pokalbius iš karto po jų pabaigos. Paprastai duomenys ištrinami per 30 dienų, tačiau, pavyzdžiui, „DeepSeek“ su serveriais Kinijoje gali juos saugoti neribotą laiką, ir jūs to negalite atsisakyti.

  • Naudokite laikiną pokalbį.

„ChatGPT“ turi „laikino pokalbio“ parinktį, kuri reiškia laikiną pokalbį (viršutiniame dešiniajame kampe), kuris yra panašus į naršyklės „inkognito“ funkciją. Tokie pokalbiai nėra išsaugomi ir neįtraukiami į mokymą.

  • Susisiekite anonimiškai.

„DuckDuckGo“ paslauga „Duck.ai“ leidžia siųsti anonimines užklausas pasirinktiems dirbtinio intelekto modeliams, užtikrinant, kad jie nebus naudojami mokymui. Tiesa, ji veikia tik su tekstu ir nepalaiko vaizdų.

Pokalbių robotai bendravimą padaro patogesnį ir suasmenintą, tačiau bet kokia jiems perduodama informacija gali peržengti privataus dialogo ribas. Norint saugiai naudoti dirbtinį intelektą, pakanka paprastos taisyklės: su nepažįstamais žmonėmis dalinkitės tik tuo, ką esate pasiruošę parodyti, o visa kita pasilikite sau.

Pasidalinkite su draugais
Aut. teisės: MTPC
MTPC
(1)
(1)
(0)
MTPC parengtą informaciją atgaminti visuomenės informavimo priemonėse bei interneto tinklalapiuose be raštiško VšĮ „Mokslo ir technologijų populiarinimo centras“ sutikimo draudžiama.

Komentarai ()