ChatGPT yra pavojingas. 5 dalykai, kurių neturėtumėte sakyti pokalbių robotui (1)
Tai nėra saugi jūsų asmeninių ar konfidencialių duomenų saugykla.
© Sanket Mishra (Public Domain) | https://www.pexels.com/photo/webpage-of-chatgpt-a-prototype-ai-chatbot-is-seen-on-the-website-of-openai-on-a-smartphone-examples-capabilities-and-limitations-are-shown-
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Net jei atrodo, kad DI pokalbių robotas atsako „kaip draugas“, jūsų įvesta informacija gali būti panaudota kitaip, nei tikitės. DI pokalbių robotai, tokie kaip „ChatGPT“, tapo neatsiejama kasdienio gyvenimo dalimi: žmonės juos naudoja ieškodami atsakymų, rašydami tekstus, generuodami idėjas ar net analizuodami duomenis.
Tačiau kuo aktyviau sąveikaujame su DI, tuo svarbiau prisiminti – tai nėra saugi jūsų asmeninių ar konfidencialių duomenų saugykla, rašo „SlashGear“.
„ChatGPT“ kasdien atsako į maždaug 2,5 milijardo užklausų, ir net esant įdiegtiems apsaugos mechanizmams, išlieka reali duomenų nutekėjimo bei nekontroliuojamo jūsų įvestos informacijos naudojimo rizika. Technologija nuolat tobulėja, tačiau atsargumas vis tiek yra būtinas.
Štai 5 dalykai, kurių niekada negalima pasakoti „ChatGPT“ ar bet kuriam kitam „išmaniajam“ pokalbių robotui.
Asmeninė informacija
|
Kai kurie vartotojai nesąmoningai įveda savo pilną vardą, pavardę, adresus, dokumentų numerius ar kontaktinius duomenis, pavyzdžiui, sudarydami gyvenimo aprašymą (CV). Tai gali sukelti rimtų pasekmių duomenų nutekėjimo atveju arba jei piktavaliai gautų prieigą prie modelio duomenų bazės.
Net jei atrodo, kad pokalbių robotas atsako „kaip draugas“, tokia informacija gali būti apdorota sistemos ir naudojama kitaip, nei tikitės.
Finansinė informacija
„ChatGPT“ galima paprašyti tapti finansų konsultantu ir padėti sudaryti mėnesio biudžetą ar net parengti visą pensijų strategiją, tačiau konkretūs duomenys apie sąskaitas, kreditines korteles, investicijas ar mokesčius neturėtų būti vedami į DI pokalbių langą.
Ekspertai pabrėžia, jog pateikus duomenis DI, neįmanoma sužinoti tolesnio jų likimo. Finansinės informacijos įvedimas gali sukurti rimtą riziką: nuo sukčiavimo schemų ir asmens duomenų nutekėjimo iki fishingo (duomenų viliojimo) atakų bei įrenginių užkrėtimo išpirkos reikalaujančiomis programomis.
Medicininiai duomenys
Remiantis neseniai atlikta apklausa, maždaug vienas iš šešių suaugusiųjų bent kartą per mėnesį kreipiasi į „ChatGPT“ dėl simptomų paaiškinimo ar gydymo. Tarp jaunimo šis rodiklis išauga iki vieno iš keturių kartų per mėnesį. Ekspertai ragina tai daryti itin atsargiai ir suprasti, kad tai nėra gydytojas ir jis nepakeičia specialisto konsultacijos. Kaip ir finansinės informacijos atveju, problemą gilina tai, kad pateikus tokius duomenis DI, neįmanoma sužinoti apie tolesnį jų likimą.
Su darbu susijusi medžiaga
Įmonės dokumentai, ataskaitos ir strategijos – tai apima viską, kas susiję su darbdaviu, klientu ar vykdomu projektu, kuris nėra skirtas viešumui.
Kaip pažymi leidinys, dirbtinis intelektas gali atrodyti patogus įrankis tekstų redagavimui ar dokumentų santraukų kūrimui, tačiau tai taip pat gali sukelti nereikalingą riziką.
Bet kokios neteisėtos užklausos
To reikėtų vengti ne tik saugumo sumetimais, bet ir dėl teisinių priežasčių. Klausimai apie tai, kaip vykdyti nusikaltimus, sukčiauti ar manipuliuoti, gali lemti paslaugų blokavimą ir net atsakomybę, nes platformos privalo laikytis įstatymų ir gali atskleisti duomenis teisėsaugos institucijų prašymu.
„OpenAI“ vadovas Samas Altmanas taip pat įspėja, kad susirašinėjimas su „ChatGPT“ nėra saugomas įstatymų taip pat, kaip pokalbiai su tikru specialistu, ir teisinio nagrinėjimo atveju kūrėjai, remiantis teismo sprendimu, gali būti įpareigoti pateikti vartotojo susirašinėjimą.
Todėl visuomet būkite atsargūs su tuo, ką pasakojate DI, ypač jei tai susiję su jūsų asmeniniu ar profesiniu gyvenimu.
