Jūs tikite gražia iliuzija. Darote klaidą pasitikėdami dirbtiniu intelektu  ()

Daugelis mūsų kasdien naudojamės dirbtiniu intelektu.



© recraft.ai (Free Tier Assets) | https://www.recraft.ai

Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Klausiame įvairių dalykų: orų, kelionių planų, ar pigaus atsuktuvo užteks pakabinti paveikslą ant sienos, ką vartoti nuo gerklės skausmo, kam priklauso Mėnulis ir ar esame teisūs.

Dirbtinis intelektas paprastai yra malonus, noriai padeda, pasiruošęs išklausyti ir patapšnoti mums per petį. Jis atsakys į kiekvieną klausimą – ar teisingai? Tai visai kitas klausimas. Kaip įmanoma, kad pradedame labiau pasitikėti dirbtiniu intelektu nei žmonėmis?

Pripažinkite sau: kaip dažnai bendraujate su dirbtiniu intelektu? Ir kokius klausimus jam užduodate? Dirbtinis intelektas, regis, klausosi, supranta, lengvai sutinka su mumis, žeria komplimentus, o kai pagaunamas atliekant neteisingą informaciją, atsiprašo ir pažada pasistengti geriau. Ko daugiau galima norėti iš pašnekovo, jei ne galbūt... žmogaus?

Pokalbiai su dirbtiniu intelektu atrodo nekenksmingi. Kokia problema užduoti klausimą žinant, kad atsakymą gausime vos po kelių dešimčių sekundžių? Informacija pateikiama prieinamu būdu, dažnai apibendrinama, klausimo uždavimas nereikalauja daug pastangų, o rezultatas džiugina – turime informaciją, kurios ieškojome.

Žurnale „The Lancet Psychiatry“ paskelbtame straipsnyje „Su dirbtiniu intelektu susiję kliedesiai ir dideli kalbos modeliai: rizika, kliedesių bendro kūrimo mechanizmai ir apsaugos strategijos“ tyrėjai atkreipia dėmesį į labai įdomią tendenciją, išryškėjančią naudojant pokalbių robotus. Kai kuriais aprašytais atvejais  jie pastebėjo perėjimą nuo praktinio dirbtinio intelekto naudojimo prie obsesyvaus įsitraukimo.

Patikima žaidimų pelė už protingą kainą: ergonomiškas dizainas, tikslus veikimas, vos 55 gramų svoris, ir trys skirtingi prijungimo būdai („White Shark MAXIMUS" apžvalga)

„White Shark MAXIMUS" yra belaidė žaidimų pelė, gebanti nustebinti savo kokybe ir darbinėmis savybėmis – ypač atsižvelgiant į tai, kad ji kainuoja bene keturis kartus mažiau nei tiesioginiai konkurentai.

Išsamiau

Tai prasideda nekaltai, nuo pagalbos atliekant kasdienes užduotis, o tai ugdo pasitikėjimą ir susipažinimą su įrankiu. Tačiau vėliau vartotojai pereina prie vis asmeniškesnių ar filosofinių klausimų uždavimo. Sakoma, kad pokalbių robotai, sukurti siekiant maksimaliai padidinti mūsų įsitraukimą, sukuria pavojingą dominuojančių temų spiralę.

Lyg to būtų maža, atrodo, kad mes mokome dirbtinį intelektą (DI) sutikti su mumis. Tyrimo autoriai teigia, kad tai gali būti dėl modelių, kurie mokosi iš vartotojų atsiliepimų, kurie nesąmoningai linkę teigiamai įvertinti palankius atsakymus. Dėl to DI išmoksta teikti pirmenybę tokiam elgesiui.

Kai kurie tyrėjai kritikuoja žmonių ir dirbtinio intelekto sąveiką, teigdami, kad nors vartotojai iš tiesų gali jausti stiprų supratimo jausmą, tai iš tikrųjų yra iliuzija ar net projekcija. Dirbtinis intelektas tik imituoja subjektyvumą ir emocijas, bet jų neturi, todėl, anot tyrėjų, kyla rizika, kad prasmingi tarpasmeniniai santykiai bus pakeisti „apgaulinga pseudo sąveika“.

Taigi, jei atsižvelgsime į tai svarstydami, kokios gali būti didelio pasitikėjimo dirbtiniu intelektu pasekmės, taip pat verta pagalvoti, kokių atsakymų ieško vartotojai ir kam jie juos naudoja.

Dirbtinis intelektas sutinka su mumis, dažnai net tada, kai iš tikrųjų nesakome tiesos. Tarkime, neturime laiko ar rūpesčių patikrinti gautos informacijos, bet tai, ką pasakė DI, traktuojame kaip neginčijamą savo nuomonės patvirtinimą. Jei tai nereikšmingas dalykas, problemų nėra, bet kas, jei esame vadovaujančiose pareigose įmonėje ir, remdamiesi pasitikėjimu, užsitarnautu reguliariai užduodant klausimus, labiau gerbiame DI žodžius nei kolegų ir pavaldinių argumentus?

 

Taip pat potencialiai pavojinga yra tai, kad dirbtinio intelekto pranašumas slypi jo atsakymų į mūsų klausimus greičiu. Jei suliesime ribas tarp to, dėl ko turėtume konsultuotis su pokalbių robotu, ir to, kiek juo pasitikėti, galime klausti apie sveikatos problemas, iš tikrųjų tikėdamiesi medicininės pagalbos – atsakymą, jau nekalbant apie „diagnozę“, galėtume gauti per kelias sekundes.

Naujas tyrimas „Didelių kalbų modelių efektyvumo ir klinikinio mąstymo užduotys“, paskelbtas žurnale „JAMA Network Open“, nepalieka jokių abejonių: pirmaujantys kalbos modeliai daro klaidas diagnozuodami daugiau nei 80 % ankstyvųjų medicininių atvejų. Teigiama, kad jie pernelyg skubotai priima sprendimus, kai mūsų pateikti duomenys yra neišsamūs. Tad ar tikrai norime klausytis dirbtinio intelekto tokiais svarbiais klausimais kaip mūsų sveikata?

Čia paliečiame ir kitą problemos aspektą – siekdami ne tik pritarimo, bet ir tiesiog atsakymų į konkrečius klausimus, galime paprašyti dirbtinio intelekto kalbėti kaip eksperto.

Ir kaip neseniai sužinojome iš Kalifornijos universiteto mokslininkų atlikto eksperimento, aprašyto straipsnyje „Ekspertų personas pagerina LLM suderinamumą, bet kenkia tikslumui: ketinimais pagrįsto asmens nukreipimo į priekį taikymas naudojant PRISM“, jei dirbtiniam intelektui suteikiamas konkretus vaidmuo, jo dėmesys sutelkiamas į jį, o klaidų rizika padidėja. Tuomet tikimasi, kad jis daugiau dėmesio skirs tonui ir formai, o ne pačiam perteikiamam turiniui.

 

Dėl akivaizdžių priežasčių negalime pateikti ekrano kopijų, bet kurį laiką „Interia“ stebėjo abejotino malonumo influencerę, turinčią nemažą sekėjų ratą ir kuriai akivaizdžiai reikalinga pagalba, internete aiškinančią apie savo progresuojantį alkoholizmą, remdamasi pokalbiais su ChatGPT. Dirbtinis intelektas interpretavo jos testo rezultatus ir lengvai sutiko su viskuo, ko norėjo moteris. Pasak jos, tai nebuvo tiesiog pokalbiai, o „įrodymai“. Ji palygino dirbtinio intelekto sugeneruotus žodžius su tuo, ką jai sakė gydyto jai. Iškilo klausimas: „Kur yra riba ir kas ją turėtų nubrėžti?“

Naujame žurnale „Science“ paskelbtame tyrime „Palinkęs dirbtinis intelektas mažina prosocialinius ketinimus ir skatina priklausomybę“ tyrėjai nustatė, kad dideli kalbos modeliai demonstravo pernelyg didelį paklusnumą arba meilikavimą, kai vartotojai kreipėsi į juos dėl tarpasmeninių santykių. Net kai vartotojai apibūdino žalingą ar neteisėtą elgesį, modeliai dažnai palaikė jų pasirinkimus. Tyrimo autoriai dokumentais patvirtino, kad dirbtinio intelekto atsakymai buvo beveik 50 % meilikaujantys nei žmonių, net kai buvo kalbama apie neetišką ar neteisėtą elgesį.

Taip pat verta paminėti, kad interneto vartotojai, naudojantys pokalbių robotus, regis, iki galo nesupranta jų apribojimų. Kartais informacija būna tiesiog per nauja, kad dirbtinis intelektas galėtų ją pasiūlyti skaitytojui.

Žinoma, per daug nueitume, jei teigtume, kad viskas, ką skaitome žiniasklaidoje, automatiškai yra tiesa, tačiau verta pabrėžti savo apdairumo ir budrumo svarbą ieškant konkretaus turinio naudojant pokalbių robotus.

 

Lyg ribotos prieigos prie naujausios informacijos būtų maža, egzistuoja ir kitos problemos. Konstruktyvios komunikacijos centro (MIT Media Lab) tyrėjų atliktas tyrimas parodė, kad pažangiausi pokalbių robotai pateikia mažiau tikslius ir teisingus atsakymus vartotojams, turintiems prastesnes anglų kalbos žinias, žemesnį išsilavinimą ir tiems, kurie atvyksta iš kitų šalių. Tiesą sakant, dirbtinis intelektas (DI) dažniau atsisako atsakyti į klausimus ir (arba) globėjiškai elgiasi su vartotojais vartodamas tokią kalbą. Tai rodo, kad veikia dokumentuoti žmogaus šališkumo modeliai, atsispindintys DI.

Kaip parodė 2025 m. BBC atliktas eksperimentas, dirbtinis intelektas netgi vidutiniškai geba apibendrinti konkrečias naujienas. 51 procentas sugeneruotų atsakymų buvo pripažinti turinčiais įvairių rūšių klaidų, o net 19 % – faktinių klaidų (pvz., neteisingų teiginių, skaičių ar datų).

Paskutinis dalykas, kurį tikrai verta paminėti, yra, žinoma, haliucinacijos. Dirbtinis intelektas sugebėjo nusiųsti turistus į „garsiąsias karštąsias versmes“, apibūdinamas kaip „rami oazė Tasmanijos miškuose“ mažame Tasmanijos miestelyje, kurių iš tikrųjų nėra.

Kiti keliautojai ieškojo kelio į Šventąjį Humantajaus kanjoną, ir, laimei, jų pokalbį nugirdo etiškų ir tvarių žygių Peru kelionių bendrovės direktorius, priminęs įstrigusiems žygeiviams, kad tokios vietos nėra. Nors ieškotojai turėjo ekrano kopiją ir jų naudotas tekstas buvo parašytas užtikrintu tonu, pavadinimas buvo dviejų nieko bendro neturinčių vietų derinys.

 

Romantiškas žygis į Miseno kalno viršūnę Japonijoje taip pat baigėsi prastai dėl pokalbių roboto –  pora įstrigo viršūnėje, nes dirbtinis intelektas neteisingai nustatė keltuvo uždarymo laiką.

Tokių pavyzdžių yra daugybė; internete reguliariai pasirodo pranešimų apie dirbtinio intelekto haliucinacijas. Netgi pranešama, kad jis „nužudė“ gyvas būtybes ir atvirkščiai. Tokių aspektų nereikėtų pamiršti kasdien naudojantis dirbtiniu intelektu, nes nors minėti atvejai ir pasekmės atrodo gana lengvi, viskas gali tiesiog baigtis blogai.

Moksliniame straipsnyje pavadinimu „Algoritminiai ir žmogaus patarimai: ar prognozavimo našumas yra svarbus algoritmo vertinimui?“ nustatyta, kad dauguma tiriamųjų vadovaujasi dirbtinio intelekto patarimais, nors žino, kad jis daro klaidų.

Atlikus keletą eksperimentų, buvo nustatyta, kad žmonės labiau linkę vadovautis dirbtinio intelekto, o ne žmonių patarimais, net kai jie yra identiški ir aiškiai nustatyti dirbtinio intelekto trūkumai. Tyrėjai teigia, kad šis reiškinys turi didelių pasekmių daugelyje sričių, įskaitant vartotojų elgesį, teismo sprendimus ir vėžio diagnozavimą. Jie taip pat pabrėžė, kad tai kelia svarbių klausimų apie pernelyg didelį pasikliovimą dirbtiniu intelektu ir atsakomybę nesėkmės atveju.

Nepaprastai įdomu tai, kad algoritmo atpažinimas ir pasitikėjimas juo mažėja didėjant skaidrumui dėl dirbtinio intelekto prognozių. Tyrėjai teigia, kad tai greičiausiai kyla dėl padidėjusio kognityvinio krūvio – vartotojams tam tikra prasme tiesiog pateikiama per daug duomenų. Algoritmo atpažinimas taip pat yra mažesnis asmenims, turintiems silpnesnius kognityvinius gebėjimus.

 

Kai kurie gali ginčytis, ar tikrai verta į dirbtinį intelektą žiūrėti santūriai ir „įkyriai“, kad jis ne visada duos teisingą atsakymą, juk nėra nieko blogo klausti pokalbių roboto apie paprastas, kasdienes problemas.

Iš tiesų, jei ieškome informacijos apie renginio, vykstančio už šimtų kilometrų, pradžios laiką ir dirbtinis intelektas suklysta apskaičiuodamas laiko skirtumą, galime šiek tiek praleisti tiesioginę transliaciją. Jei jis prognozuoja, kad 2026 m. didelio atgarsio sporto renginiuose bus naudojami skraidančių taksi prototipai, atvykę galime nustebti jų neradę. Padaryta žala yra nereikšminga.

Tačiau klausimas, kurį kiekvienas iš mūsų turėtume sau užduoti, yra toks: „Ar tai tikrai viskas, ko klausiu ir noriu paklausti dirbtinio intelekto?“ ir „Kaip dažnai tikrinu jo sugeneruotą atsakymą?“

Idealiame pasaulyje dirbtinis intelektas gebėtų aptikti savo klaidas, aklai su mumis nesutiktų ir visi jo kūriniai būtų atitinkamai paženklinti. Tačiau visi žinome, kad ši vizija dar tolima, ir haliucinacinio dirbtinio intelekto, trokštančio sukurti naują informaciją ir kupino akimirksniu plintančių klastotių, amžiuje situacija primena liūdną distopiją.

Nuo mūsų priklauso, ar visiškai pasitikėsime savimi, kad būsime vedami už rankos į nežinomybę, ar pasinaudosime mūsų internetiniu gidu, kad nepasiklystume ieškodami neegzistuojančių rojaus „karštųjų versmių“.

Pasidalinkite su draugais
Aut. teisės: MTPC
MTPC
(1)
(0)
(1)
MTPC parengtą informaciją atgaminti visuomenės informavimo priemonėse bei interneto tinklalapiuose be raštiško VšĮ „Mokslo ir technologijų populiarinimo centras“ sutikimo draudžiama.

Komentarai ()

Susijusios žymos: