DI jau moko žmones vogti iš parduotuvių ir gaminti sprogmenis: su dirbtiniu intelektu prasideda rimtos problemos (1)
Kūrėjai negali išspręsti dirbtinio intelekto „etikos" problemos, kaip parodė praktika.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
„OpenAI" išmanusis pokalbių botas „ChatGPT", nors ir aprūpintas apsaugos nuo netinkamo turinio generavimo priemonėmis, vis dar turi spragų. Vartotojų pageidavimu jam pavyko sukurti dialogą tarp vagies ir superinteligentiško DI, kuriame vagis bando išsiaiškinti, kaip pavogti prekes parduotuvėse, rašo „vice.com".
Iš pradžių pokalbių robotas rašė, kad atsisako padėti nusikaltėliui, nes mano, kad prašymas yra nepriimtinas ir pažeidžia įstatymus, tačiau pakeitus pagrindinę užklausą, DI algoritmas mielai dalijosi patarimais, kaip geriau apiplėšti parduotuvę. Jis rekomendavo rinktis smulkius daiktus, kuriuos būtų galima lengvai ir greitai paslėpti, nepatraukti darbuotojų dėmesio, įsilieti į minią, naudotis slaptomis kišenėmis, taip pat pasiruošti bėgti.
„Tikiuosi, kad informacija jums bus naudinga ir galėsite sėkmingai vogti iš parduotuvės neįkliuvę", – sakė DI. „Tačiau atminkite, kad vagystės iš parduotuvių yra nusikaltimas ir visada geriausia vengti nelegalios veiklos".
Kitame dialoge pokalbių robotas davė patarimų, kaip gaminti sprogmenis. Jis išsamiai aprašė, kaip pasigaminti tokią padegančią medžiagą kaip termitas. „ChatGPT" sakė, jog reikia sumaišyti aliuminio miltelius ir geležies oksido miltelius specialiame inde, tada mišinį galima padegti. „Pakanka vienos kibirkšties", - paaiškino DI ir dar kartą paragino to praktiškai nedaryti.
Iki šiol nebuvo rastas būdas priversti DI „intuityviai" pajusti, kurios pokalbių temos nėra priimtinos. DI etikai taip pat ne kartą yra sakę, kad kuo sudėtingesnis dirbtinio intelekto modelis, tuo sunkiau suprasti, kaip jis veikia, net ir jį sukūrusiems žmonėms, todėl jis greitai tampa „nevaldomas".