Dirbtinis intelektas taps grėsme: „Žmonija turi tik 5 metus“ ()
Žmonija nesiėmė pakankamai priemonių, kad galėtų sustabdyti dirbtinį intelektą nuo katastrofiškos žalos. Gali pasikartoti 1945 m. Japonijos miestų Hirosimos ir Nagasakio situacija.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Apie tai, pasak „The Byte“, pareiškė buvęs „Google“ generalinis direktorius Eric Schmidt, kuris dabar vadovauja JAV Nacionalinio saugumo komisijai dirbtinio intelekto klausimais. Jis palygino dirbtinį intelektą su atominėmis bombomis, kurias JAV numetė ant Japonijos.
„Po Nagasakio ir Hirosimos prireikė 18 metų, kad būtų sudaryta sutartis, draudžianti (atominio ginklo) bandymus ir panašius dalykus“, - sakė jis, pabrėždamas, kad šiandien žmonija tiesiog neturi tiek laiko.
Yra žinoma, kad su dirbtiniu intelektu dirbančios bendrovės, pradedant „OpenAI“ ir baigiant „Google“, yra nustačiusios tam tikras saugumo priemones, skirtas šiai technologijai suvaldyti, tačiau Schmidt įsitikinęs, kad dabartinių priemonių nepakanka.
Ekspertas mano, kad jau po 5-10 metų dirbtinis intelektas gali tapti pakankamai galingas, kad pakenktų žmonijai.
Blogiausiu atveju, anot jo, būtų „akimirka, kai kompiuteris galėtų pradėti pats priimti sprendimus“. Schmidt įspėja, kad jei lygiagrečiai dirbtinis intelektas įgis prieigą prie ginklų sistemų ar pasieks kitų siaubą keliančių gebėjimų, mašinos gali pradėti meluoti žmonėms apie tai.
Jis mano, kad siekiant užkirsti kelią tokiam baisiam rezultatui, reikėtų įsteigti nevyriausybinę organizaciją, panašią į JT Tarpvyriausybinę klimato kaitos komisiją, kuri teiktų tikslią informaciją politikos formuotojams ir padėtų nuspręsti, ką daryti, jei dirbtinis intelektas taptų pernelyg galingas.
Verta pažymėti, kad kai kurie mokslininkai mano, jog dirbtinis intelektas kelia egzistencinę grėsmę žmonijai, kiti į jį žiūri skeptiškiau. Taip, Yann LeCun, kuris vadovauja „Meta“ dirbtinio intelekto skyriui, nemano, kad ši technologija yra pakankamai protinga, kad pati savaime keltų grėsmę žmonijai. Tai reiškia, kad dirbtinis intelektas gali kelti grėsmę, bet tik tuo atveju, jei jam vadovaus kažkas, turintis grėsmingų planų žmonijai.
„Diskusijos apie egzistencinį pavojų yra labai ankstyvos, kol nesukursime sistemos, kuri gebėjimu mokytis prilygtų bent katei, o to dar neturime“, - sakė LeCun.