Perspėjimas dėl dirbtinio intelekto ginklų: tai bus apokalipsės pradžia  (1)

Kontroversijų nestokojančios diskusijos dėl dirbtinio intelekto ginklų disponavimo aktyvios kaip niekada anksčiau. Kol kūrėjai džiaugiasi naujais atradimais, ekspertai skatina susimąstyti kol nėra per vėlu. Tačiau ar tikrai būtina uždrausti dirbtinio intelekto ginklus?


Prisijunk prie technologijos.lt komandos!

Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.

Sudomino? Užpildyk šią anketą!

Anglų fizikas Stivenas Hokingas (Stephen Hawking), profesorius Maksas Tegmarkas (Max Tegmark) bei verslo inovatorius Elonas Muskas (Elon Musk) ne vieną kartą kalbėjo apie galimą sumanios robotų technikos žalą žmonijai. Garsūs asmenys, siekdami atkreipti visuomenės dėmesį ir patvirtindami asmeninius įsitikinimus, praėjusių metų pradžioje pasirašė „Future of Life“ peticiją (kūrėjas E. Muskas), kurios tikslas – uždrausti bet kokį dirbtinių intelekto ginklų panaudojimą. Laiškas, argumentuojantis peticijos reikšmę, skatino susimąstyti ir išvengti gresiančio pavojaus, kuris, nesiimant konkrečių veiksmų, mus paveiks per ateinančius kelerius metus.

Daugelis, karinės robotų technikos inovacijoms nepritariančių asmenų, baimę grindžia apokaliptiniu filmo „Terminatorius“ scenarijumi, kuriame robotai įstengia nebepaisyti žmonių komandų ir siekia juos išnaikinti. Yra ir kitų nuomonių. Pavyzdžiui, astronomas Martinas Reesas (Martin Rees) perspėjo, kad „kvaili robotai taps nevaldomi“, o intelektualios sistemos išvystys absoliučiai nuo žmonių nepriklausomą mąstymą. Filosofas Huvas Praisas (Huw Price) iškėlė panašią hipotezę, kurioje perspėjo, kad žmonės gali neišgyventi, kai dirbtinis intelektas „ištrūks iš biologijos gniaužtų“. Beje, Martinas Reesas ir Huvas Praisas kartu įsteigė centrą Kembridžo universitete (angl. Centre for the Study of Existential Risk at the University of Cambridge), kuriame siekia nagrinėti ir atspėti galimas grėsmes žmonijai bei rasti metodus žalai išvengti.

Visgi, nepaisant šių ateities hipotezių, yra dar keli niuansai, į kuriuos dėmesį verta atkreipti jau dabar.

Klausimas, kaip arti esame prie žmogiško-dirbtinio intelekto išradimo, daugeliui neduoda ramybės. O atsakymas – glumina dar labiau. Pagal visus „standartus“ – esame arti. Pakanka prisiminti Eugenijų Gustamaną (Eugene Goostman) – robotą, sugebėjusi apkvailinti žmones, jog jis tikras trylikametis berniukas.

Ir vis dėlto tikroji grėsmė slypi ne žmonių-robotų integracijoje į mūsų kasdienybę. Esminis dalykas, kuris skatina dvejoti intelektualių sistemų saugumu yra tai, jog tokios sistemos yra perprogramuojamos. Galbūt robotai neužvaldys pasaulio, tačiau, kas užtikrins, jog žmonės, norintys užvaldyti pasaulį, neužvaldys robotų, galinčių tai padaryti?

Straipsnio „Kodėl žmonės turi drausti dirbtinio intelekto ginklus?“ (Why Humans Need To Ban Artificially Intelligent Weapons?) autoriai Brianas W. Robertsas (Bryan W. Roberts) ir Zakas Musgreivas (Zach Musgrave) teigia, kad sumanių ginklų draudimas yra prevencija nuo grėsmę keliančių žmonių.

„Jeigu dirbtinio intelekto mašina gali būti pigiai ir nesudėtingai paversta į efektyvų ir chaotišką žudymo prietaisą, tuomet tarptautinio mąsto draudimas yra būtinas.

Tokios mašinos nėra lyg radioaktyvios atliekos. Jos gali būti panaudojamos įvairiais teigiamais tikslais. Tačiau mes privalome atsakingai jas kontroliuoti, nes labai paprastai šie prietaisai gali tapti viską aplink niokojančiais įrenginiais. Ir tai, kad dirbtinio intelekto robotų panaudojimas destruktyviems tikslams bus kur kas lengvesnis nei branduolinių reaktorių yra vienintelis skirtumas tarp šių mirtinų užtaisų. Mes turėtume uždrausti dirbtinio intelekto ginklus ne todėl, kad jie yra nemirtingi.

Mes turėtume juos uždrausti, nes žmones transformuos dirbtinio intelekto ginklus į siaubingus kraujo ištroškusius monstrus, naudodami įprastus moderavimo ir „nulaužimo“ metodus, randamus internete. Paprastas kodas transformuos daugelį dirbtinio intelekto ginklų į žudymo mašinas, gebančias panaudoti cheminius, biologinius ginklus ar iššauti automatiškai išsiplečiančias kulkas“, publikacijoje rašo autoriai.

„Žinoma, joks tarptautinis draudimas nebus absoliučiai pajėgus sustabdyti dirbtinio intelekto ginklų plitimą. Tačiau tai nėra priežastis jo atsisakyti. Jeigu mes, kaip bendruomenė, manome, kad išsiplečiančios kulkos, cheminiai užtaisai ir biologiniai ginklai yra verti draudimo, turime suvokti, kad dirbtinio intelekto ginklai taip pat tokie yra“, teigia Brianas W. Robertsas ir Zakas Musgreivas.

Pasidalinkite su draugais
Aut. teisės: Robotika.lt
Robotika.lt
(31)
(2)
(29)

Komentarai (1)