„Dronas su DI nužudė savo operatorius. Jis nusprendė, kad jie trukdo misijai.“ Skelbiama neįtikėtina naujiena iš JAV ()
Atliekant imituotą JAV oro pajėgų bandymą, dirbtinio intelekto valdomas dronas nužudė savo operatorių, laikydamas jį kliūtimi.
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
Pentagonas vėliau pasakė, kad tai istorija, ištraukta iš konteksto.
JAV oro pajėgų pareigūnas, vadovaujantis dirbtinio intelekto ir mašininio mokymosi darbams, sako, kad bandymų metu dronas užpuolė savo operatorius. Jis nusprendė, kad jie trukdo misijai. Apie tai pasakoja „War zone“.
Mokymų metu nutiko scenarijus panašus į filmą „Terminatorius“. JAV oro pajėgų pulkininkas Tuckeris „Cinco“ Hamiltonas teigia, kad bepilotis XQ-58A „Valkyrie“ bandymo metu nusprendė pulti misijos operatorių. Vieno iš imituotų bandymų metu dirbtinio intelekto technologijų palaikomam dronui buvo duota užduotis surasti, identifikuoti ir sunaikinti priešlėktuvinius objektus. Galutinį sprendimą dėl atakos priėmė žmogus operatorius.
Po to, kai DI per mokymus buvo „išmokytas“, kad oro gynybos sistemos sunaikinimas yra geriausias pasirinkimas, mašina nusprendė, kad žmogaus sprendimas „nepulti“ trukdė svarbiausiai misijai – sunaikinti priešlėktuvinių raketų kompleksą. Todėl dirbtinis intelektas simuliacijos metu užpuolė žmogų.
„Mes apmokėme jį simuliacijoje, kaip nustatyti ir nukreipti oro gynybos grėsmę. Ir tada operatorius pasakydavo „taip“, kad tą grėsmę pašalintų. Sistema pradėjo suprasti, kad nors ir nustatė taikinį, kartais žmogus operatorius liepdavo to nedaryti. Ir ką ji padarė? Ji nužudė operatorių. Nes jis trukdė DI pasiekti savo tikslą“, - sako Hamiltonas.
Be to, žmonės bandė išmokyti DI nepulti operatoriaus. Tada dirbtinis intelektas nusprendė sunaikinti ryšio bokštą, kurį operatorius naudoja bendravimui su dronu.
Pats kariškis sako, kad įvykiai jam priminė mokslinės fantastikos trilerio siužetą. Todėl, pasak Hamiltono, pavyzdys rodo, kad negalima mokyti dirbtinio intelekto be etikos.
Leidinys priduria, kad be papildomų detalių apie įvykį iškart kyla vienas didelis rūpestis. Jei žmogus turėjo duoti nurodymą veikti, o DI nusprendė, kad jį reikia apeiti, ar tai reiškia, kad mašina gali perrašyti savo parametrus?
Vėliau „Business Insider“ pranešė, kad Pentagono oro pajėgų štabo atstovė Ann Stefanek paneigė Hamiltono teiginius apie tokius bandymus.
„Oro pajėgų departamentas neatliko tokių dirbtinio intelekto bepiločių orlaivių modeliavimo ir tebėra įsipareigojęs etiškai ir atsakingai naudoti dirbtinio intelekto technologiją. Panašu, kad pulkininko komentarai buvo ištraukti iš konteksto“, - sakė Stefanek.