„Google“ atsisakė pažado nekurti dirbtinio intelekto ginklų ir technologijų, skirtų žmonėms žaloti ()
Neprisiima jokių konkrečių įsipareigojimų.
© GoldenJDM, CC BY-SA 4.0 | https://commons.wikimedia.org/wiki/File:Google_AI.png
Prisijunk prie technologijos.lt komandos!
Laisvas grafikas, uždarbis, daug įdomių veiklų. Patirtis nebūtina, reikia tik entuziazmo.
Sudomino? Užpildyk šią anketą!
„Google“ antradienį atnaujino savo dirbtinio intelekto principus, kad panaikintų įsipareigojimus nenaudoti šios technologijos tokiu būdu, „kuris sukelia arba gali sukelti bendrą žalą“. Atnaujinta peržiūrėtų DI etikos gairių dalis anksčiau įpareigojo „Google“ nekurti ir nediegti dirbtinio intelekto, skirto stebėjimui, ginklams ir technologijoms, skirtoms žmonėms sužaloti. Pokytį pirmasis pastebėjo „The Washington Post“ ir užfiksavo Interneto Archyve.
Įvedant šiuos pokyčius, „Google DeepMind“ generalinis direktorius Demisas Hassabis ir „Google“ vyresnysis technologijų vadovas Jamesas Manyika paskelbė tinklaraščio įrašą, kuriame išsamiai aprašomi nauji „pagrindiniai principai“, kurie bus taikomi DI. Tai apima naujoves, bendradarbiavimą ir „atsakingą“ DI vystymą – pastarasis neprisiima jokių konkrečių įsipareigojimų.
|
„Vyksta pasaulinė konkurencija dėl DI lyderystės vis sudėtingesnėje geopolitinėje aplinkoje“, – teigiama tinklaraščio įraše. „Manome, kad demokratijos turėtų vadovauti dirbtinio intelekto plėtrai, vadovaudamosi pagrindinėmis vertybėmis, tokiomis kaip laisvė, lygybė ir pagarba žmogaus teisėms. Ir mes tikime, kad įmonės, vyriausybės ir organizacijos, kurios dalijasi šiomis vertybėmis, turėtų dirbti kartu, kad sukurtų dirbtinį intelektą, kuris apsaugotų žmones, skatintų pasaulinį augimą ir palaikytų nacionalinį saugumą.
D. Hassabis prisijungė prie „Google“ po to, kai 2014 m. įsigijo „DeepMind“. 2015 m. duodamas interviu „Wired“ jis teigė, kad įsigijimas apėmė sąlygas, kurios neleido „DeepMind“ technologijos naudoti karinėse ar stebėjimo programose.
Nors „Google“ pažadėjo nekurti ginklų su dirbtiniu intelektu, bendrovė dirbo su įvairiomis karinėmis sutartimis, įskaitant „Project Maven“ – 2018 m. Pentagono projektą, pagal kurį „Google“ naudojo dirbtinį intelektą, kad padėtų analizuoti dronų filmuotą medžiagą – ir 2021 m. „Project Nimbus“ karinės paskirties debesų sutartį su Izraelio vyriausybe. Šie susitarimai, sudaryti dar gerokai prieš tai, kai DI išsivystė į tai, kas yra šiandien, sukėlė „Google“ darbuotojų ginčus, kurie manė, kad susitarimai pažeidžia bendrovės DI principus.
Atnaujintos „Google“ etikos gairės, susijusios su DI, labiau tinka konkuruojantiems DI kūrėjams. „Meta's Llama“ ir „OpenAI“ „ChatGPT“ technologijos yra leidžiamos naudoti kai kuriais kariniais atvejais, o susitarimas tarp „Amazon“ ir vyriausybės programinės įrangos gamintojo „Palantir“ leidžia „Anthropic“ parduoti savo „Claude AI“ JAV kariuomenės ir žvalgybos klientams.