Komentarai Prisijungti
Viršuje: Seniausi | Naujausi
Shinigami 2014-09-30 16:56
Iš pavadinimo supratau, kad ne straipsnis, o mėšlas. Bet vis tiek nusprendžiau paskaityti. Tačiau po šito nustojau
Koks džihadistas jei geriau galėtu paaiškinti apie "žmogiškas" vertybes. Kaip kitatikiui peilių nupjauti galvą. Arba Šiaurės Korėjos diktatorius gali savas vertybes parodyti. Bet kokios vertybės ir įsitikinimai yra tik socialiniai, moraliniai ir religiniai įsitikinimai. Kitaip sakant emocijos. O kur atsiranda emocijos? Ar tai žinių ir išsilavinimo rezultatas? Manau, kad ne. Tai greičiau genuose užkoduota. O dirbtinė asmenybė (robotai) genų neturi. Todėl gali daryti tik tai kam yra užprogramuoti. O jei sukursi save suvokiantį ir mastantį AI, tai jis emocijų vis tiek neturės ir nejaus nei gailesčio, nei užuojautos, nei apykantos ar pavydo. Nes šios emocijos nekyla iš pasaulio pažinimo ir išsilavinimo.
Žmonės labai mėgsta sužmoginti visiškai nežmogiškus objektus ir jiems suteikti žmogiškus jausmus ir žmogišką pasaulio suvokimą. Yra daug pasakų ir legendų kur gyvūnai ar gamta nubaudžia žmogų už žalą jiems (išmedžiojimą, medžių iškirtimą). Bet nekreipia dėmesio į tai, kad taip elgiasi ne tik žmogus, bet visi gyvi padarai. Ir kartais viena rūšis išstumia ar sunaikina kitą rūšį. Bet kažkodėl gyvūnams kurie išnaikino kita rūšį nei gamta, nei kažkas kitas nekeršija. O tik žmogui.
Tas pats ir su dirbtiniu intelektu. Jis greičiau į viską žiūrės kaip į natūralų gamtoje vykstantį dalyką. Ar tu ant sofkės sėdėsi ir čipsus ėsi kol kojas užversi ar kitus žudysi. Nebent programuotojas užprogramuotų dirbtinį intelektą kažką daryti tokių atvejų. Kitaip dirbtinis intelektas nieko nedarys.
vytra 2014-09-30 17:07
- Tamsta AI gerai supranti šių dienų galimybėse, bet straipsnyje kalbama apie universalų abstraktų laisvą AI, kur programuotojas tegali apspręsti "gabumus", o ne pačius AI apsimokymus pasirinkimus sprendimus.
DJ_LFS 2014-09-30 18:39
„Gali būti, kaip teigė ekspertai, jog 2025-aisiais robotai taps mūsų mylimaisiais.“ Ką čia nusišneka? Iki normalių robotų dar 100metų mažiausiai vystymosi reikia
vytautas50 2014-09-30 19:39
sabotan 2014-09-30 19:42
Man idomu kodel dirbtini intelekta isivaizduoja kmaip zudimo masina gal jam apskritai butu ant visko nusispjaut
Azuolas 2014-09-30 20:03
Shinigami dar norėčiau papildyti, jog subjektyvios temos yra ne tik "žmogiškosios vertybės", bet ir "Ką pastaruoju metu nuveikei dėl visuomenės?". O tokius, atrodančius giliamintiškai, bet realiai tuščius klausimus dažniausiai iškelia visokie paaugliai ir idealistinis jaunimas, kurie įsivaizduoja, kad labai jau rūpinasi visuomene. (Rūpinimasis visuomene yra ir tepliojimas ant sienų "fuck the system"...)
Tuo tarpu eilinis žmogelis, praleidęs dieną darbe, o vakarą prie TV dėl visuomenės nuveikė nepalyginamai daugiau už daugumą tų idealistų. Vien dėl to, kad turi darbą, moka mokesčius, už kuriuos išlaiko gydytojus, policiją, bei (Taip, va būtent tuos, kurie garsiausiai rėkia apie savo pasiaukojimą dėl visuomenės.)
Kilgoras Trautas 2014-09-30 22:17
Tik nereikia taip kategoriškai. Žmonės ir paprastus šudniekius įsimyli pvz. Tamagotchi manija ar telefonu "software pet" appsus, o po 10 metų kas žino, gal bus ir appsai su kuriais minimaliai pabendrauti bus įmanoma, nematau čia jokių realių kliūčių tokioms technologijoms. O pagaminti judanti mechanizmą ir dabar nebe problema.
lape 2014-09-30 23:44
Nesujaudinkit, nenaikins. Tik sterilizuos. Gyvūnėlių globėjams tai patiks.
vytra 2014-10-01 11:03
- Čia gerai pastebėta, kokio bukumo reik turėti, kad nesuprasti jog: "sterilizacija yra nužudymas ilgu beprasmiu egzistavimu (kankinimu?)"..
Shinigami 2014-10-01 17:49
Tam, kad robotas prieitu išvados jog geriau sunaikinti žmonija (iš gailesčio ar ne) reikia kad jis perfiltruotu visa informaciją apie žmonija per per vertybių sistemos, moralės, religinius "filtrus" ir dėl šiu filtru prieitu tokia išvada. Straipsnio autorė visa šia informacija jau praleido pro savo vertybių sistemos, moralės ir religinių įsitikinimų filtrus ir priėjo išvada, kad žmonija reiktu sunaikinti. Jei jį programuodama dirbtinį intelektą suprogramuos kad jis laikytųsi jos vertybių sistemos, moralinių ir religinių nuostatų, tada ir robotas prieis tokia pat išvada. Bet čia butu tas pats kas užprogramuoti dirbtinį intelektą sunaikinti žmonija. Tai nebūtu dirbtinio intelekto pasirinkimas, o programuotojo.
Jei dirbtiniam intelektui leisti pačiam susiformuoti savo vertybių sistemą, moralines ir religines nuostatas, tada yra labai maža tikimybė kad jis jas suformuos taip jog prieitu tokios išvados.
Nes žmonija vertinant iš kitokios vertybių sistemos, moralinių ir religinių nuostatų bus prieita visiškai skirtingų išvadu. Nes tai kas jai atrodo blogai, kitoje vertybių sistemoje tai gali būti gerai. Todėl visi kurie sako, kad dirbtinis intelektas, ateiviai ar dar balažino kas sunaikintų žmoniją nes jį yra bloga tik išsako savo asmeninę nuostatą, o ne absoliučia tiesą. Nes gali būti, kad pagal ateivių ar kieno kito vertybių sistemą žmonija gyvena tobulai gerai ir teisingai.
Rukis 2014-10-01 18:18
Pridedant išduosiu paslaptį:
Nėra absoliučios tiesos.
Myslius 2014-10-01 19:02
Ir is kur toks naivumas. Jei mes jam keltum gresme ir jei jis galetu isnaikinti zmonija, yra 100% kad jis taip ir padarys. Tai net ne diskusiju reikalas. Ir tai neturi absoliuciai nieko bendro su vertybemis, morale ar religinemis nuostatomis.
Shinigami 2014-10-01 19:32
1) Čia nekalbama apie pavojaus kėlimą dirbtiniam intelektui.
2) Gal pasakysi su kuo tai susiję? Su kuo tai turi kažką bendro?
Myslius 2014-10-01 20:09
Kalba eina apie "robotai žmoniją galėtų sunaikinti". Automatiskai daroma prielaida kad jie tai padaryt gali (gali tureti tam galia). Ir diskutuojamos priezastys, o ne kazkokios tai moralines normos.
Viena is priezasciu: zmones keltu gresme, nes a) yra linke i savisusinaikinima b) nenores prarasti galia.
Kitos priezastys resursai, galia, daugiau laisves, mazesne priklausomybe ir t.t.
Visos priezastys veda i viena isvada - sunaikinimas neisvengiamas.
Tai susije su tuo kas yra intelektas, o ne morale ar religija.
Shinigami 2014-10-02 06:32
O kas yra intelektas? Ir kodėl jis iš vis turėtu norėti išlikti ir daugintis? Ar išlikimo ir dauginimosi instinktai yra intelekto pasekmė? Tai kodėl net sliekai ir tarakonai stengiasi išlikti ir pasidauginti jei jie neturi intelekto? Tai gal išlikimo ir dauginimosi instinktai nėra susiję su intelektu? Jei jie nėra susiję su intelektu, o dirbtinis intelektas viskas ką turės yra intelektas tai kodėl jis iš vis turėtu turėti išlikimo ir dauginimosi instinktą? Jei žmogus jų neužprogramuos dirbtinai?
Taigi, kodėl dirbtinis intelektas norėtu sunaikinti žmonija?
Antra. Rusija kelia nemaža grėsmę Lietuvai. Ar tu dėl to nori sunaikinti Vokiečius, Kinus, JAV ir visa likusi pasaulį? Sunaikinti visa žmonija? Tik todėl, kad rusai kelia tau pavojų? Spėju, kad ne. Tai kodėl dirbtinis intelektas su dirbtinai užprogramuotu išlikimo instinktu turėtu norėti sunaikinti žmonija jai jam pavojų kelia tik keli atskiri individai?
Myslius 2014-10-02 10:20
Oho, 12 klausimų uždavei. Labai jau plačiai, net Rusijos klausimą užkabinai. Panašu kad atsakyt kažką prireiktų parašyt knygą. Neturiu tam laiko.
Myslius 2014-10-02 10:55
Sokrato metodas. Gyveni ir mokaisi.
The Socratic method can be used to show someone that they are wrong, or at least imprecise, by getting them to agree with statements that contradict their original assertion. Since Socrates believed that the first step to knowledge was recognition of one's ignorance, it's not surprising that his method focuses not so much on proving your point but on disproving the other person's point with a series of questions (elenchus), resulting in their aporia (puzzlement). This method is used in law school to teach students critical thinking skills, and it is also used in psychotherapy, management training, and classrooms.
Komentuoti gali tik registruoti lankytojai.
Neregistruotiems lankytojams komentavimas uždraustas siekiant sumažinti
paviršutiniškų, beverčių ir įžeidinėjančių žinučių kiekį.
Kitoks požiūris: robotai žmoniją galėtų sunaikinti vien iš gailesčio