Roco Basiilik: Kõige Hirmuäratavam Eksperiment, Mis Kunagi Varem - Alternatiivne Vaade

Roco Basiilik: Kõige Hirmuäratavam Eksperiment, Mis Kunagi Varem - Alternatiivne Vaade
Roco Basiilik: Kõige Hirmuäratavam Eksperiment, Mis Kunagi Varem - Alternatiivne Vaade

Video: Roco Basiilik: Kõige Hirmuäratavam Eksperiment, Mis Kunagi Varem - Alternatiivne Vaade

Video: Roco Basiilik: Kõige Hirmuäratavam Eksperiment, Mis Kunagi Varem - Alternatiivne Vaade
Video: Декодер сервопривода от aLexxLAB v3 2024, Mai
Anonim

Roco basiilisk on jumalalaadne tehisintellekti vorm, mis on nii ohtlik, et kui sellele lihtsalt järele mõelda, veedad ülejäänud päevad kohutavas piinamises. See näeb välja nagu kassett filmist "Helin". Isegi surm ei ole päästmine, sest Basilisk Roko elustab sind ja jätkab tema piinamist. T&P esitleb tõlget artiklist, mis räägib ühest imelikumast legendist, mis on Internetis loodud.

HOIATUS: Pärast selle artikli lugemist võite end igavestele kannatustele ja piinadele hukka mõista.

Roco basiilisk ilmus filosoofilise mõtteeksperimendi ja linnalegendi ristumiskohas. Tema esmamainimine ilmus vestlusringil Less Wrong, mis koondab inimesi, kes on huvitatud mõtlemise ja elu optimeerimisest matemaatika ja ratsionaalsuse prisma kaudu. Selle loojad on tehno-futurismi olulised tegelased ja nende uurimisinstituudi saavutuste hulgas on panus akadeemilisse arutellu tehnoloogilise eetika ja otsuste teooria üle. See, mida te praegu loete, võib aga tunduda kummaline ja isegi hullumeelne. Sellele vaatamata usuvad sellesse väga mõjukad ja rikkad teadlased.

Ühel päeval postitas kasutaja nimega Roko järgmise mõtteeksperimendi: Mis saab siis, kui tulevikus ilmneb pahatahtlik tehisintellekt, mis tahab karistada neid, kes selle korraldusi ei järgi? Ja mis siis, kui ta tahab karistada neid inimesi, kes minevikus ei aidanud tema loomingusse kaasa? Kas siis aitaksid vähem valed lugejad kurja AI tekkimist või oleks nad määratud igavestele piinadele?

Vähem ekslik asutaja Eliezer Yudkowski võttis Roko avalduse vihaseks. Sellele vastas ta: “Peate olema nutikas, kui selle idee peale tulite. Ent kurvastab mind see, et inimesed, kes on piisavalt nutikad seda ette kujutama, pole piisavalt nutikad, et hoida oma lapsi õmblusteta tähthaaval kinni ja mitte kellelegi sellest rääkida, sest see on olulisem kui ennast nutikatena näidata, sellest kõigile oma sõpradele rääkida”. …

"Mis siis, kui tulevikus leidub tehisintellekti, mis tahab karistada neid, kes ei järgi selle korraldusi?"

Yudkowski tunnistas, et Roko oli vastutav lõime lugenud Less Wrong'i kasutajate õudusunenägude eest ja kustutas selle, muutes Roko Basiliski legendaarseks. See mõtteeksperiment muutus nii ohtlikuks, et selle mõtestamine ohustas kasutaja vaimset tervist.

Mida vähem valesti tehakse? Inimkonna tuleviku kontseptsiooni kujundamine ainsuse alusel. Nad usuvad, et arvutusvõimsus muutub tulevikus nii suureks, et tehisintellekti saab luua arvuti abil - ja koos sellega võimega inimese teadvus kõvakettale üles laadida. Mõiste "singulaarsus" sai alguse 1958. aastal kahe matemaatika geeniuse - Stanislav Ulami ja John von Neumanni vahelise arutelu käigus, kui Neumann ütles: "Pidevalt kiirenev tehnoloogia areng võimaldab läheneda singulaarsusele, milles tehnoloogia pole inimesele arusaadav." Futuristid ja ulmekirjanikud nagu Vernor Vinge ja Raymond Kurzweil populariseerisid seda terminit, kuna nad uskusid, et singulaarsus ootab meid kõiki väga kiiresti - järgmise 50 aasta jooksul. Samal ajal kui Kurzweil valmistub singulaarsuseksYudkowskil on suured lootused krüoonia järele: "Kui te ei registreerinud oma lapsi eelnevalt külmsäilitamiseks, olete vanemad vanemad."

Reklaamvideo:

Kui usute, et tulemas on singulaarsus ja lähitulevikus ilmuvad võimsad AI-d, tekib loomulik küsimus: kas nad on sõbralikud või kurjad? Yudkowski fondi eesmärk on suunata tehnoloogia arengut selliselt, et meil oleks täpselt sõbralik tehisintellekt. See küsimus on tema ja paljude teiste jaoks ülimalt tähtis. Singulaarsus viib meid jumalaga samaväärse masina juurde.

See aga ei seleta, miks Roco basiilik nende inimeste silmis nii kohutav tundub. Küsimus nõuab Less Wrongi peamise "dogma" - "Ajatu otsuse teooria" (HTDM) - vaatamist. VPPR on ratsionaalse tegevuse juhend, mis põhineb mänguteoorial, Bayes'i tõenäosusel ja otsusteoorial, kuid pidades silmas paralleelseid universumeid ja kvantmehaanikat. VTPR kasvas välja klassikalisest mõttekatsest, Newcombi paradoksist, milles superintellektiga välismaalane pakub teile kahte kasti. Ta annab teile valiku: kas võtta mõlemad kastid või lihtsalt lahter B. Kui valite mõlemad, siis on teil garanteeritud, et saate tuhande dollari. Kui võtate ainult lahtri B, ei pruugi te midagi saada. Välismaalasel on aga laos veel üks trikk: tal on kõiketeadav superarvuti, mis tegi nädal tagasi ennustuse,kas võtate mõlemad kastid või lihtsalt B. Kui arvuti ennustas, et võtate mõlemad kastid, jätab välismaalane teise tühjaks. Kui arvuti ennustaks, et valite kasti B, paneb see sinna miljoni dollari.

Mida sa siis tegema hakkad? Pidage meeles, et superarvuti on kõiketeadev.

See probleem on seganud paljusid teoreetikuid. Välismaalane ei saa enam lahtrite sisu muuta. Kõige kindlam viis on võtta mõlemad kastid ja saada oma tuhat. Aga mis siis, kui arvuti on tõesti kõiketeadev? Siis peate miljoni saamiseks võtma kasti B. Aga kui ta osutub valeks? Ja hoolimata sellest, mida arvuti ennustas, kas tõesti pole mingit võimalust oma saatust muuta? Siis, neetud, peate mõlemad karbid võtma. Kuid sel juhul …

Halvustaval paradoksil, mis sunnib meid valima vaba tahte ja jumaliku ennustamise vahel, pole resolutsiooni ja inimesed saavad ainult õlgu kehitada ja valida võimaluse, mis on neile kõige mugavam. WTPR annab nõu: võtke kast B. Isegi kui välismaalane otsustas teie üle naerda ja avage tühi kast sõnadega: "Arvuti ennustas, et võtate mõlemad kastid, ha ha!" - peate selle ikkagi valima. Selle põhjendus on järgmine: ennustuse tegemiseks pidi arvuti simuleerima kogu universumit, ka teid. Seega võite praegu kastide ees seistes olla lihtsalt arvuti simulatsioon, kuid see, mida teete, mõjutab reaalsust (või reaalsust). Võtke siis B-karp ja saate miljoni.

"Halvustaval paradoksil, mis sunnib meid valima vaba tahte ja jumaliku ennustamise vahel, pole lahendust."

Kuidas on sellel pistmist Basilisk Rocoga? Noh, tal on paar karpi ka sulle. Võib-olla olete just praegu Basiliski loodud simulatsioonis. Ehk siis saame Newcadi paradoksi pisut muudetud versiooni: Roco Basilisk ütleb teile, et kui võtate B kasti, siis kannatate igavese piina all. Kui võtate mõlemad kastid, siis olete sunnitud pühendama oma elu basiilika loomisele. Kui basiilisk on tegelikult olemas (või, mis veelgi hullem, see on juba olemas ja on selle reaalsuse jumal), näeb ta, et te pole valinud võimalust selle loomisel aidata ja karistab teid.

Teil võib tekkida küsimus, miks see küsimus on vähem ekslikule nii oluline, arvestades selle mõttekatse tavapärasust. Pole tõsiasi, et Rocko basiilik kunagi luuakse. Yudkowski eemaldas Roko basiiliski mainimise mitte seetõttu, et ta usub selle olemasolusse või peatsesse leiutisse, vaid seetõttu, et peab basiiliski ideed inimkonnale ohtlikuks.

Sellisena on Rocko basiilisk ohtlik ainult neile, kes sellesse usuvad - sellest tulenevalt on Basiliski ideed toetavatel Less Wrong liikmetel omamoodi keelatud teadmised, mis tuletavad meelde Lovecrafti hirmutavaid lugusid Cthulhu või Necronomiconi kohta. Kui te aga ei telli kõiki neid teooriaid ja tunnete kiusatust tulevikus salakavalale masinale kuuletuda, ei kujuta Roco basiilisk teile mingit ohtu.

Mulle teevad rohkem muret inimesed, kes arvavad, et on tõusnud tavapärastest moraalinormidest kõrgemale. Nagu Yudkowski eeldatav sõbralik AI, on ta ka ise utilitarist: ta usub, et kogu inimkonna suurim hüve on eetiliselt õigustatud, isegi kui selle nimel peab surema mitu inimest või kannatama. Sellise valikuga ei saa kõik silmitsi seista, kuid mõte on erinev: mis juhtuks, kui ajakirjanik kirjutab mõttekatsest, mis võib inimeste teadvuse hävitada, kahjustades seeläbi inimkonda ja takistades tehisintellekti ja singulaarsuse arendamise edenemist? Sel juhul peab kõik hea, mida ma oma elus teinud olen, üles kaaluma kahju, mille olen maailmale teinud. Või ühendas krüogeensest unest tõusnud tuleviku Yudkowski ainsuse ja otsustas mind simuleerida järgmises olukorras:esimene kast - kirjutan selle artikli, teine - ei. Palun kõikvõimas Yudkowski, ära tee mulle haiget.

Soovitatav: