Eliezer Shlomo Yudkovsky este un specialist american în inteligență artificială, care studiază problemele singularității tehnologice și pledează pentru crearea AI-ului prietenos. Este autorul mai multor povești de ficțiune științifică în care ilustrează câteva subiecte legate de știința cognitivă și raționalitatea.
Eliezer Yudkowski: biografie
Eliezer Shlomo Yudkovsky este unul dintre cei mai activi raționaliști ai Americii moderne, un cercetător computerizat și popularizator al ideii de „inteligență artificială prietenoasă”.
Născut la 11 septembrie 1979. Co-fondator și cercetător la organizația non-guvernamentală de cercetare Institutul de Cercetare a Inteligenței Mașinilor, care își publică cărțile. Eliezer Yudkovsky este autorul romanului filosofic Harry Potter și a Metodelor raționalismului, publicat în anumite părți pe internet între 2010 și 2015. În ea, Harry crește în familia unui om de știință din Oxford și, înainte de a călători la Hogwarts, învață de la el metode de gândire rațională.
Din câte se știe, nu are nicio legătură cu cercul „realiștilor speculanți”. Numele său este adesea menționat în legătură cu Robin Hanson, timp de câțiva ani (din 2006 până în 2009) au fost cei doi autori principali ai blogului „Depășirea prejudecății”, care a existat pe banii Institutului pentru Umanitatea Viitoare din Oxford.
Uneori, numele lui Yudkovsky poate fi auzit în legătură cu Raymond Kurzweil. El este un reprezentant filosofant al comunității tehnocomilor, inaccesibil și de neînțeles, astfel, pentru majoritatea publicului umanitar, căruia îi aparțin aproape toți cititorii realiștilor speculanți. Nu este surprinzător, deoarece apelează adesea la limbajul logic și matematic, concluzii probabilistice și statistice, expuse folosind formule și tabele.
Interese științifice
Yudkovsky este co-fondator și cercetător la Institutul de Singularitate pentru Institutul de Inteligență Artificială (SIAI). El a adus o contribuție deosebită la dezvoltarea institutului. Este autorul cărții „Crearea AI-ului prietenos” (2001), a articolelor „Niveluri de organizare în inteligență generală” (2002), „Voluntare extrapolată coerentă” („Voluntarea extrapolată coerentă”, 2004) și Teoria deciziei atemporale (2010). Ultimele sale publicații științifice sunt două articole din colecția „Riscurile unei catastrofe globale” (2008) editate de Nick Bostrom și anume „Inteligența artificială ca factor de risc global pozitiv și negativ” și „Distorsiunea cognitivă în evaluarea riscurilor globale”. Yudkovsky nu a studiat la universități și este un autodidact fără educație formală în domeniul AI.
Yudkovsky explorează design-urile AI care sunt capabile de auto-înțelegere, auto-modificare și auto-îmbunătățire recursivă (AI de semințe), precum și arhitecturi AI care vor avea o structură de motivație stabilă și pozitivă (Inteligență artificială prietenoasă). Pe lângă munca sa de cercetare, Yudkovsky este cunoscut pentru explicațiile sale despre modele complexe într-un limbaj non-academic, accesibil unui cerc larg de cititori, de exemplu, vezi articolul său „O explicație intuitivă a teoremei lui Bayes”.
Yudkovsky, împreună cu Robin Hanson, a fost unul dintre principalii autori ai blogului „Depășirea prejudecății”. La începutul anului 2009, a participat la organizarea blogului Less Wrong, care vizează „dezvoltarea raționalității umane și depășirea distorsiunilor cognitive”. După aceea, Depășirea prejudecății a devenit blogul personal al lui Hanson. Materialul prezentat pe aceste bloguri a fost organizat sub forma unor lanțuri de postări care au atras mii de cititori - vezi, de exemplu, lanțul teoriei divertismentului.
Yudkovsky este autorul mai multor povești de ficțiune științifică în care ilustrează câteva subiecte legate de știința cognitivă și raționalitatea.
carieră
- 2000. Yudkovsky fondează Institutul Singularității (ulterior redenumit MIRI).
- 2006. Yudkovsky se alătură blogului colectiv de depășire Bias și începe să scrie texte care ulterior au devenit lanțuri.
- 2009. Pe baza înregistrărilor lui Yudkovsky pe Depășirea prejudecății, este creat celebrul blog colectiv LessWrong.com.
- 2010-2015. Yudkovsky scrie GPiMRM.
- 2013. Yudkovsky publică ultimele postări pe LessWrong.com și nu mai scrie din site. Începând cu 2017, Yudkovsky publică majoritatea textelor disponibile public pe Facebook și Arbital
Experiment de gândire
Imaginați-vă o superinteligență artificială incredibil de inteligentă blocată într-o lume virtuală - spuneți, doar într-o casetă. Nu știi dacă va fi înțeles, prietenos sau neutru. Tot ce știi este că vrea să iasă din cutie și că poți interacționa cu el printr-o interfață text. Dacă AI este cu adevărat superinteligent, poți vorbi cu el timp de cinci ore și să nu cedezi la convingerea și manipularea lui - să nu deschizi snuffbox?
Acest experiment de gândire a fost propus de Eliezer Yudkowsky, cercetător la Institutul de Cercetări Ingineria (MIRI). MIRI are mulți oameni de știință care explorează riscurile dezvoltării superinteligenței artificiale; deși nu a apărut încă, aceasta atrage deja atenția și alimentează o dezbatere.
Yudkovsky susține că superinteligența artificială poate spune tot ce poate pentru a vă convinge: raționament atent, amenințări, înșelăciune, raport de construire, sugestie subconștientă și așa mai departe. Odată cu viteza luminii, AI construiește un complot, probează punctele slabe și determină modul în care este cel mai ușor să te convingi. După cum a afirmat teoreticianul amenințării existențiale, Nick Bostrom, „trebuie să credem că superinteligența poate realiza tot ceea ce își stabilește ca obiectiv”.
Experimentul AI de tip snuffbox pune la îndoială capacitatea noastră de a controla ceea ce am putea crea. De asemenea, ne face să înțelegem posibilitățile destul de bizare ale ceea ce nu știm despre propria noastră realitate.