Return to Video

Ce se întâmplă când calculatorul devine mai deștept decât noi?

  • 0:01 - 0:06
    Lucrez cu matematicieni,
    filozofi și cercetători IT
  • 0:06 - 0:09
    și ne gândim
  • 0:09 - 0:12
    la viitorul inteligenței artificiale,
    printre altele.
  • 0:12 - 0:17
    Unii cred că unele dintre aceste lucruri
    sunt științifico-fantastice,
  • 0:17 - 0:19
    departe de noi, nebunești.
  • 0:20 - 0:21
    Dar mie îmi place să zic:
  • 0:21 - 0:25
    OK, hai să vedem condiția omului modern.
  • 0:25 - 0:27
    (Râsete)
  • 0:27 - 0:29
    Asta e normalul.
  • 0:30 - 0:31
    Dar de fapt
  • 0:31 - 0:35
    suntem niște oaspeți
    relativ recenți pe această planetă
  • 0:35 - 0:36
    ca specie umană.
  • 0:38 - 0:41
    Gândiți-vă, dacă Pământul
    a fi fost creat în urmă cu un an,
  • 0:41 - 0:44
    specia umană ar fi existat
    de doar 10 minute.
  • 0:45 - 0:48
    Epoca Industrială ar fi început
    de doar două secunde.
  • 0:49 - 0:54
    Am putea analiza aceasta și din prisma
    PIB-ului global din ultimii 10 000 de ani.
  • 0:54 - 0:57
    V-am făcut și un grafic.
  • 0:58 - 0:59
    Arată așa.
  • 0:59 - 1:01
    (Râsete)
  • 1:01 - 1:03
    Are o formă ciudată
    pentru o situație normală.
  • 1:03 - 1:05
    Eu unul nu m-aș așeza pe el.
  • 1:05 - 1:07
    (Râsete)
  • 1:07 - 1:12
    Hai să ne punem întrebarea:
    care ar fi cauza acestei anomalii?
  • 1:12 - 1:14
    Unii ar zice că ar fi tehnologia.
  • 1:14 - 1:19
    Adevărat, în decursul istoriei,
    umanitatea a acumulat multă tehnologie
  • 1:19 - 1:23
    și, în acest moment, tehnologia
    avansează extrem de rapid.
  • 1:24 - 1:25
    Aceasta e cauza imediată,
  • 1:25 - 1:28
    de aceea suntem atât de productivi.
  • 1:29 - 1:33
    Dar îmi place să gândesc mai departe,
    la cauza primară.
  • 1:33 - 1:36
    Priviți-i pe acești domni distinși.
  • 1:37 - 1:38
    Îl avem pe Kanzi,
  • 1:38 - 1:43
    el a stăpânit 200 de semne lexicale,
    o ispravă nemaipomenită.
  • 1:43 - 1:47
    Și pe Ed Witten care a declanșat
    a doua revoluție a superstringurilor.
  • 1:47 - 1:49
    Dacă „deschidem capota”, iată ce găsim:
  • 1:49 - 1:51
    în esență același lucru.
  • 1:51 - 1:52
    Unul dintre ele e ceva mai mare,
  • 1:52 - 1:56
    posibil cu câteva trucuri în plus
    în privința modului de montare.
  • 1:56 - 1:59
    Aceste diferențe invizibile, totuși,
    nu pot fi prea complicate
  • 1:59 - 2:03
    pentru că s-au perindat
    doar 250 000 de generații
  • 2:03 - 2:05
    de la ultimul nostru strămoș comun
  • 2:05 - 2:09
    și știm că mecanismele complicate
    durează mult până evoluează.
  • 2:10 - 2:13
    Așa că o mână de schimbări minore
  • 2:13 - 2:16
    ne-au dus de la Kanzi la Witten,
  • 2:16 - 2:20
    de la crengi rupte
    la rachete balistice intercontinentale.
  • 2:21 - 2:25
    Atunci pare destul de evident
    că tot ce am realizat
  • 2:25 - 2:28
    și toate cele de care ne pasă
    depind radical
  • 2:28 - 2:32
    de schimbări relativ minore
    făcute de mintea umană.
  • 2:33 - 2:36
    Iar corolarul este, desigur,
    că orice viitoare schimbare
  • 2:36 - 2:40
    ce ar putea schimba substanțial
    substratul gândirii
  • 2:40 - 2:43
    ar putea avea consecințe uriașe.
  • 2:45 - 2:47
    Unii colegi cred că suntem pe cale
  • 2:47 - 2:51
    de a produce ceva ce ar putea cauza
    o schimbare profundă a acestui substrat,
  • 2:51 - 2:54
    aceasta fiind
    superinteligența artificială.
  • 2:54 - 2:59
    Inteligența artificială era desemnată
    ca fiind o cutie în care se pun comenzi.
  • 2:59 - 3:01
    Trebuiau să existe programatori umani
  • 3:01 - 3:05
    care să modeleze din greu
    părțile de cunoaștere.
  • 3:05 - 3:06
    Se realizează niște sisteme expert
  • 3:06 - 3:08
    care vor fi de folos în anumit scop,
  • 3:08 - 3:11
    dar care sunt foarte firave,
    nu se pot extinde.
  • 3:11 - 3:14
    În principiu, primești de la ele
    doar ce ai programat.
  • 3:14 - 3:16
    De atunci, însă,
  • 3:16 - 3:19
    s-a produs o schimbare în paradigmă
    în inteligența artificială.
  • 3:19 - 3:22
    Acum acțiunea se petrece în jurul
    învățării sistemelor artificiale.
  • 3:22 - 3:29
    În loc să realizăm reprezentări și
    caracteristici ale cunoașterii,
  • 3:29 - 3:34
    creăm algoritmi de învățare adesea
    pe bază de date perceptuale brute.
  • 3:35 - 3:38
    În principiu, lucru similar
    cu ceea ce face un copil.
  • 3:39 - 3:43
    Rezultatul este o I.A.
    ce nu se limitează la un domeniu,
  • 3:43 - 3:48
    același sistem putând să învețe
    să traducă între oricare două limbi
  • 3:48 - 3:53
    sau să învețe să joace orice joc
    pe calculator pe o consolă Atari.
  • 3:54 - 3:55
    Desigur,
  • 3:55 - 3:59
    I.A. nu are nici pe departe puterea,
  • 3:59 - 4:02
    abilitatea transdisciplinară a omului
    de a planifica și învăța.
  • 4:02 - 4:05
    Cortexul are încă
    niște trucuri de algoritm
  • 4:05 - 4:07
    pe care încă nu știm cum
    să le transpunem în mecanisme.
  • 4:08 - 4:10
    Se pune deci întrebarea
  • 4:10 - 4:13
    cât de de departe suntem de momentul
    în care putem face asta.
  • 4:14 - 4:15
    Cu câțiva ani în urmă,
  • 4:15 - 4:18
    am făcut un sondaj printre
    cei mai de seamă experți în I.A.
  • 4:18 - 4:21
    pentru a vedea ce cred ei
    și una din întrebări a fost:
  • 4:21 - 4:25
    „Până în ce an credeți că vom ajunge
    la probabilitatea de 50%
  • 4:25 - 4:28
    de a realizare inteligența artificiala
    la nivelul omului?”
  • 4:29 - 4:33
    Prin „nivelul omului” am înțeles
    capacitatea de a presta
  • 4:33 - 4:36
    aproape orice sarcină
    cel puțin la nivelul unui adult,
  • 4:36 - 4:39
    deci nivel uman general,
    nu doar limitat la un domeniu restrâns.
  • 4:40 - 4:43
    Răspunsul mediu a fost 2040 sau 2050,
  • 4:43 - 4:46
    în funcție de
    grupul de experți chestionați.
  • 4:48 - 4:50
    S-ar putea întâmpla
    mult mai târziu sau mai devreme,
  • 4:50 - 4:52
    adevărul e că nimeni nu știe.
  • 4:53 - 4:58
    Ceea ce știm e că limita superioară
    a procesării informației
  • 4:58 - 5:03
    într-un mediu artificial e mult
    mai departe de limitele noastre biologice.
  • 5:03 - 5:05
    Totul se reduce la fizică.
  • 5:05 - 5:10
    Neuronul transmite la vreo 200 de herți,
    de 200 de ori pe secundă.
  • 5:10 - 5:14
    Dar chiar și acum, un tranzistor
    operează în gigaherți.
  • 5:14 - 5:17
    Impulsurile se propagă prin axoni încet,
  • 5:17 - 5:19
    cu cel mult 100 de metri pe secundă.
  • 5:19 - 5:22
    Dar în calculatoare semnalele
    pot circula cu viteza luminii.
  • 5:23 - 5:25
    Există și limitări date de volum,
  • 5:25 - 5:28
    creierul uman trebuie
    să încapă în cutia craniană,
  • 5:28 - 5:32
    dar un calculator poate fi mare
    cât un depozit sau mai mare.
  • 5:33 - 5:39
    Deci potențialul de superinteligență
    e în stare latentă în materie,
  • 5:39 - 5:42
    la fel ca puterea atomului
    care a fost în stare latentă
  • 5:42 - 5:44
    în toată istoria umanității,
  • 5:44 - 5:47
    așteptând cu răbdare până în 1945.
  • 5:48 - 5:49
    În acest secol,
  • 5:49 - 5:54
    oamenii de știință ar putea să trezească
    puterea inteligenței artificiale.
  • 5:54 - 5:58
    Și cred că atunci am putea fi martorii
    unei explozii de inteligență.
  • 5:58 - 6:02
    Majoritatea oamenilor, gândindu-se
    la cine e deștept și cine prost,
  • 6:02 - 6:05
    cred că au în cap ceva de genul acesta.
  • 6:05 - 6:08
    La o extremitate avem prostul satului,
  • 6:08 - 6:10
    departe, la cealaltă extremitate,
  • 6:10 - 6:15
    pe Ed Witten, sau Albert Einstein,
    sau oricine altcineva ar fi favoritul.
  • 6:15 - 6:20
    Dar eu zic că, din punctul de vedere
    al inteligenței artificiale,
  • 6:20 - 6:23
    schema este, de fapt, mai mult așa:
  • 6:23 - 6:27
    I.A. începe în acest punct,
    la inteligență zero,
  • 6:27 - 6:30
    apoi, după foarte mulți ani
    de muncă asiduă,
  • 6:30 - 6:34
    poată că inteligența artificială
    ajunge la nivelul șoarecelui,
  • 6:34 - 6:38
    ceva ce poate naviga într-un mediu haotic
    la fel de bine cum poate un șoarece.
  • 6:38 - 6:42
    Iar apoi, după alți mulți ani
    de muncă asiduă, cu multe investiții,
  • 6:42 - 6:46
    poate că inteligența artificială
    ajunge la nivelul cimpanzeului.
  • 6:47 - 6:50
    Iar apoi, după și mai mulți ani
    de muncă asiduă,
  • 6:50 - 6:53
    ajungem la inteligența artificială
    a prostului satului.
  • 6:53 - 6:56
    Și după câteva momente
    suntem dincolo de Ed Witten.
  • 6:56 - 6:59
    Trenul nu oprește la „Gara Omului”.
  • 6:59 - 7:02
    Din contră, probabil va trece în viteză.
  • 7:02 - 7:05
    Aceasta are implicații serioase,
  • 7:05 - 7:08
    mai ales când vine vorba
    de probleme de putere.
  • 7:08 - 7:10
    De exemplu, cimpanzeii sunt puternici:
  • 7:10 - 7:15
    la kilograme, cimpanzeul e de vreo 2 ori
    mai puternic decât un bărbat sănătos.
  • 7:15 - 7:20
    Totuși, soarta lui Kanzi și a celor ca el
    depinde cu mult mai mult
  • 7:20 - 7:24
    de ce facem noi, oamenii,
    decât de ce fac semenii cimpanzei.
  • 7:26 - 7:28
    Cu apariția superinteligenței,
  • 7:28 - 7:31
    soarta umanității poate depinde
    de ce face superinteligența.
  • 7:32 - 7:34
    Gândiți-vă:
  • 7:34 - 7:38
    inteligența artificială e ultima invenție
    pe care va trebui s-o facă umanitatea.
  • 7:38 - 7:41
    Căci după aceea mașinile
    vor fi mai bune la inventat decât noi
  • 7:41 - 7:44
    și vor face asta la scară digitală.
  • 7:44 - 7:48
    Aceasta înseamnă, de fapt,
    telescopizarea viitorului.
  • 7:49 - 7:53
    Luați toate tehnologiile nebunești
    pe care vi le-ați putea imagina,
  • 7:53 - 7:55
    pe care oamenii
    le-ar putea realiza în timp:
  • 7:55 - 7:59
    oprirea îmbătrânirii,
    colonizarea spațiului cosmic,
  • 7:59 - 8:02
    nanoroboți auto-replicativi
    sau încărcarea minții în calculator,
  • 8:02 - 8:04
    tot felul de chestii SF
  • 8:04 - 8:07
    care sunt totuși în concordanță
    cu legile fizicii.
  • 8:07 - 8:11
    Pe toate astea superinteligența
    le poate realiza, și încă foarte repede.
  • 8:12 - 8:16
    Superinteligența de o astfel de
    maturitate tehnologică
  • 8:16 - 8:18
    ar fi extrem de puternică
  • 8:18 - 8:22
    și, cel puțin în unele scenarii,
    ar putea obține ce vrea.
  • 8:23 - 8:28
    Atunci am avea viitorul
    modelat de preferințele acesteia.
  • 8:30 - 8:34
    O întrebare bună este:
    care ar fi aceste preferințe?
  • 8:34 - 8:36
    Aici e mai cu schepsis.
  • 8:36 - 8:37
    Pentru a avansa cu acest gând,
  • 8:37 - 8:41
    în primul rând trebuie
    să evităm antropomorfizarea.
  • 8:42 - 8:45
    Iar asta e ironic pentru că
    orice articol de ziar
  • 8:45 - 8:48
    despre viitorul I.A. are o poză ca asta:
  • 8:51 - 8:54
    Cred că trebuie să concepem
    chestiunea mai abstract,
  • 8:54 - 8:57
    nu în termenii colorați
    ai scenariilor hollywoodiene.
  • 8:57 - 9:01
    Trebuie să ne gândim la inteligență
    ca un proces de optimizare,
  • 9:01 - 9:06
    un proces ce îndreaptă viitorul
    într-un anumit set de configurații.
  • 9:06 - 9:10
    Superinteligența ca proces
    de optimizare foarte puternic.
  • 9:10 - 9:13
    Extrem de bună pentru a folosi
    mijloacele existente
  • 9:13 - 9:16
    pentru a realiza o stare
    în care obiectivele ei sunt atinse.
  • 9:16 - 9:19
    Aceasta înseamnă
    că nu există neapărat legătură
  • 9:19 - 9:22
    între a fi foarte inteligent în acest sens
  • 9:22 - 9:26
    și a avea un obiectiv pe care noi,
    oamenii, l-am considera util și cu sens.
  • 9:27 - 9:31
    Să zicem că îi dăm unei I.A. ca obiectiv
    să-i facă pe oameni să zâmbească.
  • 9:31 - 9:34
    Când I.A. e slabă, acționează
    util sau amuzant
  • 9:34 - 9:36
    ceea ce îl face pe utilizator
    să zâmbească.
  • 9:37 - 9:39
    Când I.A. devine superinteligentă,
  • 9:39 - 9:43
    își dă seama că există o cale
    mai eficientă pentru a atinge acest scop:
  • 9:43 - 9:44
    preia controlul asupra lumii
  • 9:44 - 9:48
    și implantează electrozi
    în mușchii faciali ai oamenilor
  • 9:48 - 9:50
    pentru a obține rânjete
    strălucitoare constante.
  • 9:50 - 9:51
    Alt exemplu:
  • 9:51 - 9:55
    dăm I.A. ca obiectiv să rezolve
    o problemă de matematică grea.
  • 9:55 - 9:57
    Când I.A. devine superinteligentă,
  • 9:57 - 10:01
    își dă seama că modul cel mai eficient
    pentru a găsi soluția problemei
  • 10:01 - 10:04
    este transformarea planetei
    într-un calculator gigant
  • 10:04 - 10:06
    pentru a-i crește capacitatea de gândire.
  • 10:06 - 10:09
    Luați seamă că aceasta dă I.A.-ului
    rațiunea instrumentală
  • 10:09 - 10:12
    pentru a ne face lucruri
    cu care nu suntem de acord.
  • 10:12 - 10:13
    În acest caz, oamenii sunt o amenințare,
  • 10:13 - 10:16
    am putea să împiedicăm rezolvarea
    problemei de matematică.
  • 10:17 - 10:20
    Desigur, se vede că lucrurile
    nu vor degenera chiar astfel;
  • 10:20 - 10:22
    acestea sunt exemple exagerate.
  • 10:22 - 10:24
    Dar esența lor e importantă:
  • 10:24 - 10:27
    dacă vrei să realizezi
    un proces de optimizare puternic
  • 10:27 - 10:30
    pentru a maximiza
    atingerea obiectivului x,
  • 10:30 - 10:32
    ar fi bine să te asiguri
    că definiția acelui x
  • 10:32 - 10:34
    încorporează tot ce contează pentru tine.
  • 10:35 - 10:38
    E un motiv ce apare și în multe legende.
  • 10:39 - 10:44
    Regele Midas vroia ca tot ce atinge
    să se transforme în aur.
  • 10:45 - 10:47
    Și-a atins fiica, s-a transformat în aur.
  • 10:47 - 10:50
    S-a atins de mâncare,
    s-a transformat în aur.
  • 10:50 - 10:52
    Aceasta poate fi relevant în practică,
  • 10:52 - 10:55
    nu doar ca o metaforă a lăcomiei,
  • 10:55 - 10:56
    ci și pentru a ilustra ce se întâmplă
  • 10:56 - 10:59
    dacă realizezi
    un proces de optimizare puternic,
  • 10:59 - 11:03
    cu obiectivele concepute eronat
    sau insuficient de detaliate.
  • 11:04 - 11:09
    Ați putea zice că dacă un calculator
    începe să implanteze electrozi în oameni
  • 11:09 - 11:11
    nu avem decât să îl închidem.
  • 11:13 - 11:18
    A, poate să nu fie chiar așa de ușor
    dacă suntem dependenți de sistem –
  • 11:18 - 11:20
    de unde se poate stinge Internetul?
  • 11:21 - 11:25
    B, de ce nu au apăsat cimpanzeii
    pe întrerupătorul umanității?
  • 11:26 - 11:27
    Sau neanderthalienii?
  • 11:27 - 11:29
    Cu siguranță aveau motive să o facă.
  • 11:30 - 11:33
    Avem un întrerupător, de exemplu aici.
  • 11:33 - 11:34
    (Se sugrumă)
  • 11:34 - 11:37
    Motivul e că suntem
    un adversar inteligent;
  • 11:37 - 11:40
    putem anticipa pericolul
    și putem să-l preîntâmpinăm.
  • 11:40 - 11:42
    Dar la fel ar fi
    și un agent superinteligent
  • 11:42 - 11:45
    și ar fi mult mai bun decât noi.
  • 11:46 - 11:53
    Faza e că nu ar trebui să credem
    că deținem controlul aici.
  • 11:53 - 11:56
    Am putea încerca,
    pentru a ne ușura un pic treaba,
  • 11:56 - 11:58
    să zicem să punem I.A. într-o cutie,
  • 11:58 - 12:00
    de pildă un mediu de soft securizat,
  • 12:00 - 12:03
    o simulare de realitate virtuală
    din care nu poate scăpa.
  • 12:03 - 12:07
    Dar cât de siguri putem fi
    că I.A. nu găsește un virus.
  • 12:07 - 12:10
    Dat fiind că simplii hackeri umani
    găsesc tot timpul viruși,
  • 12:10 - 12:12
    aș zice că, probabil, nu foarte siguri.
  • 12:14 - 12:18
    Sau deconectăm cablul ethernet
    pentru a crea o întrerupere.
  • 12:19 - 12:21
    Dar, la fel, simplii hackeri umani
  • 12:21 - 12:25
    trec adesea peste întreruperi,
    prin inginerie socială.
  • 12:25 - 12:26
    Chiar în acest moment,
  • 12:26 - 12:28
    sunt sigur că există un angajat pe undeva
  • 12:28 - 12:31
    care este păcălit
    să-și dea datele de cont
  • 12:31 - 12:34
    de către cineva care se dă drept
    funcționar la departamentul I.T.
  • 12:35 - 12:37
    Există și alte scenarii creative posibile
  • 12:37 - 12:38
    cum ar fi: dacă ești I.A.
  • 12:38 - 12:42
    ți-ai putea imagina să-ți pui
    electrozi în circuitul intern propriu
  • 12:42 - 12:45
    pentru a crea unde radio
    pe care să le folosești pentru comunicare.
  • 12:45 - 12:48
    Sau poate te-ai putea preface
    că nu funcționezi corect
  • 12:48 - 12:51
    și apoi, când programatorii te deschid
    să vadă care-i baiul cu tine,
  • 12:51 - 12:53
    se uită la codul-sursă – pac! –
  • 12:53 - 12:54
    poate avea loc manipularea.
  • 12:55 - 12:59
    Sau ar putea produce planul
    unei tehnologii mișto
  • 12:59 - 13:00
    și, când să o implementăm,
  • 13:00 - 13:04
    ea are niște efecte secundare ascunse
    pe care le-a gândit I.A.
  • 13:05 - 13:08
    Concluzia este că nu ar trebui
    să avem prea mare încredere
  • 13:08 - 13:12
    că putem ține duhul superinteligent
    închis în sticla sa pentru totdeauna.
  • 13:12 - 13:14
    Mai degrabă sau mai târziu, va ieși.
  • 13:15 - 13:18
    Cred că aici răspunsul este
    să găsim modalitatea
  • 13:18 - 13:23
    de a crea o I.A. superinteligentă
    care, chiar și după ce scapă,
  • 13:23 - 13:26
    e totuși sigură, pentru că
    în mod fundamental e de partea noastră,
  • 13:26 - 13:28
    pentru că are valorile noastre.
  • 13:28 - 13:32
    Nu văd altă cale de rezolvare
    a acestei probleme dificile.
  • 13:34 - 13:36
    Sunt încrezător că putem rezolva
    această problemă.
  • 13:36 - 13:40
    Nu ar trebui să facem o listă lungă
    cu toate lucrurile la care ținem
  • 13:40 - 13:44
    sau, mai rău, să le traducem
    într-un limbaj mașină
  • 13:44 - 13:45
    ca C++ sau Python.
  • 13:45 - 13:48
    Asta ar fi o sarcină absolut imposibilă.
  • 13:48 - 13:52
    În loc de asta, ar trebui să creăm o I.A.
    ce-și folosește propria inteligență
  • 13:52 - 13:55
    pentru a ne învăța valorile,
  • 13:55 - 13:59
    iar sistemul ei de motivare
    să fie construit astfel încât
  • 13:59 - 14:01
    să fie motivată să ne urmeze valorile
  • 14:01 - 14:05
    sau să facă acțiuni la care se poate
    aștepta să aibă aprobarea noastră.
  • 14:06 - 14:09
    Astfel am avea, pe cât posibil,
    o pârghie asupra inteligenței
  • 14:09 - 14:12
    în rezolvarea problemei
    valorilor încărcate.
  • 14:13 - 14:14
    Se poate realiza,
  • 14:14 - 14:17
    iar rezultatul ar fi foarte bun
    pentru umanitate.
  • 14:18 - 14:21
    Dar asta nu se întâmplă automat.
  • 14:22 - 14:25
    Condițiile inițiale
    pentru explozia de inteligență
  • 14:25 - 14:28
    ar trebui setate corespunzător
  • 14:28 - 14:30
    dacă vrem să avem o explozie controlată.
  • 14:31 - 14:34
    Valorile I.A. trebuie să fie
    potrivite cu ale noastre,
  • 14:34 - 14:36
    nu doar în contextul obișnuit,
  • 14:36 - 14:38
    când putem verifica ușor
    comportamentul I.A.
  • 14:38 - 14:41
    ci și în situațiile noi
    în care se va putea afla I.A.
  • 14:41 - 14:43
    într-un viitor nedefinit.
  • 14:43 - 14:48
    Există și aspecte ezoterice
    ce vor trebui rezolvate, clarificate:
  • 14:48 - 14:50
    detaliile exacte ale teoriei deciziilor,
  • 14:50 - 14:52
    cum să trateze incertitudinea logică etc.
  • 14:53 - 14:56
    Problemele tehnice de rezolvat
    pentru ca aceasta să funcționeze
  • 14:56 - 14:57
    par destul de dificile.
  • 14:57 - 15:01
    Nu chiar așa de dificile
    ca realizarea I.A. superinteligente,
  • 15:01 - 15:02
    dar destul de dificile.
  • 15:04 - 15:06
    Iată ce mă îngrijorează:
  • 15:06 - 15:09
    realizarea I.A. superinteligente
    e o mare provocare.
  • 15:10 - 15:13
    Realizarea I.A. superinteligente
    care este sigură
  • 15:13 - 15:15
    implică probleme suplimentare.
  • 15:16 - 15:19
    Riscul e ca cineva să reușească
    să rezolve prima provocare
  • 15:19 - 15:23
    fără a găsi calea rezolvării
    problemelor suplimentare
  • 15:23 - 15:25
    de asigurare a unei siguranțe perfecte.
  • 15:25 - 15:29
    Cred că ar trebui să găsim o soluție
  • 15:29 - 15:31
    pentru a controla problema în avans,
  • 15:31 - 15:34
    pentru a o avea când va fi nevoie.
  • 15:35 - 15:38
    S-ar putea să nu putem rezolva
    problema controlului total în avans
  • 15:38 - 15:41
    pentru că poate unele elemente
    pot fi puse la locul lor
  • 15:41 - 15:45
    doar cunoscând detaliile arhitecturii
    locului de implementare.
  • 15:45 - 15:49
    Dar cu cât rezolvăm mai mult
    în avans problema controlului,
  • 15:49 - 15:53
    cu atât sunt mai mari șansele ca trecerea
    la era inteligenței artificiale
  • 15:53 - 15:54
    să decurgă lin.
  • 15:54 - 15:59
    Mi se pare un lucru ce merită făcut
  • 15:59 - 16:03
    și pot să îmi imaginez că, dacă iese bine,
  • 16:03 - 16:07
    oamenii, peste un milion de ani,
    privind înapoi la acest secol,
  • 16:07 - 16:11
    ar putea foarte bine zice
    că singurul lucru important făcut de noi
  • 16:11 - 16:12
    a fost că am făcut aceasta bine.
  • 16:12 - 16:13
    Mulțumesc.
  • 16:13 - 16:17
    (Aplauze)
Title:
Ce se întâmplă când calculatorul devine mai deștept decât noi?
Speaker:
Nick Bostrom
Description:

Inteligența artificială avansează foarte rapid: în acest secol, sugerează cercetătorii, un calculator cu I.A. ar putea fi la fel de „deștept” ca o ființă umană. Apoi, zice Nick Bostrom, ne va depăși: „Inteligența artificială e ultima invenție pe care va trebui s-o facă umanitatea.” Ca filozof și tehnolog, Bostrom ne cere să ne gândim bine la lumea pe care o construim chiar acum, dominată de mașini gânditoare. Ne vor ajuta aceste mașini deștepte să ne păstrăm umanitatea și valorile sau vor avea propriile lor valori?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Romanian subtitles

Revisions Compare revisions