Return to Video

Putem crea Inteligență Artificială fără să o scăpăm de sub control?

  • 0:01 - 0:03
    Voi vorbi despre o greșeală de intuiție
  • 0:03 - 0:05
    de care mulți dintre noi suferim.
  • 0:05 - 0:09
    E greșeala de a detecta
    un anumit tip de pericol.
  • 0:09 - 0:11
    Voi descrie un scenariu
  • 0:11 - 0:14
    care cred că e înfricoșător
  • 0:14 - 0:16
    și probabil să se întâmple,
  • 0:17 - 0:19
    iar asta nu e o combinație bună
  • 0:19 - 0:20
    după cum se pare.
  • 0:20 - 0:23
    Totuși, în loc să fiți speriați,
    majoritatea dintre voi
  • 0:23 - 0:25
    vor considera că e interesant.
  • 0:25 - 0:28
    Voi descrie cum progresele
    pe care le facem
  • 0:28 - 0:30
    în inteligența artificială (IA)
  • 0:30 - 0:32
    ne-ar putea distruge în final.
  • 0:32 - 0:35
    De fapt, cred că e foarte greu
    să vedem cum nu ne vor distruge
  • 0:35 - 0:37
    sau să ne inspire să ne distrugem.
  • 0:37 - 0:39
    Dar dacă sunteți ca mine,
  • 0:39 - 0:42
    veți crede că e amuzant
    să te gândești la astfel de lucruri.
  • 0:42 - 0:45
    Acest răspuns e parte din problemă.
  • 0:45 - 0:48
    Această reacție
    ar trebui să vă îngrijoreze.
  • 0:48 - 0:51
    Dacă v-aș convinge cu discursul meu
  • 0:51 - 0:54
    că ar fi probabil
    să suferim o foamete globală,
  • 0:54 - 0:57
    fie din cauza schimbării climatice
    ori a altei catastrofe,
  • 0:57 - 1:01
    și că nepoții voștri sau nepoții lor
  • 1:01 - 1:02
    foarte probabil vor trăi așa,
  • 1:03 - 1:04
    nu v-ați gândi:
  • 1:05 - 1:07
    „Interesant.
  • 1:07 - 1:08
    Îmi place discursul ăsta.”
  • 1:09 - 1:11
    Foametea nu e amuzantă.
  • 1:12 - 1:15
    Moartea cauzată de science-fiction,
    pe de altă parte, e amuzantă,
  • 1:15 - 1:19
    iar ce mă îngrijorează cel mai mult
    despre dezvoltarea IA în prezent
  • 1:19 - 1:23
    e că părem incapabili să avem
    o reacție emoțională adecvată
  • 1:23 - 1:25
    pentru pericolului din fața noastră.
  • 1:25 - 1:28
    Eu nu pot avea un răspuns adecvat,
    și țin acest discurs.
  • 1:30 - 1:33
    E ca și cum am avea două uși în față.
  • 1:33 - 1:34
    În spatele primei uși
  • 1:34 - 1:37
    încetăm să progresăm
    în construirea mașinăriilor inteligente.
  • 1:37 - 1:41
    Software-ul și hardware-ul
    nu se mai îmbunătățesc.
  • 1:41 - 1:44
    Acum gândiți-vă de ce s-ar întâmpla asta.
  • 1:45 - 1:49
    Știind cât de importante sunt
    inteligența și automatizarea,
  • 1:49 - 1:52
    vom continua să îmbunătățim
    tehnologia cât putem.
  • 1:53 - 1:55
    Ce ne-ar opri să facem asta?
  • 1:56 - 1:58
    Un război nuclear la scară mare?
  • 1:59 - 2:01
    O pandemie globală?
  • 2:02 - 2:04
    Un impact cu un asteroid?
  • 2:06 - 2:08
    Justin Bieber devenind președintele SUA?
  • 2:08 - 2:11
    (Râsete)
  • 2:13 - 2:17
    Ideea e că ceva ar trebui să distrugă
    civilizația pe care o știm noi.
  • 2:17 - 2:22
    Imaginați-vă cât de rău ar trebui să fie
  • 2:22 - 2:25
    încât să ne împiedice să mai facem
    îmbunătățiri în tehnologie
  • 2:25 - 2:26
    permanent,
  • 2:26 - 2:28
    generație după generație.
  • 2:28 - 2:31
    Aproape prin definiție,
    ăsta e cel mai rău lucru
  • 2:31 - 2:33
    care s-a întâmplat în istoria umană.
  • 2:33 - 2:34
    Deci singura alternativă,
  • 2:34 - 2:36
    și asta e după a doua ușă,
  • 2:36 - 2:39
    e să îmbunătățim în continuare
    mașinăriile inteligente
  • 2:39 - 2:41
    an după an după an.
  • 2:42 - 2:45
    La un moment dat, vom construi
    mașinării mai inteligente decât noi
  • 2:46 - 2:49
    și odată ce avem mașinării
    mai inteligente decât noi,
  • 2:49 - 2:51
    ele vor începe să se îmbunătățească.
  • 2:51 - 2:53
    Apoi există riscul
    numit de matematicianul IJ Good
  • 2:53 - 2:55
    o „explozie de inteligență”,
  • 2:55 - 2:57
    procesul ne-ar putea scăpa de sub control.
  • 2:58 - 3:01
    Scenariul ăsta e caricaturizat adesea
  • 3:01 - 3:04
    ca o frică față de o armată
    de roboți răzbunători
  • 3:04 - 3:05
    care ne vor ataca.
  • 3:05 - 3:08
    Dar nu ăsta e scenariul cel mai probabil.
  • 3:08 - 3:13
    Mașinăriile noastre
    nu vor deveni brusc răzbunătoare.
  • 3:13 - 3:16
    Îngrijorarea e că vom construi mașinării
  • 3:16 - 3:18
    care sunt mult mai competente decât noi
  • 3:18 - 3:22
    astfel că cea mai mică divergență
    între scopurile lor și ale noastre
  • 3:22 - 3:23
    ne-ar putea distruge.
  • 3:24 - 3:26
    Gândiți-vă cum ne purtăm cu furnicile.
  • 3:27 - 3:28
    Nu le urâm.
  • 3:28 - 3:30
    Nu ne străduim să le rănim.
  • 3:30 - 3:33
    De fapt, uneori ne străduim
    să nu le rănim.
  • 3:33 - 3:35
    Le ocolim pe trotuar.
  • 3:35 - 3:37
    Dar oricând prezența lor
  • 3:37 - 3:39
    intră în conflict cu un scop de-al nostru,
  • 3:39 - 3:42
    să zicem să construim o clădire ca asta,
  • 3:42 - 3:44
    le anihilăm fără remușcări.
  • 3:44 - 3:47
    Îngrijorarea e că într-o zi
    vom construi mașinării
  • 3:47 - 3:50
    care, conștiente sau nu,
  • 3:50 - 3:53
    ne-ar putea trata
    cu o nepăsare asemănătoare.
  • 3:54 - 3:57
    Cred că asta vi se pare exagerat,
  • 3:57 - 4:04
    pariez că unii dintre voi se îndoiesc
    că IA superinteligentă e posibilă,
  • 4:04 - 4:05
    cu atât mai puțin inevitabilă.
  • 4:05 - 4:09
    Dar atunci trebuie să găsiți ceva greșit
    în una din următoarele presupuneri.
  • 4:09 - 4:11
    Sunt doar trei.
  • 4:12 - 4:17
    Inteligența e o problemă de procesare
    a informației în sisteme fizice.
  • 4:17 - 4:20
    De fapt, asta e mai mult
    decât o presupunere.
  • 4:20 - 4:23
    Deja am construit inteligență îngustă
    în mașinăriile noastre
  • 4:23 - 4:25
    și multe dintre ele funcționează deja
  • 4:25 - 4:28
    la un nivel de inteligență suprauman.
  • 4:29 - 4:31
    Știm că simpla materie
  • 4:31 - 4:34
    poate da naștere așa-numitei
    „inteligență generală”,
  • 4:34 - 4:38
    o abilitate de a gândi flexibil
    în diverse domenii
  • 4:38 - 4:41
    deoarece creierele noastre
    sunt capabile de asta. Corect?
  • 4:43 - 4:45
    Sunt doar atomi aici
  • 4:45 - 4:49
    și atâta vreme cât continuăm
    să construim sisteme de atomi
  • 4:49 - 4:52
    care prezintă comportament
    din ce în ce mai inteligent,
  • 4:52 - 4:55
    într-un final, dacă nu suntem întrerupți,
  • 4:55 - 4:58
    vom construi inteligență generală
  • 4:58 - 5:00
    în mașinăriile noastre.
  • 5:00 - 5:03
    E crucial să realizăm
    că rata progresului nu contează
  • 5:03 - 5:06
    deoarece orice progres e îndeajuns
    să ne aducă la capăt de drum.
  • 5:06 - 5:10
    Nu ne trebuie legea lui Moore
    să continuăm, nici progres exponențial.
  • 5:10 - 5:12
    Trebuie doar să continuăm.
  • 5:13 - 5:16
    A doua presupunere e că vom continua.
  • 5:17 - 5:20
    Vom continua să îmbunătățim
    mașinăriile inteligente.
  • 5:23 - 5:25
    Dată fiind valoarea inteligenței --
  • 5:25 - 5:29
    inteligența fie e sursa
    a tot ce valorăm,
  • 5:29 - 5:32
    fie ne trebuie
    ca să protejăm tot ce prețuim.
  • 5:32 - 5:34
    E resursa noastră cea mai prețioasă.
  • 5:34 - 5:36
    Deci asta vrem să facem.
  • 5:36 - 5:39
    Avem probleme pe care trebuie
    să le rezolvăm urgent.
  • 5:39 - 5:42
    Vrem să vindecăm boli
    ca Alzheimer și cancer.
  • 5:43 - 5:47
    Vrem să înțelegem sisteme economice.
    Vrem să îmbunătățim știința climatică.
  • 5:47 - 5:49
    Vom face asta dacă putem.
  • 5:49 - 5:52
    Trenul a plecat deja din stație
    și nu are frâne.
  • 5:54 - 5:59
    În final, nu stăm în vârful inteligenței
  • 5:59 - 6:01
    sau oriunde lângă el.
  • 6:02 - 6:04
    Asta e o informație crucială.
  • 6:04 - 6:06
    Asta ne face situația atât de precară
  • 6:06 - 6:10
    și de aceea nu ne putem baza
    pe intuițiile noastre despre risc.
  • 6:11 - 6:14
    Acum gândiți-vă la persoana
    cea mai deșteaptă.
  • 6:15 - 6:18
    În topul tuturor e John von Neumann.
  • 6:18 - 6:21
    Impresia pe care a lăsat-o
    von Neumann celor din jurul său,
  • 6:21 - 6:26
    inclusiv celor mai mari
    matematicieni și fizicieni,
  • 6:26 - 6:27
    e bine documentată.
  • 6:27 - 6:31
    Dacă doar jumătate din poveștile
    despre el sunt pe jumătate adevărate,
  • 6:31 - 6:33
    nu încape îndoială
  • 6:33 - 6:35
    că e unul din cei mai deștepți
    oameni vreodată.
  • 6:35 - 6:38
    Gândiți-vă la spectrul inteligenței.
  • 6:38 - 6:40
    Îl avem pe John von Neumann,
  • 6:42 - 6:43
    apoi suntem eu și voi,
  • 6:44 - 6:45
    apoi o găină.
  • 6:45 - 6:47
    (Râsete)
  • 6:47 - 6:49
    Scuze, o găină.
  • 6:49 - 6:50
    (Râsete)
  • 6:50 - 6:54
    Nu e nevoie să fac discursul
    mai deprimant decât e deja.
  • 6:54 - 6:55
    (Râsete)
  • 6:56 - 7:00
    E copleșitor de probabil
    că spectrul inteligenței
  • 7:00 - 7:03
    se extinde mult după cât putem noi percepe
  • 7:04 - 7:07
    și dacă construim mașinării
    mai inteligente decât noi,
  • 7:07 - 7:09
    probabil vor explora acest spectru
  • 7:09 - 7:11
    în moduri pe care nu le putem imagina
  • 7:11 - 7:14
    și ne depășesc în moduri inimaginabile.
  • 7:15 - 7:19
    E important să recunoaștem
    că e adevărat în virtutea vitezei.
  • 7:19 - 7:24
    Imaginați-vă dacă am construi
    o IA superinteligentă
  • 7:24 - 7:28
    care n-ar fi mai inteligentă
    decât echipa medie de cercetători
  • 7:28 - 7:30
    de la Stanford sau MIT.
  • 7:30 - 7:33
    Circuitele electronice funcționează
    de un milion de ori mai rapid
  • 7:33 - 7:35
    decât cele biochimice,
  • 7:35 - 7:38
    deci mașinăria ar trebui să gândească
    de un milion de ori mai rapid
  • 7:38 - 7:40
    decât mințile care au construit-o.
  • 7:40 - 7:41
    Dacă o pornești pentru o săptămână
  • 7:41 - 7:46
    va face 20.000 de ani
    de muncă intelectuală la nivel uman,
  • 7:46 - 7:48
    săptămână după săptămână.
  • 7:50 - 7:53
    Cum am putea să înțelegem,
    darămite să constrângem
  • 7:53 - 7:55
    o minte care face astfel de progrese?
  • 7:57 - 7:59
    Celălalt lucru îngrijorător e următorul:
  • 7:59 - 8:04
    imaginați-vă cel mai bun scenariu posibil.
  • 8:04 - 8:08
    Imaginați-vă că dăm peste un design
    de IA superinteligentă
  • 8:08 - 8:10
    care nu are probleme de siguranță.
  • 8:10 - 8:13
    Avem designul perfect din prima încercare.
  • 8:13 - 8:15
    E ca și cum ne-ar fi dat un oracol
  • 8:15 - 8:17
    care se comportă așa cum vrem.
  • 8:18 - 8:22
    Această mașinărie ar fi aparatul perfect
    de economisire a forței de muncă.
  • 8:22 - 8:24
    Poate crea mașinăria
    care poate construi mașinăria
  • 8:24 - 8:26
    care poate face orice muncă fizică,
  • 8:26 - 8:27
    folosind energie solară,
  • 8:27 - 8:30
    aproape la costul materiilor prime.
  • 8:30 - 8:33
    Vorbim despre sfârșitul corvoadei umane.
  • 8:33 - 8:36
    E și despre sfârșitul
    majorității muncii intelectuale.
  • 8:37 - 8:40
    Ce ar face maimuțe ca noi
    în aceste circumstanțe?
  • 8:40 - 8:44
    Am fi liberi să jucăm frisbee
    și să ne facem masaje.
  • 8:46 - 8:49
    Adăugați niște LSD și niște haine ciudate
  • 8:49 - 8:51
    și toată lumea ar putea fi
    ca la Burning Man.
  • 8:51 - 8:53
    (Râsete)
  • 8:54 - 8:56
    Asta sună destul de bine,
  • 8:57 - 9:00
    dar întrebați-vă ce s-ar întâmpla
  • 9:00 - 9:02
    în ordinea economică și politică actuală?
  • 9:02 - 9:05
    Pare probabil că vom fi martorii
  • 9:05 - 9:11
    unui nivel de inegalitate de avere
    și șomaj nemaivăzut.
  • 9:11 - 9:13
    Fără voința de a pune această nouă avere
  • 9:13 - 9:15
    în serviciul umanității,
  • 9:16 - 9:19
    câțiva miliardari ar zâmbi
    pe copertele revistelor de afaceri
  • 9:19 - 9:22
    în timp ce restul lumii ar muri de foame.
  • 9:22 - 9:25
    Și ce ar face rușii sau chinezii
  • 9:25 - 9:27
    dacă ar auzi
    că o companie din Silicon Valley
  • 9:27 - 9:30
    ar fi pe cale să lanseze
    o IA superinteligentă?
  • 9:30 - 9:33
    Această mașinărie ar fi capabilă
    să ducă un război,
  • 9:33 - 9:35
    terestru sau cibernetic,
  • 9:35 - 9:37
    cu o putere nemaivăzută.
  • 9:38 - 9:40
    E un scenariu
    în care câștigătorul ia tot.
  • 9:40 - 9:43
    Să fii cu șase luni înaintea competiției
  • 9:43 - 9:46
    înseamnă să fii cu 500.000 de ani înainte,
  • 9:46 - 9:47
    cel puțin.
  • 9:47 - 9:52
    Se pare că doar zvonurile
    despre acest fel de descoperire
  • 9:52 - 9:55
    ar putea să înnebunească specia noastră.
  • 9:55 - 9:58
    Unul din cele mai înfricoșătoare lucruri
  • 9:58 - 10:00
    în acest moment, după părerea mea,
  • 10:00 - 10:05
    sunt lucrurile
    pe care le spun cercetătorii IA
  • 10:05 - 10:06
    când vor să ne liniștească.
  • 10:07 - 10:10
    Cel mai comun motiv
    să nu ne îngrijorăm e timpul.
  • 10:10 - 10:13
    Se va întâmpla peste mult timp.
  • 10:13 - 10:15
    Probabil peste 50 sau 100 de ani.
  • 10:16 - 10:17
    Un cercetător a spus:
  • 10:17 - 10:19
    „Să vă îngrijorați din cauza IA
  • 10:19 - 10:22
    e ca și cum v-ați îngrijora
    de suprapopulare pe Marte.”
  • 10:22 - 10:24
    Asta e versiunea de Silicon Valley
  • 10:24 - 10:26
    de „nu-ți bate căpșorul cu asta”.
  • 10:26 - 10:28
    (Râsete)
  • 10:28 - 10:29
    Nimeni nu pare să observe
  • 10:29 - 10:32
    că referința la acea perioadă de timp
  • 10:32 - 10:35
    nu e logică.
  • 10:35 - 10:38
    Dacă inteligența e doar o problemă
    de procesare a informației
  • 10:38 - 10:41
    și noi continuăm
    să îmbunătățim mașinăriile,
  • 10:41 - 10:44
    vom produce o formă de superinteligență.
  • 10:44 - 10:48
    Nu avem idee cât ne va lua
  • 10:48 - 10:50
    să creăm condițiile de siguranță
    pentru asta.
  • 10:52 - 10:54
    Lăsați-mă să repet.
  • 10:54 - 10:57
    Nu avem idee cât ne va lua
  • 10:57 - 11:00
    să creăm condițiile de siguranță
    pentru asta.
  • 11:01 - 11:04
    Dacă nu ați observat,
    50 de ani nu mai sunt ce-au fost.
  • 11:04 - 11:07
    Iată 50 de ani în luni.
  • 11:07 - 11:09
    De atâta timp avem iPhone.
  • 11:09 - 11:12
    De atâta timp The Simpsons
    rulează la televizor.
  • 11:13 - 11:15
    50 de ani nu e un timp lung
  • 11:15 - 11:19
    pentru a rezolva una din cele mai mari
    provocări ale speciei noastre.
  • 11:20 - 11:24
    Încă o dată, se pare că eșuăm
    să avem o reacție emoțională adecvată
  • 11:24 - 11:26
    la ce va veni, foarte probabil.
  • 11:26 - 11:30
    Informaticianul Stuart Russell
    are o analogie bună.
  • 11:30 - 11:35
    A spus: să ne imaginăm că am primit
    un mesaj de la o civilizație extraterestră
  • 11:35 - 11:37
    care zice:
  • 11:37 - 11:39
    „Oameni de pe Pământ,
  • 11:39 - 11:41
    vom veni pe planeta voastră în 50 de ani.
  • 11:42 - 11:43
    Pregătiți-vă.”
  • 11:43 - 11:48
    Acum rămânem să numărăm lunile
    până aterizează nava?
  • 11:48 - 11:51
    Am simți nevoia să facem ceva mai urgent.
  • 11:52 - 11:55
    Alt motiv pentru care
    ni se spune să nu ne îngrijorăm
  • 11:55 - 11:58
    e că aceste mașinării pot să aibă
    doar aceleași valori ca noi
  • 11:58 - 12:00
    deoarece vor fi practic
    extensiile noastre.
  • 12:00 - 12:02
    Vor fi în creierele noastre
  • 12:02 - 12:04
    și noi vom deveni practic
    sistemele lor limbice.
  • 12:05 - 12:07
    Să ne gândim un moment
  • 12:07 - 12:10
    la calea de viitor
    cea mai sigură și prudentă,
  • 12:10 - 12:11
    recomandată,
  • 12:11 - 12:14
    e să implantăm tehnologia
    direct în creierele noastre.
  • 12:15 - 12:18
    Asta ar fi calea de viitor
    cea mai sigură și prudentă,
  • 12:18 - 12:21
    dar de obicei măsurile de siguranță
    ale unei tehnologii
  • 12:21 - 12:25
    trebuie să fie clarificate
    înainte de a ți-o pune în creier.
  • 12:25 - 12:27
    (Râsete)
  • 12:27 - 12:32
    Problema mai delicată e că
    construcția unei IA superinteligente
  • 12:32 - 12:34
    pare mai ușoară
  • 12:34 - 12:36
    decât a unei IA superinteligente
  • 12:36 - 12:38
    și neuroștiința completă
  • 12:38 - 12:40
    care ne ajută să ne integrăm
    mintea cu aceasta.
  • 12:41 - 12:44
    Dat fiind că guvernele și companiile
    care lucrează la asta
  • 12:44 - 12:48
    probabil se cred într-o cursă
    împotriva tuturor,
  • 12:48 - 12:51
    și câștigarea cursei
    înseamnă câștigarea lumii,
  • 12:51 - 12:53
    dacă nu o distrugem în clipa următoare,
  • 12:53 - 12:56
    pare probabil că ce e mai ușor de făcut
  • 12:56 - 12:58
    va fi făcut mai întâi.
  • 12:59 - 13:01
    Din păcate, nu am o soluție
    la această problemă,
  • 13:01 - 13:04
    alta decât să vă recomand
    să vă gândiți la asta.
  • 13:04 - 13:06
    Cred că ne trebuie
    un fel de Manhattan Project
  • 13:06 - 13:09
    pe subiectul IA.
  • 13:09 - 13:11
    Nu s-o construim, deoarece
    cred că inevitabil o vom face,
  • 13:11 - 13:15
    ci să înțelegem
    cum să evităm cursa înarmărilor
  • 13:15 - 13:18
    și să o construim într-un fel
    corespunzător valorilor noastre.
  • 13:18 - 13:20
    Când vorbiți despre IA superinteligentă,
  • 13:20 - 13:23
    care se poate schimba pe sine,
  • 13:23 - 13:27
    se pare că avem doar o șansă
    să alegem condițiile inițiale corecte
  • 13:27 - 13:29
    și chiar și atunci va trebui să absorbim
  • 13:29 - 13:32
    consecințele economice și politice
    ale alegerii corecte.
  • 13:34 - 13:36
    Dar momentul în care admitem
  • 13:36 - 13:40
    că procesarea informației
    e sursa inteligenței,
  • 13:41 - 13:46
    că un sistem computațional adecvat
    e baza inteligenței,
  • 13:46 - 13:50
    și admitem că vom îmbunătăți
    continuu aceste sisteme
  • 13:51 - 13:56
    și admitem că orizontul cogniției
    foarte probabil depășește
  • 13:56 - 13:57
    ce știm noi acum,
  • 13:58 - 13:59
    atunci trebuie să admitem
  • 13:59 - 14:02
    că suntem în procesul
    de creare a unui fel de zeu.
  • 14:03 - 14:05
    Acum ar fi momentul potrivit
  • 14:05 - 14:07
    să ne asigurăm că e un zeu
    cu care putem trăi.
  • 14:08 - 14:10
    Vă mulțumesc mult.
  • 14:10 - 14:13
    (Aplauze)
Title:
Putem crea Inteligență Artificială fără să o scăpăm de sub control?
Speaker:
Sam Harris
Description:

Vă e teamă de Inteligența Artificială? Ar trebui, spune cercetătorul în neuroștiințe și filosoful Sam Harris -- nu doar teoretic. Vom construi mașinării supraumane, spune Harris, dar încă nu am realizat problemele asociate cu crearea unui obiect care ne-ar trata așa cum tratăm noi furnicile.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Romanian subtitles

Revisions