Return to Video

Podem desenvolupar una IA sense perdre'n el control?

  • 0:01 - 0:03
    Tot seguit parlaré
    sobre una manca d'intuïció
  • 0:03 - 0:05
    que molts de nosaltres patim.
  • 0:05 - 0:09
    És una dificultat per detectar
    un tipus de perill específic.
  • 0:09 - 0:11
    Imagineu-vos el següent escenari,
  • 0:11 - 0:14
    que jo crec que és esgarrifós
  • 0:14 - 0:16
    i alhora ben probable.
  • 0:17 - 0:18
    Això no és pas una bona combinació
  • 0:19 - 0:20
    pel que sembla.
  • 0:20 - 0:23
    I enlloc d'espantar-vos,
    molts creureu
  • 0:23 - 0:25
    que allò del que parlo
    és divertit.
  • 0:25 - 0:28
    M'agradaria explicar
    que els avenços que fem
  • 0:28 - 0:30
    en intel·ligència artificial
  • 0:30 - 0:32
    poden acabar destruint-nos.
  • 0:32 - 0:35
    I de fet, crec que és ben difícil
    no veure com no ens poden destruir
  • 0:35 - 0:37
    o fer que ens autodestruïm.
  • 0:37 - 0:39
    Tot i així, si penseu com jo,
  • 0:39 - 0:42
    veureu que és distret
    pensar en aquestes coses.
  • 0:42 - 0:45
    I aquesta és la resposta
    que és part del problema.
  • 0:45 - 0:47
    És la que hauria d'amoïnar-vos.
  • 0:48 - 0:51
    I si us hagués de convèncer
    amb aquesta xerrada
  • 0:51 - 0:54
    de que és ben possible
    que arribem a patir una fam mundial,
  • 0:54 - 0:57
    ja sigui pel canvi climàtic
    o per qualsevol altra catàstrofe,
  • 0:57 - 1:01
    i que els vostres néts,
    o els seus néts,
  • 1:01 - 1:02
    probablement viuran així,
  • 1:03 - 1:04
    no pensaríeu:
  • 1:05 - 1:07
    "Interessant.
  • 1:07 - 1:09
    M'agrada aquesta xerrada TED."
  • 1:09 - 1:11
    La fam no és divertida.
  • 1:12 - 1:15
    La mort en la ciència ficció,
    en canvi, sí que ho és,
  • 1:15 - 1:19
    i el que més em preocupa
    sobre el progrés de la IA ara mateix
  • 1:19 - 1:23
    és que no sembla que siguem capaços
    de respondre com cal a nivell emocional
  • 1:23 - 1:25
    als perills que ens esperen.
  • 1:25 - 1:28
    No sóc capaç de respondre-hi
    i ara em trobo donant aquesta xerrada.
  • 1:30 - 1:33
    És com si ens trobéssim
    davant dues portes.
  • 1:33 - 1:34
    Rera la porta número u,
  • 1:34 - 1:37
    deixem de progressar
    i de construir màquines intel·ligents.
  • 1:37 - 1:41
    El nostre maquinari i programari
    deixa de millorar per alguna raó.
  • 1:41 - 1:44
    Penseu durant uns instants
    per què podria passar això.
  • 1:45 - 1:49
    Vull dir, ja que la intel·ligència
    i la automatització són tan valuoses,
  • 1:49 - 1:52
    seguirem millorant la tecnologia
    sempre que siguem sent capaços.
  • 1:53 - 1:55
    Què podria impedir-nos-ho?
  • 1:56 - 1:58
    Potser una guerra nuclear mundial?
  • 1:59 - 2:01
    O una gran epidèmia?
  • 2:02 - 2:04
    L'impacte d'un asteroide?
  • 2:06 - 2:08
    Justin Bieber com
    president dels Estats Units?
  • 2:08 - 2:11
    (Riures)
  • 2:13 - 2:17
    Alguna cosa hauria de destruir
    la civilització tal i com la coneixem.
  • 2:17 - 2:22
    Imagineu-vos com de greu hauria de ser
  • 2:22 - 2:25
    per impedir-nos seguir
    millorant la tecnologia
  • 2:25 - 2:26
    de forma permanent,
  • 2:26 - 2:28
    generació rera generació.
  • 2:28 - 2:30
    Quasi per definició,
    es tracta del pitjor
  • 2:30 - 2:32
    que podria arribar a patir la humanitat.
  • 2:33 - 2:34
    Però l'única alternativa,
  • 2:34 - 2:36
    que es troba darrera la porta número dos,
  • 2:36 - 2:39
    és seguir millorant
    la intel·ligència de les màquines
  • 2:39 - 2:41
    any rere any.
  • 2:42 - 2:45
    En algun moment, construirem màquines
    més intel·ligents que nosaltres,
  • 2:46 - 2:49
    i un cop les màquines ens superin,
  • 2:49 - 2:51
    es milloraran a elles mateixes.
  • 2:51 - 2:53
    I el que el matemàtic
    IJ Good anomenava com
  • 2:53 - 2:55
    "l'explosió de la intel·ligència",
  • 2:55 - 2:58
    pot succeir fent que les màquines
    ens superin amb escreix.
  • 2:58 - 3:01
    Aquest fet sovint es representa
    com jo ho he fet aquí,
  • 3:01 - 3:04
    imaginant que exèrcits de robots malèvols
  • 3:04 - 3:05
    ens ataquen.
  • 3:05 - 3:08
    Però aquest no és l'escenari més probable.
  • 3:08 - 3:13
    No crec que les màquines
    de cop i volta es tornin malèfiques.
  • 3:13 - 3:16
    Em preocupa més que arribem
    a construir màquines
  • 3:16 - 3:18
    que són molt més
    competents que nosaltres
  • 3:18 - 3:22
    i que la més subtil de les divergències
    entre els seus objectius i els nostres
  • 3:22 - 3:23
    puguin arribar a destruir-nos.
  • 3:24 - 3:26
    Penseu només en com
    tractem a les formigues.
  • 3:27 - 3:28
    No les odiem pas.
  • 3:28 - 3:30
    No sortim del camí per fer-les-hi mal.
  • 3:30 - 3:33
    Fins i tot patim mals de cap
    per no esclafar-les
  • 3:33 - 3:35
    i les saltem quan caminem per la vorera.
  • 3:35 - 3:37
    Però quan la seva presència
  • 3:37 - 3:39
    entra en conflicte
    amb els nostres objectius,
  • 3:39 - 3:42
    per exemple si volem construir un edifici,
  • 3:42 - 3:44
    les exterminem sense cap prejudici.
  • 3:44 - 3:47
    El que em preocupa és que un dia
    construirem màquines
  • 3:47 - 3:50
    que tant si són conscients
    com si no ho són,
  • 3:50 - 3:52
    podrien arribar a menysprear-nos així.
  • 3:54 - 3:57
    Crec que això queda molt lluny
    per molts de vosaltres.
  • 3:57 - 4:04
    Inclús crec que molts de vosaltres dubteu
    que la superintel·ligència sigui possible,
  • 4:04 - 4:05
    i menys encara inevitable.
  • 4:05 - 4:09
    Però en aquest cas heu de trobar quelcom
    erroni en una d'aquestes suposicions:
  • 4:09 - 4:11
    I només n'hi ha tres:
  • 4:12 - 4:17
    La intel·ligència consisteix en processar
    informació en sistemes físics.
  • 4:17 - 4:20
    De fet, això és quelcom
    més que una suposició.
  • 4:20 - 4:23
    Ja hem incorporat petites intel·ligències
    en les nostres màquines,
  • 4:23 - 4:26
    i moltes d'elles tenen
    un rendiment superior
  • 4:26 - 4:28
    a un nivell d'intel·ligència suprahumana.
  • 4:29 - 4:31
    I ja sabem que la mera matèria
  • 4:31 - 4:34
    pot donar lloc
    a la "intel·ligència general",
  • 4:34 - 4:38
    és a dir l'habilitat de pensar
    amb flexibilitat en diversos camps.
  • 4:38 - 4:41
    Al cap i a la fi els nostres cervells
    ho han aconseguit, cert?
  • 4:41 - 4:45
    És a dir, només hi ha àtoms aquí,
  • 4:45 - 4:49
    i sempre i quan seguim construint
    sistemes a base d'àtoms
  • 4:49 - 4:52
    que es comporten de forma
    cada cop més intel·ligent,
  • 4:52 - 4:55
    en algun moment, si res no ho impedeix,
  • 4:55 - 4:58
    en algun moment construirem
    intel·ligència artificial
  • 4:58 - 4:59
    en les nostres màquines.
  • 4:59 - 5:03
    És de vital importància adonar-se'n
    que el ritme de progrés no importa,
  • 5:03 - 5:06
    perquè qualsevol progrés ens acabarà
    portant a l'altre extrem.
  • 5:06 - 5:10
    No ens cal la llei de Moore per continuar.
    No ens cal un progrés exponencial.
  • 5:10 - 5:12
    Només ens cal seguir avançant.
  • 5:13 - 5:16
    La segona suposició
    és que seguirem avançant.
  • 5:17 - 5:20
    Seguirem millorant
    les màquines intel·ligents.
  • 5:21 - 5:25
    I donat el valor que té la intel·ligència,
  • 5:25 - 5:29
    és a dir, ja que la intel·ligència
    és la font de tot el que valorem
  • 5:29 - 5:32
    i la necessitem per salvaguardar
    tot el que ens importa.
  • 5:32 - 5:34
    És el recurs més valuós de que disposem.
  • 5:34 - 5:36
    Així doncs, volem que avanci.
  • 5:36 - 5:39
    Tenim problemes que
    hem de solucionar desesperadament.
  • 5:39 - 5:42
    Volem guarir malalties
    com l'Alzheimer i el càncer.
  • 5:43 - 5:47
    Volem entendre sistemes econòmics.
    Volem millorar la ciència del clima.
  • 5:47 - 5:49
    Així doncs ho farem si podem.
  • 5:49 - 5:52
    El tren ja ha sortit de l'estació
    i no hi ha manera de que pari.
  • 5:54 - 5:59
    I per últim, no ens trobem
    al cim de la nostra intel·ligència,
  • 5:59 - 6:01
    o en qualsevol punt que s'hi acosti.
  • 6:02 - 6:04
    I això és la clau de la qüestió.
  • 6:04 - 6:06
    És el que fa que la nostra
    situació sigui tan precària,
  • 6:06 - 6:11
    i és el que fa que les nostres intuïcions
    sobre aquest risc siguin tan poc fiables.
  • 6:11 - 6:14
    Penseu en la persona
    més intel·ligent que mai ha viscut.
  • 6:15 - 6:18
    Molts de vosaltres haureu considerat
    a en John von Neumann.
  • 6:18 - 6:21
    La impressió que va causar
    en von Neumann al seu voltant,
  • 6:21 - 6:25
    i això inclou als més grans matemàtics
    i físics de la seva època,
  • 6:26 - 6:27
    està ben documentada.
  • 6:27 - 6:31
    Si només la meitat de
    les històries sobre ell són certes,
  • 6:31 - 6:32
    no hi ha cap dubte
  • 6:33 - 6:35
    que és una de les persones més brillants.
  • 6:35 - 6:38
    Considerem l'espectre d'intel·ligència.
  • 6:38 - 6:40
    Tenim en John von Neumann.
  • 6:42 - 6:43
    I aquí estem nosaltres.
  • 6:44 - 6:45
    I aquí un pollastre.
  • 6:45 - 6:47
    (Riures)
  • 6:47 - 6:49
    Perdó, un pollastre.
  • 6:49 - 6:50
    (Riures)
  • 6:50 - 6:54
    No hi ha cap necessitat de fer aquesta
    xerrada més depriment del que pot ser.
  • 6:54 - 6:55
    (Riures)
  • 6:56 - 7:00
    Sembla que està ben clar
    que l'espectre de la intel·ligència
  • 7:00 - 7:03
    s'estén molt més enllà
    del que considerem actualment,
  • 7:04 - 7:07
    i si construïm màquines que
    són més intel·ligents que nosaltres,
  • 7:07 - 7:09
    molt probablement exploraran
    aquest espectre
  • 7:09 - 7:11
    de maneres que no podem imaginar,
  • 7:11 - 7:14
    i ens superaran de maneres
    que tampoc podem imaginar.
  • 7:15 - 7:19
    I hem de reconèixer que això és així
    només en base a la velocitat.
  • 7:19 - 7:24
    D'acord? Doncs imagineu que
    hem construit una IA superintel·ligent
  • 7:24 - 7:28
    que no és més brillant que
    la majoria d'equips de recerca
  • 7:28 - 7:30
    de Stanford o del MIT.
  • 7:30 - 7:33
    Els circuits electrònics són
    un milió de vegades més ràpids
  • 7:33 - 7:34
    que les ones bioquímiques,
  • 7:35 - 7:38
    així, aquesta màquina pensaria
    un milió de cops més depressa
  • 7:38 - 7:39
    que les ments que l'han dissenyat.
  • 7:40 - 7:41
    Si la deixem encesa una setmana
  • 7:41 - 7:46
    haurà complert 20.000 anys de
    feina intel·lectual a nivell humà,
  • 7:46 - 7:48
    setmana rere setmana rere setmana.
  • 7:50 - 7:53
    Com podem arribar a comprendre,
    i menys encara limitar,
  • 7:53 - 7:55
    una ment que progressa així?
  • 7:57 - 7:59
    L'altra cosa que em preocupa,
    sent honestos,
  • 7:59 - 8:04
    es que... imagineu-vos
    el millor escenari possible.
  • 8:04 - 8:08
    Imagineu que tombem amb un disseny
    de IA superintel·ligent
  • 8:08 - 8:10
    sense problemes de seguretat.
  • 8:10 - 8:13
    És el primer cop que
    aconseguim el disseny perfecte.
  • 8:13 - 8:15
    És com si ens hagués arribat un oracle
  • 8:15 - 8:17
    que es comporta tal i com preteníem.
  • 8:17 - 8:21
    Doncs bé, aquesta màquina seria
    l'eina perfecta per reduir-nos feina.
  • 8:22 - 8:24
    Podria dissenyar màquines
    que podrien construir màquines
  • 8:24 - 8:26
    per fer qualsevol feina física,
  • 8:26 - 8:27
    alimentades per energia solar,
  • 8:27 - 8:30
    i més o menys pel que
    costa la matèria prima.
  • 8:30 - 8:33
    Estem parlant de la fi
    de les feines feixugues.
  • 8:33 - 8:36
    També seria la fi de la majoria
    de feines intel·lectuals.
  • 8:37 - 8:40
    Què farien uns simis com nosaltres
    en aquestes circumstàncies?
  • 8:40 - 8:45
    Tindríem temps per jugar al disc volador
    i de fer-nos massatges els uns als altres.
  • 8:46 - 8:49
    Afegiu una mica de LSD
    i un vestuari de gust qüestionable
  • 8:49 - 8:51
    i el món sencer podria
    ser com el Burning Man.
  • 8:51 - 8:53
    (Riures)
  • 8:54 - 8:56
    Tot això pot sonar força atractiu,
  • 8:57 - 9:00
    però penseu que passaria
  • 9:00 - 9:02
    si succeís sota
    l'ordre econòmic i polític actual?
  • 9:02 - 9:05
    És ben probable que experimentéssim
  • 9:05 - 9:09
    una desigualtat econòmica
    i un nivell d'atur
  • 9:09 - 9:11
    que mai havíem experimentat.
  • 9:11 - 9:13
    I si no hi ha la voluntat
    de posar tota aquesta riquesa
  • 9:13 - 9:15
    al servei de la humanitat,
  • 9:16 - 9:19
    uns quants bilionaris arribarien
    a les portades de les revistes
  • 9:19 - 9:22
    mentre la resta
    ens moriríem de gana.
  • 9:22 - 9:25
    I què farien els russos o els xinesos
  • 9:25 - 9:27
    si sapiguessin que
    una empresa de Silicon Valley
  • 9:27 - 9:30
    estigués a punt d'aconseguir
    una IA superintel·ligent?
  • 9:30 - 9:33
    Aquesta màquina estaria
    preparada per entrar en guerra,
  • 9:33 - 9:35
    ja sigui per terra o cibernètica,
  • 9:35 - 9:37
    amb un poder sense precedents.
  • 9:38 - 9:40
    I aquí el guanyador s'ho emporta tot.
  • 9:40 - 9:43
    Aquí, trobar-se sis mesos
    al capdavant de la competició
  • 9:43 - 9:46
    vol dir trobar-se
    500.000 anys al davant
  • 9:46 - 9:47
    com a mínim.
  • 9:47 - 9:52
    Només que hi hagi un rumor
    sobre algun descobriment d'aquest tipus
  • 9:52 - 9:55
    pot fer que la nostra espècie embogeixi.
  • 9:55 - 9:58
    Ara bé, una de les coses més paoroses,
  • 9:58 - 10:00
    segons el meu punt de vista, ara per ara,
  • 10:00 - 10:05
    són el tipus de coses
    que els investigadors en IA diuen
  • 10:05 - 10:06
    quan volen tranquil·litzar-nos.
  • 10:07 - 10:10
    I la principal raó que ens donen
    per no preocupar-no és el temps.
  • 10:10 - 10:13
    "Això encara està lluny,
    no ho sabíeu?"
  • 10:13 - 10:15
    "Probablement encara queden
    uns 50 o 100 anys."
  • 10:16 - 10:17
    Un investigador va dir:
  • 10:17 - 10:19
    "Preocuparse per una IA insegura
  • 10:19 - 10:21
    és com preocupar-se per la
    sobre-població a Mart."
  • 10:22 - 10:24
    Això és la versió
    de Silicon Valley
  • 10:24 - 10:26
    de "no et preocupis, nena!"
  • 10:26 - 10:27
    (Riures)
  • 10:28 - 10:29
    Ningú sembla adonar-se'n
  • 10:29 - 10:32
    que basar-se en un horitzó cronològic
  • 10:32 - 10:35
    és un 'non sequitur' absolut.
  • 10:35 - 10:38
    Si la intel·ligència consisteix
    simplement en processar informació,
  • 10:38 - 10:41
    i seguim perfeccionant les màquines,
  • 10:41 - 10:44
    acabarem per generar alguna
    forma de superintel·ligència.
  • 10:44 - 10:48
    I no tenim ni idea de quant
    de temps ens portarà
  • 10:48 - 10:50
    crear les condicions
    per fer-ho de forma segura.
  • 10:52 - 10:53
    Deixeu-me que ho repeteixi.
  • 10:54 - 10:57
    No tenim ni idea de quant
    de temps ens portarà
  • 10:57 - 11:00
    crear les condicions per
    fer-ho de forma segura.
  • 11:01 - 11:04
    I per si no us n'heu adonat,
    50 anys no són el que eren abans.
  • 11:04 - 11:07
    Això són 50 anys en mesos.
  • 11:07 - 11:09
    Això són els mesos
    que hem tingut l'iPhone.
  • 11:09 - 11:13
    Això són els mesos que
    "Els Simpsons" han estat en pantalla.
  • 11:13 - 11:15
    Cinquanta anys no és gaire temps
  • 11:15 - 11:18
    per assolir un dels grans reptes
    de la nostra espècie.
  • 11:20 - 11:24
    Torno a dir, sembla que no estem
    reaccionant com cal a nivell emocional
  • 11:24 - 11:26
    envers allò que cada cop n'estem
    més segurs que arribarà.
  • 11:26 - 11:30
    El científic informàtic Stuart Russell
    fa una bonica analogia.
  • 11:30 - 11:35
    Va dir que imaginéssim que havíem rebut
    un missatge d'una civilització alienígena,
  • 11:35 - 11:37
    que deia:
  • 11:37 - 11:39
    "Gent de la Terra,
  • 11:39 - 11:41
    arribarem al vostre planeta
    d'aquí 50 anys.
  • 11:42 - 11:43
    Prepareu-vos."
  • 11:43 - 11:48
    I llavors comencem a comptar
    els mesos que queden abans que arribin.
  • 11:48 - 11:51
    Segurament sentiríem
    una mica més de pressió que ara.
  • 11:52 - 11:55
    Una altra raó que donen
    per no preocupar-nos
  • 11:55 - 11:58
    és que les màquines només podran
    compartir els nostres valors
  • 11:58 - 12:00
    perquè seran literalment
    extensions de nosaltres.
  • 12:00 - 12:02
    Seran uns empelts
    en els nostres cervells,
  • 12:02 - 12:05
    i esdevindrem els seus sistemes límbics.
  • 12:05 - 12:07
    Considereu per un moment
  • 12:07 - 12:10
    que la forma més segura
    i més prudent de seguir avançant,
  • 12:10 - 12:11
    la forma més recomanada,
  • 12:11 - 12:14
    és implantar-los en els nostres
    cervells directament.
  • 12:15 - 12:18
    És possible que sigui l'única manera
    segura i prudent de continuar,
  • 12:18 - 12:21
    tot i que normalment si una tecnologia
    ens preocupa una micona
  • 12:21 - 12:25
    primer cal que estigui lliure d'errors
    si després ens la volem enganxar al cap.
  • 12:25 - 12:27
    (Riures)
  • 12:27 - 12:32
    El problema de fons és que desenvolupar
    una IA superintel·ligent per si mateixa
  • 12:32 - 12:34
    sembla ser més fàcil
  • 12:34 - 12:36
    que construir una IA superintel·ligent
  • 12:36 - 12:38
    i tenir alhora la neurociència llesta
  • 12:38 - 12:40
    per permetre'ns connectar-hi
    la ment sense interrupcions.
  • 12:41 - 12:44
    I donat que les empreses i els governs
    que estan fent aquesta feina
  • 12:44 - 12:48
    és probable que es considerin
    en una cursa contra la resta,
  • 12:48 - 12:51
    i donat que guanyar la cursa
    és guanyar el món,
  • 12:51 - 12:53
    sempre i quan no
    se'l destrueixi tot seguit,
  • 12:53 - 12:56
    aleshores és probable que allò
    que sembli més fàcil de fer
  • 12:56 - 12:58
    sigui el que primer es faci.
  • 12:59 - 13:01
    Malauradament, no tinc cap
    solució a aquest problema,
  • 13:01 - 13:04
    apart de recomanar que
    tots hauríem de pensar-hi més.
  • 13:04 - 13:06
    Crec que necessitem
    una mena de projecte Manhattan
  • 13:06 - 13:08
    però per la intel·ligència artificial.
  • 13:09 - 13:11
    No per desenvolupar-la,
    ja que és inevitable,
  • 13:11 - 13:15
    sinó per comprendre com podem
    evitar una cursa armementística
  • 13:15 - 13:18
    i per desenvolupar-la de manera
    que vagi de la mà dels nostres interessos.
  • 13:18 - 13:20
    Quan parlem d'una IA superintel·ligent
  • 13:20 - 13:23
    que es pot canviar a si mateixa,
  • 13:23 - 13:27
    sembla que només tenim una oportunitat
    per crear les bones condicions inicials,
  • 13:27 - 13:29
    però inclús així haurem d'absorbir
  • 13:29 - 13:33
    les conseqüències econòmiques i polítiques
    d'haver-les establert correctament.
  • 13:34 - 13:36
    Però en el moment que admetem
  • 13:36 - 13:40
    que el processat d'informació
    és l'origen de la intel·ligència,
  • 13:41 - 13:46
    que un sistema de computació apropiat
    és la base de tota intel·ligència,
  • 13:46 - 13:50
    i que seguirem millorant
    aquests sistemes indefinidament,
  • 13:51 - 13:56
    i admetem que l'horitzó de la cognició
    molt probablement excedeix
  • 13:56 - 13:57
    el que sabem fins ara,
  • 13:58 - 13:59
    aleshores podrem admetre
  • 13:59 - 14:02
    que estem en un procés
    de crear una mena de déu.
  • 14:03 - 14:05
    Ara és el moment
  • 14:05 - 14:08
    d'assegurar-nos que és un déu
    amb qui podem viure.
  • 14:08 - 14:10
    Moltes gràcies.
  • 14:10 - 14:11
    (Aplaudiments)
  • 14:11 - 14:14
    Traduït per Marcos Morales Pallarés
Title:
Podem desenvolupar una IA sense perdre'n el control?
Speaker:
Sam Harris
Description:

Us fa por la IA superintel·ligent? "Us n'hauria de fer" és el que diu el neurocientífic i filòsof Sam Harris, i no només de forma teòrica. Estem en camí de construir màquines suprahumanes, diu en Harris, però en canvi encara no hem pensat en els problemes associats a crear quelcom que podria tractar-nos de la mateixa manera que nosaltres tractem a les formigues.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Catalan subtitles

Revisions