WEBVTT 00:00:01.000 --> 00:00:03.216 Tot seguit parlaré sobre una manca d'intuïció 00:00:03.240 --> 00:00:04.840 que molts de nosaltres patim. 00:00:05.480 --> 00:00:08.520 És una dificultat per detectar un tipus de perill específic. 00:00:09.360 --> 00:00:11.096 Imagineu-vos el següent escenari, 00:00:11.120 --> 00:00:14.376 que jo crec que és esgarrifós 00:00:14.400 --> 00:00:16.160 i alhora ben probable. 00:00:16.840 --> 00:00:18.496 Això no és pas una bona combinació 00:00:18.520 --> 00:00:20.056 pel que sembla. 00:00:20.080 --> 00:00:22.536 I enlloc d'espantar-vos, molts creureu 00:00:22.560 --> 00:00:24.640 que allò del que parlo és divertit. NOTE Paragraph 00:00:25.200 --> 00:00:28.176 M'agradaria explicar que els avenços que fem 00:00:28.200 --> 00:00:29.976 en intel·ligència artificial 00:00:30.000 --> 00:00:31.776 poden acabar destruint-nos. 00:00:31.800 --> 00:00:35.256 I de fet, crec que és ben difícil no veure com no ens poden destruir 00:00:35.280 --> 00:00:36.980 o fer que ens autodestruïm. 00:00:37.400 --> 00:00:39.256 Tot i així, si penseu com jo, 00:00:39.280 --> 00:00:41.936 veureu que és distret pensar en aquestes coses. 00:00:41.960 --> 00:00:45.336 I aquesta és la resposta que és part del problema. 00:00:45.360 --> 00:00:47.080 És la que hauria d'amoïnar-vos. 00:00:47.920 --> 00:00:50.576 I si us hagués de convèncer amb aquesta xerrada 00:00:50.600 --> 00:00:54.016 de que és ben possible que arribem a patir una fam mundial, 00:00:54.040 --> 00:00:57.096 ja sigui pel canvi climàtic o per qualsevol altra catàstrofe, 00:00:57.120 --> 00:01:00.536 i que els vostres néts, o els seus néts, 00:01:00.560 --> 00:01:02.360 probablement viuran així, 00:01:03.200 --> 00:01:04.400 no pensaríeu: 00:01:05.440 --> 00:01:06.776 "Interessant. 00:01:06.800 --> 00:01:08.580 M'agrada aquesta xerrada TED." NOTE Paragraph 00:01:09.200 --> 00:01:10.720 La fam no és divertida. 00:01:11.800 --> 00:01:15.176 La mort en la ciència ficció, en canvi, sí que ho és, 00:01:15.200 --> 00:01:19.176 i el que més em preocupa sobre el progrés de la IA ara mateix 00:01:19.200 --> 00:01:23.296 és que no sembla que siguem capaços de respondre com cal a nivell emocional 00:01:23.320 --> 00:01:25.136 als perills que ens esperen. 00:01:25.160 --> 00:01:28.360 No sóc capaç de respondre-hi i ara em trobo donant aquesta xerrada. NOTE Paragraph 00:01:30.120 --> 00:01:32.816 És com si ens trobéssim davant dues portes. 00:01:32.840 --> 00:01:34.096 Rera la porta número u, 00:01:34.120 --> 00:01:37.416 deixem de progressar i de construir màquines intel·ligents. 00:01:37.440 --> 00:01:41.456 El nostre maquinari i programari deixa de millorar per alguna raó. 00:01:41.480 --> 00:01:44.480 Penseu durant uns instants per què podria passar això. 00:01:45.080 --> 00:01:48.736 Vull dir, ja que la intel·ligència i la automatització són tan valuoses, 00:01:48.760 --> 00:01:52.280 seguirem millorant la tecnologia sempre que siguem sent capaços. 00:01:53.200 --> 00:01:54.867 Què podria impedir-nos-ho? 00:01:55.800 --> 00:01:57.810 Potser una guerra nuclear mundial? 00:01:59.000 --> 00:02:00.720 O una gran epidèmia? 00:02:02.320 --> 00:02:03.770 L'impacte d'un asteroide? 00:02:05.640 --> 00:02:08.216 Justin Bieber com president dels Estats Units? NOTE Paragraph 00:02:08.240 --> 00:02:10.520 (Riures) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 Alguna cosa hauria de destruir la civilització tal i com la coneixem. 00:02:17.360 --> 00:02:21.656 Imagineu-vos com de greu hauria de ser 00:02:21.680 --> 00:02:25.016 per impedir-nos seguir millorant la tecnologia 00:02:25.040 --> 00:02:26.256 de forma permanent, 00:02:26.280 --> 00:02:28.296 generació rera generació. 00:02:28.320 --> 00:02:30.456 Quasi per definició, es tracta del pitjor 00:02:30.480 --> 00:02:32.496 que podria arribar a patir la humanitat. NOTE Paragraph 00:02:32.520 --> 00:02:33.816 Però l'única alternativa, 00:02:33.840 --> 00:02:36.176 que es troba darrera la porta número dos, 00:02:36.200 --> 00:02:39.336 és seguir millorant la intel·ligència de les màquines 00:02:39.360 --> 00:02:40.960 any rere any. 00:02:41.720 --> 00:02:45.360 En algun moment, construirem màquines més intel·ligents que nosaltres, 00:02:46.080 --> 00:02:48.696 i un cop les màquines ens superin, 00:02:48.720 --> 00:02:50.696 es milloraran a elles mateixes. 00:02:50.720 --> 00:02:53.456 I el que el matemàtic IJ Good anomenava com 00:02:53.480 --> 00:02:55.256 "l'explosió de la intel·ligència", 00:02:55.280 --> 00:02:58.090 pot succeir fent que les màquines ens superin amb escreix. NOTE Paragraph 00:02:58.120 --> 00:03:00.936 Aquest fet sovint es representa com jo ho he fet aquí, 00:03:00.960 --> 00:03:04.176 imaginant que exèrcits de robots malèvols 00:03:04.200 --> 00:03:05.456 ens ataquen. 00:03:05.480 --> 00:03:08.176 Però aquest no és l'escenari més probable. 00:03:08.200 --> 00:03:13.056 No crec que les màquines de cop i volta es tornin malèfiques. 00:03:13.080 --> 00:03:15.696 Em preocupa més que arribem a construir màquines 00:03:15.720 --> 00:03:17.776 que són molt més competents que nosaltres 00:03:17.800 --> 00:03:21.576 i que la més subtil de les divergències entre els seus objectius i els nostres 00:03:21.600 --> 00:03:23.390 puguin arribar a destruir-nos. NOTE Paragraph 00:03:23.960 --> 00:03:26.310 Penseu només en com tractem a les formigues. 00:03:26.600 --> 00:03:28.256 No les odiem pas. 00:03:28.280 --> 00:03:30.336 No sortim del camí per fer-les-hi mal. 00:03:30.360 --> 00:03:32.736 Fins i tot patim mals de cap per no esclafar-les 00:03:32.760 --> 00:03:34.776 i les saltem quan caminem per la vorera. 00:03:34.800 --> 00:03:36.936 Però quan la seva presència 00:03:36.960 --> 00:03:39.456 entra en conflicte amb els nostres objectius, 00:03:39.480 --> 00:03:41.957 per exemple si volem construir un edifici, 00:03:41.981 --> 00:03:43.941 les exterminem sense cap prejudici. 00:03:44.480 --> 00:03:47.416 El que em preocupa és que un dia construirem màquines 00:03:47.440 --> 00:03:50.176 que tant si són conscients com si no ho són, 00:03:50.200 --> 00:03:52.200 podrien arribar a menysprear-nos així. NOTE Paragraph 00:03:53.760 --> 00:03:56.520 Crec que això queda molt lluny per molts de vosaltres. 00:03:57.360 --> 00:04:03.696 Inclús crec que molts de vosaltres dubteu que la superintel·ligència sigui possible, 00:04:03.720 --> 00:04:05.376 i menys encara inevitable. 00:04:05.400 --> 00:04:09.300 Però en aquest cas heu de trobar quelcom erroni en una d'aquestes suposicions: 00:04:09.330 --> 00:04:10.966 I només n'hi ha tres: NOTE Paragraph 00:04:11.800 --> 00:04:16.519 La intel·ligència consisteix en processar informació en sistemes físics. 00:04:17.320 --> 00:04:19.935 De fet, això és quelcom més que una suposició. 00:04:19.959 --> 00:04:23.416 Ja hem incorporat petites intel·ligències en les nostres màquines, 00:04:23.440 --> 00:04:25.716 i moltes d'elles tenen un rendiment superior 00:04:25.716 --> 00:04:28.310 a un nivell d'intel·ligència suprahumana. 00:04:28.840 --> 00:04:31.416 I ja sabem que la mera matèria 00:04:31.440 --> 00:04:34.056 pot donar lloc a la "intel·ligència general", 00:04:34.080 --> 00:04:37.736 és a dir l'habilitat de pensar amb flexibilitat en diversos camps. 00:04:37.760 --> 00:04:40.896 Al cap i a la fi els nostres cervells ho han aconseguit, cert? 00:04:40.920 --> 00:04:44.856 És a dir, només hi ha àtoms aquí, 00:04:44.880 --> 00:04:49.376 i sempre i quan seguim construint sistemes a base d'àtoms 00:04:49.400 --> 00:04:52.096 que es comporten de forma cada cop més intel·ligent, 00:04:52.120 --> 00:04:54.656 en algun moment, si res no ho impedeix, 00:04:54.680 --> 00:04:58.056 en algun moment construirem intel·ligència artificial 00:04:58.080 --> 00:04:59.376 en les nostres màquines. NOTE Paragraph 00:04:59.400 --> 00:05:03.056 És de vital importància adonar-se'n que el ritme de progrés no importa, 00:05:03.080 --> 00:05:06.256 perquè qualsevol progrés ens acabarà portant a l'altre extrem. 00:05:06.280 --> 00:05:10.056 No ens cal la llei de Moore per continuar. No ens cal un progrés exponencial. 00:05:10.080 --> 00:05:11.680 Només ens cal seguir avançant. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 La segona suposició és que seguirem avançant. 00:05:17.000 --> 00:05:19.760 Seguirem millorant les màquines intel·ligents. 00:05:21.000 --> 00:05:25.376 I donat el valor que té la intel·ligència, 00:05:25.400 --> 00:05:28.936 és a dir, ja que la intel·ligència és la font de tot el que valorem 00:05:28.960 --> 00:05:31.736 i la necessitem per salvaguardar tot el que ens importa. 00:05:31.760 --> 00:05:34.016 És el recurs més valuós de que disposem. 00:05:34.040 --> 00:05:35.576 Així doncs, volem que avanci. 00:05:35.600 --> 00:05:38.936 Tenim problemes que hem de solucionar desesperadament. 00:05:38.960 --> 00:05:42.160 Volem guarir malalties com l'Alzheimer i el càncer. 00:05:42.960 --> 00:05:46.896 Volem entendre sistemes econòmics. Volem millorar la ciència del clima. 00:05:46.920 --> 00:05:49.176 Així doncs ho farem si podem. 00:05:49.200 --> 00:05:52.486 El tren ja ha sortit de l'estació i no hi ha manera de que pari. NOTE Paragraph 00:05:53.880 --> 00:05:59.336 I per últim, no ens trobem al cim de la nostra intel·ligència, 00:05:59.360 --> 00:06:01.160 o en qualsevol punt que s'hi acosti. 00:06:01.640 --> 00:06:03.536 I això és la clau de la qüestió. 00:06:03.560 --> 00:06:06.346 És el que fa que la nostra situació sigui tan precària, 00:06:06.346 --> 00:06:10.520 i és el que fa que les nostres intuïcions sobre aquest risc siguin tan poc fiables. NOTE Paragraph 00:06:11.120 --> 00:06:14.320 Penseu en la persona més intel·ligent que mai ha viscut. 00:06:14.640 --> 00:06:18.056 Molts de vosaltres haureu considerat a en John von Neumann. 00:06:18.080 --> 00:06:21.416 La impressió que va causar en von Neumann al seu voltant, 00:06:21.440 --> 00:06:25.496 i això inclou als més grans matemàtics i físics de la seva època, 00:06:25.520 --> 00:06:27.456 està ben documentada. 00:06:27.480 --> 00:06:31.256 Si només la meitat de les històries sobre ell són certes, 00:06:31.280 --> 00:06:32.496 no hi ha cap dubte 00:06:32.520 --> 00:06:34.976 que és una de les persones més brillants. 00:06:35.000 --> 00:06:37.520 Considerem l'espectre d'intel·ligència. 00:06:38.320 --> 00:06:39.749 Tenim en John von Neumann. 00:06:41.560 --> 00:06:42.894 I aquí estem nosaltres. 00:06:44.120 --> 00:06:45.416 I aquí un pollastre. NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (Riures) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 Perdó, un pollastre. NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (Riures) NOTE Paragraph 00:06:49.920 --> 00:06:53.896 No hi ha cap necessitat de fer aquesta xerrada més depriment del que pot ser. NOTE Paragraph 00:06:53.896 --> 00:06:55.280 (Riures) NOTE Paragraph 00:06:56.339 --> 00:06:59.816 Sembla que està ben clar que l'espectre de la intel·ligència 00:06:59.840 --> 00:07:02.960 s'estén molt més enllà del que considerem actualment, 00:07:03.880 --> 00:07:07.096 i si construïm màquines que són més intel·ligents que nosaltres, 00:07:07.120 --> 00:07:09.416 molt probablement exploraran aquest espectre 00:07:09.440 --> 00:07:11.296 de maneres que no podem imaginar, 00:07:11.320 --> 00:07:13.840 i ens superaran de maneres que tampoc podem imaginar. NOTE Paragraph 00:07:15.000 --> 00:07:19.336 I hem de reconèixer que això és així només en base a la velocitat. 00:07:19.360 --> 00:07:24.416 D'acord? Doncs imagineu que hem construit una IA superintel·ligent 00:07:24.440 --> 00:07:27.896 que no és més brillant que la majoria d'equips de recerca 00:07:27.920 --> 00:07:30.216 de Stanford o del MIT. 00:07:30.240 --> 00:07:33.216 Els circuits electrònics són un milió de vegades més ràpids 00:07:33.240 --> 00:07:34.496 que les ones bioquímiques, 00:07:34.520 --> 00:07:37.656 així, aquesta màquina pensaria un milió de cops més depressa 00:07:37.680 --> 00:07:39.496 que les ments que l'han dissenyat. 00:07:39.520 --> 00:07:41.176 Si la deixem encesa una setmana 00:07:41.200 --> 00:07:45.760 haurà complert 20.000 anys de feina intel·lectual a nivell humà, 00:07:46.400 --> 00:07:48.360 setmana rere setmana rere setmana. 00:07:49.640 --> 00:07:52.736 Com podem arribar a comprendre, i menys encara limitar, 00:07:52.760 --> 00:07:55.040 una ment que progressa així? NOTE Paragraph 00:07:56.840 --> 00:07:58.976 L'altra cosa que em preocupa, sent honestos, 00:07:59.000 --> 00:08:03.976 es que... imagineu-vos el millor escenari possible. 00:08:04.000 --> 00:08:08.176 Imagineu que tombem amb un disseny de IA superintel·ligent 00:08:08.200 --> 00:08:09.826 sense problemes de seguretat. 00:08:09.826 --> 00:08:12.856 És el primer cop que aconseguim el disseny perfecte. 00:08:12.880 --> 00:08:15.096 És com si ens hagués arribat un oracle 00:08:15.120 --> 00:08:17.136 que es comporta tal i com preteníem. 00:08:17.160 --> 00:08:20.880 Doncs bé, aquesta màquina seria l'eina perfecta per reduir-nos feina. 00:08:21.530 --> 00:08:24.309 Podria dissenyar màquines que podrien construir màquines 00:08:24.309 --> 00:08:25.896 per fer qualsevol feina física, 00:08:25.920 --> 00:08:27.376 alimentades per energia solar, 00:08:27.400 --> 00:08:30.096 i més o menys pel que costa la matèria prima. 00:08:30.120 --> 00:08:33.376 Estem parlant de la fi de les feines feixugues. 00:08:33.400 --> 00:08:36.200 També seria la fi de la majoria de feines intel·lectuals. NOTE Paragraph 00:08:37.200 --> 00:08:40.256 Què farien uns simis com nosaltres en aquestes circumstàncies? 00:08:40.280 --> 00:08:44.830 Tindríem temps per jugar al disc volador i de fer-nos massatges els uns als altres. 00:08:45.840 --> 00:08:48.696 Afegiu una mica de LSD i un vestuari de gust qüestionable 00:08:48.720 --> 00:08:50.896 i el món sencer podria ser com el Burning Man. NOTE Paragraph 00:08:50.920 --> 00:08:52.560 (Riures) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 Tot això pot sonar força atractiu, 00:08:57.280 --> 00:08:59.656 però penseu que passaria 00:08:59.680 --> 00:09:02.416 si succeís sota l'ordre econòmic i polític actual? 00:09:02.440 --> 00:09:04.856 És ben probable que experimentéssim 00:09:04.880 --> 00:09:09.016 una desigualtat econòmica i un nivell d'atur 00:09:09.040 --> 00:09:10.536 que mai havíem experimentat. 00:09:10.560 --> 00:09:13.176 I si no hi ha la voluntat de posar tota aquesta riquesa 00:09:13.200 --> 00:09:14.680 al servei de la humanitat, 00:09:15.640 --> 00:09:19.256 uns quants bilionaris arribarien a les portades de les revistes 00:09:19.280 --> 00:09:21.720 mentre la resta ens moriríem de gana. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 I què farien els russos o els xinesos 00:09:24.640 --> 00:09:27.256 si sapiguessin que una empresa de Silicon Valley 00:09:27.280 --> 00:09:30.016 estigués a punt d'aconseguir una IA superintel·ligent? 00:09:30.040 --> 00:09:32.896 Aquesta màquina estaria preparada per entrar en guerra, 00:09:32.920 --> 00:09:35.136 ja sigui per terra o cibernètica, 00:09:35.160 --> 00:09:36.840 amb un poder sense precedents. 00:09:38.120 --> 00:09:39.976 I aquí el guanyador s'ho emporta tot. 00:09:40.000 --> 00:09:43.136 Aquí, trobar-se sis mesos al capdavant de la competició 00:09:43.160 --> 00:09:45.936 vol dir trobar-se 500.000 anys al davant 00:09:45.960 --> 00:09:47.456 com a mínim. 00:09:47.480 --> 00:09:52.216 Només que hi hagi un rumor sobre algun descobriment d'aquest tipus 00:09:52.240 --> 00:09:54.616 pot fer que la nostra espècie embogeixi. NOTE Paragraph 00:09:54.640 --> 00:09:57.536 Ara bé, una de les coses més paoroses, 00:09:57.560 --> 00:10:00.336 segons el meu punt de vista, ara per ara, 00:10:00.360 --> 00:10:04.656 són el tipus de coses que els investigadors en IA diuen 00:10:04.680 --> 00:10:06.240 quan volen tranquil·litzar-nos. 00:10:07.000 --> 00:10:10.456 I la principal raó que ens donen per no preocupar-no és el temps. 00:10:10.480 --> 00:10:12.536 "Això encara està lluny, no ho sabíeu?" 00:10:12.560 --> 00:10:15.000 "Probablement encara queden uns 50 o 100 anys." 00:10:15.720 --> 00:10:16.976 Un investigador va dir: 00:10:17.000 --> 00:10:18.576 "Preocuparse per una IA insegura 00:10:18.600 --> 00:10:21.440 és com preocupar-se per la sobre-població a Mart." 00:10:22.116 --> 00:10:23.736 Això és la versió de Silicon Valley 00:10:23.760 --> 00:10:26.136 de "no et preocupis, nena!" NOTE Paragraph 00:10:26.160 --> 00:10:27.496 (Riures) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 Ningú sembla adonar-se'n 00:10:29.440 --> 00:10:32.056 que basar-se en un horitzó cronològic 00:10:32.080 --> 00:10:34.656 és un 'non sequitur' absolut. 00:10:34.680 --> 00:10:37.936 Si la intel·ligència consisteix simplement en processar informació, 00:10:37.960 --> 00:10:40.616 i seguim perfeccionant les màquines, 00:10:40.640 --> 00:10:43.520 acabarem per generar alguna forma de superintel·ligència. 00:10:44.320 --> 00:10:47.976 I no tenim ni idea de quant de temps ens portarà 00:10:48.000 --> 00:10:50.400 crear les condicions per fer-ho de forma segura. 00:10:52.200 --> 00:10:53.496 Deixeu-me que ho repeteixi. 00:10:53.520 --> 00:10:57.336 No tenim ni idea de quant de temps ens portarà 00:10:57.360 --> 00:10:59.600 crear les condicions per fer-ho de forma segura. NOTE Paragraph 00:11:00.920 --> 00:11:04.376 I per si no us n'heu adonat, 50 anys no són el que eren abans. 00:11:04.400 --> 00:11:06.856 Això són 50 anys en mesos. 00:11:06.880 --> 00:11:09.350 Això són els mesos que hem tingut l'iPhone. 00:11:09.440 --> 00:11:12.640 Això són els mesos que "Els Simpsons" han estat en pantalla. 00:11:12.680 --> 00:11:15.056 Cinquanta anys no és gaire temps 00:11:15.080 --> 00:11:18.240 per assolir un dels grans reptes de la nostra espècie. 00:11:19.640 --> 00:11:23.656 Torno a dir, sembla que no estem reaccionant com cal a nivell emocional 00:11:23.680 --> 00:11:26.376 envers allò que cada cop n'estem més segurs que arribarà. NOTE Paragraph 00:11:26.400 --> 00:11:30.376 El científic informàtic Stuart Russell fa una bonica analogia. 00:11:30.400 --> 00:11:35.296 Va dir que imaginéssim que havíem rebut un missatge d'una civilització alienígena, 00:11:35.320 --> 00:11:37.016 que deia: 00:11:37.040 --> 00:11:38.576 "Gent de la Terra, 00:11:38.600 --> 00:11:40.960 arribarem al vostre planeta d'aquí 50 anys. 00:11:41.800 --> 00:11:43.376 Prepareu-vos." 00:11:43.400 --> 00:11:47.656 I llavors comencem a comptar els mesos que queden abans que arribin. 00:11:47.680 --> 00:11:50.680 Segurament sentiríem una mica més de pressió que ara. NOTE Paragraph 00:11:52.480 --> 00:11:54.666 Una altra raó que donen per no preocupar-nos 00:11:54.666 --> 00:11:57.576 és que les màquines només podran compartir els nostres valors 00:11:57.600 --> 00:12:00.216 perquè seran literalment extensions de nosaltres. 00:12:00.240 --> 00:12:02.256 Seran uns empelts en els nostres cervells, 00:12:02.256 --> 00:12:04.710 i esdevindrem els seus sistemes límbics. 00:12:05.120 --> 00:12:06.536 Considereu per un moment 00:12:06.560 --> 00:12:09.736 que la forma més segura i més prudent de seguir avançant, 00:12:09.760 --> 00:12:11.096 la forma més recomanada, 00:12:11.120 --> 00:12:13.920 és implantar-los en els nostres cervells directament. 00:12:14.600 --> 00:12:17.976 És possible que sigui l'única manera segura i prudent de continuar, 00:12:18.000 --> 00:12:21.056 tot i que normalment si una tecnologia ens preocupa una micona 00:12:21.080 --> 00:12:25.236 primer cal que estigui lliure d'errors si després ens la volem enganxar al cap. NOTE Paragraph 00:12:25.236 --> 00:12:26.776 (Riures) NOTE Paragraph 00:12:26.800 --> 00:12:32.136 El problema de fons és que desenvolupar una IA superintel·ligent per si mateixa 00:12:32.160 --> 00:12:33.896 sembla ser més fàcil 00:12:33.920 --> 00:12:35.776 que construir una IA superintel·ligent 00:12:35.800 --> 00:12:37.576 i tenir alhora la neurociència llesta 00:12:37.600 --> 00:12:40.280 per permetre'ns connectar-hi la ment sense interrupcions. 00:12:40.800 --> 00:12:43.976 I donat que les empreses i els governs que estan fent aquesta feina 00:12:44.000 --> 00:12:47.656 és probable que es considerin en una cursa contra la resta, 00:12:47.680 --> 00:12:50.936 i donat que guanyar la cursa és guanyar el món, 00:12:50.960 --> 00:12:53.416 sempre i quan no se'l destrueixi tot seguit, 00:12:53.440 --> 00:12:56.256 aleshores és probable que allò que sembli més fàcil de fer 00:12:56.286 --> 00:12:57.620 sigui el que primer es faci. NOTE Paragraph 00:12:58.560 --> 00:13:01.416 Malauradament, no tinc cap solució a aquest problema, 00:13:01.440 --> 00:13:04.056 apart de recomanar que tots hauríem de pensar-hi més. 00:13:04.080 --> 00:13:06.456 Crec que necessitem una mena de projecte Manhattan 00:13:06.480 --> 00:13:08.496 però per la intel·ligència artificial. 00:13:08.520 --> 00:13:11.256 No per desenvolupar-la, ja que és inevitable, 00:13:11.280 --> 00:13:14.616 sinó per comprendre com podem evitar una cursa armementística 00:13:14.640 --> 00:13:18.136 i per desenvolupar-la de manera que vagi de la mà dels nostres interessos. 00:13:18.160 --> 00:13:20.296 Quan parlem d'una IA superintel·ligent 00:13:20.320 --> 00:13:22.576 que es pot canviar a si mateixa, 00:13:22.600 --> 00:13:27.216 sembla que només tenim una oportunitat per crear les bones condicions inicials, 00:13:27.240 --> 00:13:29.296 però inclús així haurem d'absorbir 00:13:29.320 --> 00:13:33.200 les conseqüències econòmiques i polítiques d'haver-les establert correctament. NOTE Paragraph 00:13:33.760 --> 00:13:35.816 Però en el moment que admetem 00:13:35.840 --> 00:13:39.840 que el processat d'informació és l'origen de la intel·ligència, 00:13:40.720 --> 00:13:45.520 que un sistema de computació apropiat és la base de tota intel·ligència, 00:13:46.360 --> 00:13:50.120 i que seguirem millorant aquests sistemes indefinidament, 00:13:51.280 --> 00:13:55.736 i admetem que l'horitzó de la cognició molt probablement excedeix 00:13:55.760 --> 00:13:56.960 el que sabem fins ara, 00:13:58.120 --> 00:13:59.336 aleshores podrem admetre 00:13:59.360 --> 00:14:02.000 que estem en un procés de crear una mena de déu. 00:14:03.400 --> 00:14:04.976 Ara és el moment 00:14:05.000 --> 00:14:07.623 d'assegurar-nos que és un déu amb qui podem viure. NOTE Paragraph 00:14:08.120 --> 00:14:09.656 Moltes gràcies. 00:14:09.680 --> 00:14:11.303 (Aplaudiments) 00:14:11.333 --> 00:14:13.773 Traduït per Marcos Morales Pallarés