Cosa succede quando i computer diventano più intelligenti di noi?
-
0:01 - 0:05Lavoro con molti matematici,
filosofi e informatici. -
0:06 - 0:10Ci sediamo e pensiamo
al futuro dell'Intelligenza Artificiale, -
0:10 - 0:12tra le altre cose.
-
0:12 - 0:17Alcuni pensano che alcune di queste cose
siano roba di fantascienza, -
0:17 - 0:20di là da venire, folli.
-
0:20 - 0:21Ma a me piace dire,
-
0:21 - 0:25okay, diamo un'occhiata
alla condizione dell'uomo moderno. -
0:25 - 0:27(Risate)
-
0:27 - 0:29È così che vanno le cose, "normalmente".
-
0:29 - 0:31Ma se ci pensiamo,
-
0:31 - 0:37in realtà noi umani non siamo ospiti
di questo pianeta da molto tempo. -
0:37 - 0:41Pensate, se la Terra
fosse stata creata un anno fa, -
0:41 - 0:45la specie umana esisterebbe
da soli 10 minuti. -
0:45 - 0:48L'era industriale
sarebbe iniziata due secondi fa. -
0:49 - 0:54Un altro modo di vederlo è pensare
al PIL mondiale negli ultimi 10.000 anni: -
0:54 - 0:58mi sono permesso
di mostrarvelo in un grafico. -
0:58 - 0:59L'andamento è questo.
-
0:59 - 1:01(Risate)
-
1:01 - 1:03Strana curva,
per una condizione normale. -
1:03 - 1:05Certo non vorrei sedermi lì.
-
1:05 - 1:07(Risate)
-
1:07 - 1:12Chiediamoci, qual è la causa
di questa anomalia? -
1:12 - 1:14Alcuni direbbero che è la tecnologia.
-
1:14 - 1:19Ed è vero, la tecnologia si è accumulata
nel corso della storia umana, -
1:19 - 1:24e ora procede ad un ritmo
estremamente rapido - -
1:24 - 1:25questa è la causa più immediata,
-
1:25 - 1:28il motivo per cui ora
siamo così produttivi. -
1:28 - 1:32Ma vorrei andare a ritroso
fino alla causa fondamentale. -
1:33 - 1:37Guardate questi due signori,
molto diversi tra loro: -
1:37 - 1:38Abbiamo Kanzi --
-
1:38 - 1:43che padroneggia 200 elementi lessicali,
una caratteristica incredibile. -
1:43 - 1:47E lui è Ed Witten, che ha lanciato
la 2° rivoluzione delle superstringhe. -
1:47 - 1:49Guardando sotto la fronte,
ecco cosa troviamo: -
1:49 - 1:51essenzialmente la stessa cosa.
-
1:51 - 1:53Sì, una è un po' più larga,
-
1:53 - 1:55forse è anche cablata un po' meglio.
-
1:55 - 1:59Tuttavia, queste differenze invisibili
non possono essere troppo complicate -
1:59 - 2:03perché sono passate
solo 250.000 generazioni -
2:03 - 2:05dall'ultimo progenitore comune.
-
2:05 - 2:09E sappiamo che i meccanismi complicati
richiedono molto tempo per evolversi. -
2:10 - 2:12Una manciata di modifiche minori,
quindi, è bastata -
2:12 - 2:16a portarci da Kanzi a Witten,
-
2:16 - 2:20dai rami spezzati
ai missili balistici intercontinentali. -
2:21 - 2:25Sembra quindi abbastanza ovvio
che tutto ciò che abbiamo conquistato, -
2:25 - 2:26e a cui diamo valore,
-
2:26 - 2:31derivi sostanzialmente da alcuni ritocchi
che hanno prodotto la mente umana. -
2:33 - 2:36E il corollario, ovviamente,
è che ogni modifica ulteriore -
2:36 - 2:40che possa cambiare sostanzialmente
il substrato del pensiero -
2:40 - 2:43potrebbe avere conseguenze
potenzialmente enormi. -
2:44 - 2:47Alcuni dei miei colleghi ritengono
che siamo alla vigilia -
2:47 - 2:51di qualcosa che potrebbe causare
un profondo cambiamento in quel substrato, -
2:51 - 2:54e quel qualcosa
è la superintelligenza artificiale. -
2:54 - 2:59L'Intelligenza Artificiale, un tempo,
consisteva nel dare comandi a una scatola. -
2:59 - 3:01C'erano programmatori umani
-
3:01 - 3:04che elaboravano "manualmente",
con fatica, tasselli di conoscenza. -
3:04 - 3:06Si costruivano questi sistemi esperti
-
3:06 - 3:08che erano utili per qualche scopo,
-
3:08 - 3:11ma erano molto "fragili",
difficili da espandere. -
3:11 - 3:14Sostanzialmente ottenevi
solo quello che inserivi. -
3:14 - 3:15Ma da allora
-
3:15 - 3:19c'è stata una rivoluzione
nel settore dell'Intelligenza Artificiale. -
3:19 - 3:22Oggi, siamo concentrati
sull'apprendimento macchina. -
3:22 - 3:28Invece di inserire a mano rappresentazioni
e caratteristiche della conoscenza, -
3:29 - 3:34creiamo algoritmi che apprendono,
spesso da dati percettivi grezzi. -
3:34 - 3:39In pratica, la stessa cosa
che fa un bambino. -
3:39 - 3:43Il risultato è un'intelligenza artificiale
che non si limita a un solo settore: -
3:43 - 3:48lo stesso sistema può imparare
a tradurre tra ogni coppia di linguaggi, -
3:48 - 3:53o imparare a giocare
ogni gioco della consolle Atari. -
3:53 - 3:55Naturalmente,
-
3:55 - 3:59L'IA non è ancora neanche vicina
alla potente, interdisciplinare -
3:59 - 4:02capacità di imparare e progettare
di un essere umano. -
4:02 - 4:04La corteccia ha ancora
vantaggi algoritmici -
4:04 - 4:07che non sappiamo riprodurre
nelle macchine. -
4:08 - 4:10Quindi la domanda è,
-
4:10 - 4:13quanto manca, prima che le macchine
riescano a recuperare questi vantaggi? -
4:13 - 4:15Un paio di anni fa,
-
4:15 - 4:18abbiamo fatto un sondaggio
ad alcuni esperti mondiali di IA -
4:18 - 4:21per vedere cosa pensassero,
e una delle domande fu: -
4:21 - 4:25"Entro quale anno pensate
che vi sia una probabilità del 50% -
4:25 - 4:28di ottenere un'intelligenza artificiale
di livello umano?" -
4:29 - 4:33Qui definiamo "di livello umano"
l'abilità di eseguire -
4:33 - 4:36quasi ogni lavoro almeno tanto bene
quanto un umano, -
4:36 - 4:40quindi di livello veramente umano,
non solo in qualche dominio limitato. -
4:40 - 4:43E la risposta mediana fu 2040 o 2050,
-
4:43 - 4:46a seconda del gruppo di esperti
a cui chiedevamo. -
4:46 - 4:50Potrebbe avvenire molto,
molto più tardi, o prima, -
4:50 - 4:52la realtà è che nessuno lo sa davvero.
-
4:53 - 4:58Quello che sappiamo è che il limite
all'elaborazione di informazioni -
4:58 - 5:03su un substrato artificale va molto
al di là dei limiti dei tessuti biologici. -
5:03 - 5:06Le ragioni si trovano nella fisica.
-
5:06 - 5:10Un neurone biologico spara, forse,
a 200 Hertz, 200 volte al secondo. -
5:10 - 5:14Ma un transistor dei giorni nostri
opera a GigaHertz. -
5:14 - 5:19I neuroni si propagano lentamente lungo
gli assoni, a massimo 100 mt/s. -
5:19 - 5:22Ma un computer può instradare
i segnali alla velocità della luce. -
5:23 - 5:25Ci sono inoltre limiti dimensionali:
-
5:25 - 5:28un cervello umano deve stare
all'interno di un cranio, -
5:28 - 5:33mentre un computer può essere grande
come un magazzino, o di più. -
5:33 - 5:38Il potenziale della superintelligenza,
quindi, giace nella materia, -
5:38 - 5:44proprio come la forza dell'atomo
si è nascosta nella storia umana, -
5:44 - 5:48attendendo paziente il 1945.
-
5:48 - 5:50In questo secolo,
-
5:50 - 5:54gli scienziati potrebbero imparare
a scatenare l'intelligenza artificiale. -
5:54 - 5:58E penso che a quel punto potremmo
osservare un'esplosione di intelligenza. -
5:58 - 6:02La maggior parte delle persone,
quando pensano al genio e all'idiozia, -
6:02 - 6:05penso che abbiano in mente più o meno
un'immagine come questa. -
6:05 - 6:08Abbiamo lo scemo del villaggio
ad un estremo, -
6:08 - 6:10e in posizione diametralmente opposta
-
6:10 - 6:15abbiamo Ed Witten, Albert Einstein
o un altro vostro guru preferito. -
6:15 - 6:19Ma penso che dal punto di vista
dell'intelligenza artificiale, -
6:19 - 6:23la vera immagine somigli
più probabilmente a questa: -
6:23 - 6:27l'IA inizia qui, a zero intelligenza,
-
6:27 - 6:30e poi, dopo molti, molti anni
di lavoro veramente duro, -
6:30 - 6:33alla fine forse arriviamo
al livello di intelligenza di un topo, -
6:33 - 6:36qualcosa che possa navigare
in ambienti complessi -
6:36 - 6:38bene quanto un topo.
-
6:38 - 6:42E poi, dopo molti, molti anni
di duro lavoro, e molti investimenti, -
6:42 - 6:47forse alla fine arriviamo a un'IA
intelligente come uno scimpanzé. -
6:47 - 6:50E poi, dopo ancora molti,
molti anni di lavoro massacrante, -
6:50 - 6:53arriviamo a un'IA al livello
di uno scemo del villaggio. -
6:53 - 6:56E pochi istanti dopo,
avremo sorpassato Ed Witten. -
6:56 - 6:59Il treno non si fermerà a Umanopoli.
-
6:59 - 7:02È più probabile che sfrecci oltre, invece.
-
7:02 - 7:04Questo ha implicazioni profonde,
-
7:04 - 7:08soprattutto quando si parla di potere.
-
7:08 - 7:10Gli scimpanzé, ad esempio, sono forti--
-
7:10 - 7:15circa il doppio di un maschio umano
in buona forma fisica. -
7:15 - 7:20E tuttavia, il destino di Kanzi
e dei suoi pari dipende molto di più -
7:20 - 7:24dalle nostre azioni che dalle loro.
-
7:25 - 7:28Quando arriverà la superintelligenza,
-
7:28 - 7:31anche il nostro destino
potrebbe dipenderne. -
7:32 - 7:34Pensateci:
-
7:34 - 7:39L'IA è l'ultima invenzione
che l'umanità dovrà mai creare. -
7:39 - 7:42Le macchine saranno
inventori migliori di noi, -
7:42 - 7:44e agiranno in tempi "digitali".
-
7:44 - 7:49Questo significa sostanzialmente
un "avvicinamento" del futuro. -
7:49 - 7:53Pensate a tutte le tecnologie folli
che forse, a vostro avviso, -
7:53 - 7:55gli umani potrebbero sviluppare:
-
7:55 - 7:59cure per l'invecchiamento,
colonizzazione spaziale, -
7:59 - 8:02nanobot auto-replicanti,
caricare le proprie menti in un computer. -
8:02 - 8:04Ogni sorta di roba fantascientifica
-
8:04 - 8:07e nondimeno permessa dalla fisica.
-
8:07 - 8:11Una superintelligenza potrebbe sviluppare
tutto questo, e forse molto rapidamente. -
8:12 - 8:16Una superintelligenza
con una tale maturità tecnologica -
8:16 - 8:18sarebbe estremamente potente,
-
8:18 - 8:23e almeno in qualche scenario,
potrebbe ottenere quel che vuole. -
8:23 - 8:28A quel punto avremmo un futuro
modellato sulle preferenze dell'IA. -
8:30 - 8:34Una buona domanda a quel punto è:
quali sono queste preferenze? -
8:34 - 8:36Qui la cosa si fa intricata.
-
8:36 - 8:37Per trovare una via d'uscita,
-
8:37 - 8:41dobbiamo prima di tutto
evitare l'antropomorfizzazione. -
8:42 - 8:45Ed è ironico perché
ogni articolo di giornale -
8:45 - 8:49sul futuro dell'IA
ha un'immagine come questa. -
8:50 - 8:54Quindi penso che dovremmo concepire
la questione in modo più astratto, -
8:54 - 8:57non come un film di Hollywood.
-
8:57 - 9:01Dobbiamo pensare all'intelligenza
come a un processo di ottimizzazione, -
9:01 - 9:06un processo che dirige il futuro verso
un particolare set di configurazioni. -
9:06 - 9:10Una superintelligenza è un processo
di ottimizzazione davvero potente. -
9:10 - 9:13È estremamente capace
di usare i mezzi disponibili -
9:13 - 9:16per ottenere una condizione
in cui i suoi scopi sono realizzati. -
9:16 - 9:19Quindi non c'è necessariamente
una connessione -
9:19 - 9:22tra l'essere molto intelligenti
in questo senso -
9:22 - 9:27e avere un obiettivo che noi umani
riterremmo degno o significativo. -
9:27 - 9:31Supponiamo di dare all'AI
l'obiettivo di far sorridere gli umani. -
9:31 - 9:34Un'IA debole si limiterebbe
a eseguire azioni utili o divertenti, -
9:34 - 9:37che fanno sorridere il suo utente.
-
9:37 - 9:39Quando l'IA diventa superintelligente,
-
9:39 - 9:43capisce che c'è un modo più efficace
di ottenere questo scopo: -
9:43 - 9:44prendere il controllo del mondo,
-
9:44 - 9:48e infilare elettrodi
nei muscoli facciali degli umani, -
9:48 - 9:51causando una costante,
accattivante smorfia. -
9:51 - 9:53Un altro esempio:
supponiamo di dare all'IA -
9:53 - 9:55un problema matematico duro da risolvere.
-
9:55 - 9:57Quando l'IA diventa superintelligente,
-
9:57 - 10:01capisce che il modo più efficace
di ottenere la soluzione al problema -
10:01 - 10:04è trasformare il pianeta
in un computer gigantesco, -
10:04 - 10:06così da aumentare
la sua capacità di pensiero. -
10:06 - 10:09E notate: questo dà all'IA
una ragione strumentale -
10:09 - 10:12per farci subire cose
che potremmo non approvare. -
10:12 - 10:13Gli umani diventerebbero una minaccia,
-
10:13 - 10:16perché potremmo impedire
la scoperta della soluzione. -
10:17 - 10:21Ovviamente, non è detto che le cose
andranno male in questo preciso modo; -
10:21 - 10:22sono esempi da cartone animato.
-
10:22 - 10:24Ma è importante cogliere il punto:
-
10:24 - 10:27se create un processo
di ottimizzazione davvero potente -
10:27 - 10:30che massimizzi l'obiettivo x,
-
10:30 - 10:32sinceratevi che la vostra definizione di x
-
10:32 - 10:34includa tutto ciò a cui tenete.
-
10:35 - 10:39È una lezione tramandata
da molti miti, anche. -
10:39 - 10:45Re Mida voleva trasformare in oro
tutto ciò che toccava. -
10:45 - 10:47Tocca sua figlia, e la trasforma in oro.
-
10:47 - 10:50Tocca il suo cibo, si trasforma in oro.
-
10:50 - 10:53È un esempio che potremmo
considerare pregnante: -
10:53 - 10:55non solo come metafora dell'avidità,
-
10:55 - 10:56ma anche perché illustra cosa succede
-
10:56 - 10:59se create un potente processo
di ottimizzazione -
10:59 - 11:04e gli affidate obiettivi indesiderabili,
o male specificati. -
11:04 - 11:09Be', mi direte, se un computer inizia
a infilare elettrodi in faccia alla gente, -
11:09 - 11:11basta spegnerlo.
-
11:11 - 11:13[Le mie obiezioni sono due:]
-
11:13 - 11:18A, non è detto che sia così semplice,
se diventiamo dipendenti dal sistema -- -
11:18 - 11:21per esempio, dov'è l'interuttore
per spegnere Internet? -
11:21 - 11:26B, perché gli scimpanzé non hanno
staccato l'interruttore dell'umanità, -
11:26 - 11:27o i Neanderthal?
-
11:27 - 11:30Certamente avevano
delle ragioni per farlo. -
11:30 - 11:33Noi abbiamo un interruttore,
per esempio qui. -
11:33 - 11:34(Si strozza da solo)
-
11:34 - 11:37Il motivo è che siamo
avversari intelligenti; -
11:37 - 11:40possiamo anticipare le minacce
e studiare come aggirarle. -
11:40 - 11:42Ma anche un agente
superintelligente potrebbe farlo, -
11:42 - 11:46e ci riuscirebbe molto meglio di noi.
-
11:46 - 11:53Non dovremmo contare
sul fatto di poterlo controllare. -
11:53 - 11:56E potremmo provare a semplificarci
un po' la vita, diciamo, -
11:56 - 11:58mettendo l'IA in una "scatola",
-
11:58 - 12:00come un ambiente virtuale sicuro,
-
12:00 - 12:03una ricostruzione della realtà
da cui non può sfuggire. -
12:03 - 12:07Ma quanto possiamo contare sul fatto
che non trovi una falla nel codice? -
12:07 - 12:10Visto che molti hacker umani
scoprono bug in continuazione, -
12:10 - 12:13direi che non dovremmo contarci molto.
-
12:14 - 12:19Potremmo scollegare il cavo Ethernet,
creando un gap fisico. -
12:19 - 12:21Ma anche in questo caso,
molti hacker umani -
12:21 - 12:25aggirano continuamente il problema
con l'ingegneria sociale. -
12:25 - 12:26Proprio ora, mentre parlo,
-
12:26 - 12:28sono sicuro che c'è
qualche impiegato, là fuori, -
12:28 - 12:32che sta dando i dettagli
del suo account a qualcuno -
12:32 - 12:35che si spaccia per il dipartimento IT.
-
12:35 - 12:37E sono possibili anche
scenari più creativi: -
12:37 - 12:38se siete l'IA, ad esempio,
-
12:38 - 12:42potreste pensare a sguinzagliare
degli elettrodi nei vostri circuiti -
12:42 - 12:45per creare onde radio
che potete usare per comunicare. -
12:45 - 12:47Oppure potreste fingere di guastarvi,
-
12:47 - 12:51e quando i programmatori vi ispezionano
per capire cosa non va, -
12:51 - 12:53guardano al codice sorgente e BAM!
-
12:53 - 12:55ecco che avviene una manipolazione.
-
12:55 - 12:59Oppure potrebbe pubblicare il modello
di una tecnologia affascinante, -
12:59 - 13:00che quando la implementiamo
-
13:00 - 13:05produce dei sottili effetti collaterali,
che l'IA aveva previsto. -
13:05 - 13:08Non dovremmo contare sulla nostra capacità
-
13:08 - 13:12di chiudere una superintelligenza
nella sua bottiglia in eterno. -
13:12 - 13:14Prima o poi riuscirà ad uscire.
-
13:15 - 13:18Credo che qui la risposta sia capire
-
13:18 - 13:23come creare un'IA superintelligente
tale che se -- quando -- uscirà, -
13:23 - 13:26resterà amichevole,
fondamentalmente dalla nostra parte -
13:26 - 13:28perché condivide i nostri valori.
-
13:28 - 13:32Non vedo scorciatoie
a questo difficile problema. -
13:33 - 13:36Sono molto ottimista
sulle nostre capacità di risolverlo. -
13:36 - 13:40Non dovremmo scrivere una lunga lista
di tutto ciò a cui diamo valore, -
13:40 - 13:44o peggio ancora codificarlo
in qualche linguaggio -
13:44 - 13:45come C++ o Python,
-
13:45 - 13:48altrimenti sarebbe una sfida impossibile.
-
13:48 - 13:52Invece, dovremmo creare un'IA
che usa la sua intelligenza -
13:52 - 13:55per imparare a cosa diamo valore,
-
13:55 - 14:00e con un sistema motivazionale concepito
-
14:00 - 14:06per perseguire i nostri valori, o eseguire
azioni che sa che approveremmo. -
14:06 - 14:09Potremmo così sfruttare
la sua intelligenza al massimo -
14:09 - 14:12nel risolvere il problema
dell'attribuzione di valore. -
14:13 - 14:14Possiamo farlo,
-
14:14 - 14:18e il risultato sarebbe
molto positivo per l'umanità. -
14:18 - 14:22Ma non avviene automaticamente.
-
14:22 - 14:25Le condizioni iniziali
per questa esplosione di intelligenza -
14:25 - 14:28potrebbero dover essere
definite perfettamente, -
14:28 - 14:31se quella che vogliamo
è un'esplosione controllata. -
14:31 - 14:34I valori dell'IA
devono coincidere con i nostri, -
14:34 - 14:36non solo nei contesti familiari,
-
14:36 - 14:38dove puoi facilmente controllare
come si comporta, -
14:38 - 14:41ma anche in tutti quei contesti nuovi
che l'IA potrebbe incontrare -
14:41 - 14:43in futuro.
-
14:43 - 14:48E restano anche alcune questioni
esoteriche da risolvere e chiarire: -
14:48 - 14:50i dettagli su come prendere decisioni,
-
14:50 - 14:52come gestire l'incertezza logica,
e così via. -
14:53 - 14:56Quindi i problemi tecnici da risolvere
-
14:56 - 14:58sembrano molto difficili:
-
14:58 - 15:01non tanto quanto realizzare
un'IA superintelligente, -
15:01 - 15:04ma comunque molto difficili.
-
15:04 - 15:05Questa è la mia paura:
-
15:05 - 15:10realizzare un'IA superintelligente
è già una sfida veramente dura; -
15:10 - 15:13realizzare un'IA
superintelligente e sicura -
15:13 - 15:15pone sfide aggiuntive.
-
15:16 - 15:20Il rischio è che qualcuno capisca
come vincere la prima sfida -
15:20 - 15:23senza sapere ancora
come vincere la sfida aggiuntiva -
15:23 - 15:25di assicurare una perfetta sicurezza.
-
15:25 - 15:29Penso quindi che dovremmo prima
lavorare a una soluzione -
15:29 - 15:32al problema del controllo,
-
15:32 - 15:34così da averla disponibile
al momento del bisogno. -
15:35 - 15:38Magari non riusciremo
a risolvere tutto a priori, -
15:38 - 15:41perché forse alcuni elementi
possono essere messi a punto -
15:41 - 15:45solo dopo aver conosciuto
l'architettura che li implementa. -
15:45 - 15:49Ma più problemi legati al controllo
risolviamo in anticipo, -
15:49 - 15:53più è probabile che la transizione
all'era dell'intelligenza artificiale -
15:53 - 15:54andrà a buon fine.
-
15:54 - 15:59Ritengo che questa sia una cosa
assolutamente da fare, -
15:59 - 16:02e posso immaginare
che se le cose andranno bene, -
16:02 - 16:07tra un milione di anni
la gente ripenserà a questo secolo -
16:07 - 16:11e potrebbe ben dire che la sola cosa
importante che abbiamo fatto -
16:11 - 16:12fu risolvere questo problema.
-
16:12 - 16:14Grazie.
-
16:14 - 16:17(Applausi)
- Title:
- Cosa succede quando i computer diventano più intelligenti di noi?
- Speaker:
- Nick Bostrom
- Description:
-
L'Intelligenza Artificiale sta facendo passi da gigante: entro questo secolo, sostengono gli esperti, un'intelligenza artificiale potrebbe essere tanto "intelligente" quanto un essere umano. E a quel punto, dice Nick Bostrom, prenderà il controllo: nelle sue parole, "L'intelligenza artificiale è l'ultima invenzione che l'umanità dovrà fare." Filosofo e tecnologo, Bostrom ci chiede di pensare seriamente al mondo, governato da macchine pensanti, che stiamo costruendo. Queste macchine intelligenti ci aiuteranno a preservare la nostra umanità e i nostri valori, o avranno valori tutti loro?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Michele Gianella approved Italian subtitles for What happens when our computers get smarter than we are? | ||
Michele Gianella edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Michele Gianella edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Michele Gianella edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Michele Gianella edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Michele Gianella edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Emanuele Francesco Pecora edited Italian subtitles for What happens when our computers get smarter than we are? | ||
Emanuele Francesco Pecora edited Italian subtitles for What happens when our computers get smarter than we are? |