0:00:00.564,0:00:03.086 Il mio lavoro consiste nel progettare, [br]costruire e studiare 0:00:03.086,0:00:05.086 robot che comunicano con le persone. 0:00:05.086,0:00:06.639 Ma la storia non inizia affatto con la robotica, 0:00:06.639,0:00:08.531 inizia con l'animazione. 0:00:08.531,0:00:11.117 Quando vidi per la prima volta "Luxo Jr." della Pixar, 0:00:11.117,0:00:13.103 rimasi meravigliato da quanta emozione 0:00:13.103,0:00:14.861 si potesse mettere in qualcosa 0:00:14.861,0:00:17.452 di così leggero quanto una lampada da tavolo. 0:00:17.452,0:00:19.285 Voglio dire, guardarteli, alla fine di questo film, 0:00:19.285,0:00:21.789 provate qualcosa per due oggetti di arredamento. 0:00:21.789,0:00:23.617 (Risate) 0:00:23.617,0:00:25.737 E mi dissi che dovevo imparare a farlo. 0:00:25.737,0:00:29.271 Quindi presi una pessima decisione per la mia carriera. 0:00:29.271,0:00:31.675 Questa è la faccia di mia mamma all'epoca. 0:00:31.675,0:00:33.686 (Risate) 0:00:33.686,0:00:35.866 Lasciai un comodo lavoro [br]nel settore tecnologia in Israele 0:00:35.866,0:00:38.471 in una simpatica azienda di software [br]e mi trasferii a New York 0:00:38.471,0:00:39.482 per studiare animazione. 0:00:39.482,0:00:40.639 Lì vivevo 0:00:40.639,0:00:43.635 con dei coinquilini, ad Harlem, [br]in un edificio con appartamenti in rovina. 0:00:43.635,0:00:45.003 Non uso questa frase metaforicamente, 0:00:45.003,0:00:46.963 il soffitto un giorno crollò veramente 0:00:46.963,0:00:48.273 nel soggiorno. 0:00:48.273,0:00:50.939 Ogni volta che facevano un servizio [br]sugli abusi edilizi a New York, 0:00:50.939,0:00:53.185 lo riprendevano davanti al nostro palazzo. 0:00:53.185,0:00:56.783 Come una specie di sfondo per mostrare [br]quante le cose fossero brutte. 0:00:56.783,0:00:58.729 Comunque, durante il giorno [br]andavo a scuola, e di sera 0:00:58.729,0:01:02.251 disegnavo un riquadro dopo l'altro [br]di animazioni. 0:01:02.251,0:01:04.525 E imparai due lezioni sorprendenti -- 0:01:04.525,0:01:07.078 una era che 0:01:07.078,0:01:09.038 quando si vuole suscitare emozioni, 0:01:09.038,0:01:10.764 non importa l'aspetto delle cose, 0:01:10.764,0:01:13.110 sta tutto nel movimento, nei tempi 0:01:13.110,0:01:14.717 di come si muovono le cose. 0:01:14.717,0:01:17.944 E la seconda, era una cosa [br]che ci disse uno degli insegnanti. 0:01:17.944,0:01:20.347 Colui che ha disegnato il bradipo [br]ne L'Era Glaciale. 0:01:20.347,0:01:21.738 E disse: 0:01:21.738,0:01:24.895 "In quanto animatore, [br]non sei regista, sei un attore." 0:01:24.895,0:01:27.876 Quindi se vuoi trovare [br]il movimento giusto di un personaggio, 0:01:27.876,0:01:30.227 non ci pensare, usa il tuo corpo e scoprilo, 0:01:30.227,0:01:31.863 mettiti davanti allo specchio, interpretalo 0:01:31.863,0:01:33.565 davanti alla telecamera, qualunque cosa serva. 0:01:33.565,0:01:36.459 E poi mettilo nel personaggio. 0:01:36.459,0:01:38.619 Un anno dopo mi ritrovai al MIT 0:01:38.619,0:01:40.769 nel gruppo di robotica, era uno dei primi gruppi 0:01:40.769,0:01:43.414 che si occupava di ricerca sulle relazioni [br]tra uomo e robot. 0:01:43.414,0:01:45.347 Avevo ancora quel sogno di realizzare 0:01:45.347,0:01:48.064 una lampada Luxo Jr in carne e ossa. 0:01:48.064,0:01:49.631 Ma scoprii che i robot non si muovono affatto 0:01:49.631,0:01:50.909 in questo modo così coinvolgente [br]a cui ero abituato 0:01:50.909,0:01:52.544 negli studi di animazione. 0:01:52.544,0:01:54.761 Invece, erano tutti -- 0:01:54.761,0:01:57.255 come posso dire, erano tutti robotici. 0:01:57.255,0:01:59.152 (Risate) 0:01:59.152,0:02:02.787 E pensai se prendere tutto quello [br]che avevo imparato alla scuola di animazione 0:02:02.787,0:02:05.455 e usarlo per progettare [br]la mia lampada da scrivania robotica. 0:02:05.455,0:02:07.539 Quindi mi misi a disegnarla riquadro per riquadro 0:02:07.539,0:02:09.393 per cercare di rendere questo robot 0:02:09.393,0:02:12.050 il più grazioso e coinvolgente possibile. 0:02:12.050,0:02:14.092 Qui vedete il robot che interagisce con me 0:02:14.092,0:02:15.723 su una scrivania. 0:02:15.723,0:02:17.934 Sto riprogettando il robot, quindi, 0:02:17.934,0:02:19.731 aiutandomi, 0:02:19.731,0:02:22.419 si sta scavando la fossa a sua insaputa. 0:02:22.419,0:02:24.449 (Risate) 0:02:24.449,0:02:26.418 Volevo che fosse meno una struttura meccanica 0:02:26.418,0:02:27.712 che illumina, 0:02:27.712,0:02:30.754 e più una specie di apprendista tranquillo, collaborativo 0:02:30.754,0:02:33.948 sempre presente, ma che non interferisce. 0:02:33.948,0:02:35.625 Per esempio, quando cerco una batteria 0:02:35.625,0:02:37.158 che non riesco a trovare 0:02:37.158,0:02:41.753 mi mostri dov'è, in modo discreto. 0:02:41.753,0:02:44.319 Quindi vedete la mia confusione. 0:02:44.319,0:02:48.578 Non sono un attore. 0:02:48.578,0:02:50.026 Fate caso a quanto 0:02:50.026,0:02:52.000 la stessa struttura meccanica a un certo punto, 0:02:52.000,0:02:55.004 solo con il modo di muoversi [br]sembri dolce e amorevole -- 0:02:55.004,0:02:58.237 e in altri casi, violenta e aggressiva. 0:02:58.237,0:03:01.548 È la stessa struttura, [br]solo il movimento è diverso. 0:03:07.026,0:03:12.900 Attore: "Vuoi sapere una cosa? [br]Vuoi sapere una cosa? 0:03:12.900,0:03:13.837 Era già morto! 0:03:13.837,0:03:17.854 Giaceva lì, con gli occhi sbarrati!" 0:03:17.854,0:03:18.857 (Risate) 0:03:18.857,0:03:22.755 Ma il movimento grazioso era solo uno [br]degli elementi di tutta la struttura 0:03:22.755,0:03:24.339 chiamata interazione uomo-robot. 0:03:24.339,0:03:25.828 All'epoca facevo il dottorato, 0:03:25.828,0:03:27.998 lavoravo in team di umani e robot, 0:03:27.998,0:03:30.000 gruppi di umani e robot che lavorano insieme. 0:03:30.000,0:03:31.334 Studiavo l'ingegneria, 0:03:31.334,0:03:34.116 la psicologia, la filosofia del lavoro di gruppo. 0:03:34.116,0:03:35.583 E nello stesso tempo mi ritrovai 0:03:35.583,0:03:37.438 in una situazione di lavoro di gruppo tutta mia 0:03:37.438,0:03:39.659 con un amico che è qui presente. 0:03:39.659,0:03:42.273 In quella situazione [br]si possono facilmente immaginare robot 0:03:42.273,0:03:44.366 nel prossimo futuro là con noi. 0:03:44.366,0:03:46.213 Era dopo la Pasqua Ebraica. 0:03:46.213,0:03:48.053 Stavamo ripiegando un sacco di sedie, 0:03:48.053,0:03:50.986 e mi impressionò quanto rapidamente [br]trovammo il nostro ritmo. 0:03:50.986,0:03:52.553 Ognuno faceva la sua parte. 0:03:52.553,0:03:54.182 Non dovevamo dividerci i compiti. 0:03:54.182,0:03:56.278 Non dovevamo comunicare verbalmente. 0:03:56.278,0:03:57.889 Accadeva e basta. 0:03:57.889,0:03:58.783 Pensai, 0:03:58.783,0:04:00.632 gli uomini e i robot non sembrano affatto così. 0:04:00.632,0:04:02.297 Quando gli uomini interagiscono con i robot, 0:04:02.297,0:04:03.495 assomiglia di più ad un gioco di scacchi. 0:04:03.495,0:04:04.758 L'uomo fa una cosa, 0:04:04.758,0:04:06.638 il robot analizza qualunque cosa faccia l'uomo, 0:04:06.638,0:04:08.168 il robot decide cosa fare dopo, 0:04:08.168,0:04:09.344 lo pianifica e lo fa. 0:04:09.344,0:04:11.475 Poi l'uomo aspetta il suo turno successivo. 0:04:11.475,0:04:12.665 È molto più come un gioco di scacchi 0:04:12.665,0:04:14.875 ed ha senso [br]perché il gioco degli scacchi è fantastico 0:04:14.875,0:04:16.396 per i matematici e gli informatici. 0:04:16.396,0:04:18.654 È solo questione di analizzare informazioni, 0:04:18.654,0:04:21.503 prendere decisioni e pianificare. 0:04:21.503,0:04:25.191 Ma volevo che il mio robot fosse [br]meno un giocatore di scacchi, 0:04:25.191,0:04:27.152 e più un esecutore 0:04:27.152,0:04:29.177 che reagisce e collabora. 0:04:29.177,0:04:32.570 Quindi feci la mia seconda [br]terribile scelta di carriera: 0:04:32.570,0:04:35.230 decisi di studiare recitazione per un semestre. 0:04:35.230,0:04:38.090 Abbandonai il mio dottorato [br]e presi lezioni di recitazione. 0:04:38.090,0:04:40.550 Partecipai a uno spettacolo, 0:04:40.550,0:04:43.342 spero non ci siano video in giro. 0:04:43.342,0:04:45.969 Presi qualunque libro sulla recitazione trovassi, 0:04:45.969,0:04:47.945 compreso uno del 19esimo secolo 0:04:47.945,0:04:49.012 trovato in biblioteca. 0:04:49.012,0:04:52.470 Mi stupì perché il mio nome [br]era il secondo della lista -- 0:04:52.470,0:04:55.286 quello precedente era del 1889. [br](Risate) 0:04:55.286,0:04:57.000 Quel libro aspettava da 100 anni 0:04:57.000,0:05:00.191 di essere riscoperto per la robotica. 0:05:00.191,0:05:01.669 Questo libro mostra agli attori 0:05:01.669,0:05:04.034 come muovere ogni singolo muscolo del corpo 0:05:04.034,0:05:06.742 per far corrispondere ogni tipo di emozione [br]che vogliono esprimere. 0:05:06.742,0:05:08.574 Ma la vera rivelazione fu 0:05:08.574,0:05:09.910 imparare il metodo di recitazione. 0:05:09.910,0:05:12.186 Diventò molto popolare nel 20esimo secolo. 0:05:12.186,0:05:14.830 Il metodo dice che [br]non si deve pianificare ogni muscolo del corpo. 0:05:14.830,0:05:17.503 Bisogna invece usare il corpo [br]per trovare il movimento giusto. 0:05:17.503,0:05:19.683 Bisogna usare le memoria dei sensi 0:05:19.683,0:05:21.539 per ricostruire le emozioni [br]e in un certo senso 0:05:21.539,0:05:24.440 pensare con il corpo [br]per trovare l'espressione giusta. 0:05:24.440,0:05:26.460 Improvvisare, [br]sfidare il proprio compagno di scena. 0:05:26.460,0:05:29.708 Questo successe nello stesso momento [br]in cui leggevo di questo trend 0:05:29.708,0:05:32.804 della psicologia cognitiva [br]chiamato filosofia del corpo. 0:05:32.804,0:05:34.478 Parla delle stesse idee. 0:05:34.478,0:05:35.987 Usiamo il corpo per pensare, 0:05:35.987,0:05:38.212 non pensiamo solo con il cervello [br]e usiamo il corpo per muoverci. 0:05:38.212,0:05:40.621 I nostri corpi si interfacciano con il nostro cervello 0:05:40.621,0:05:42.838 per generare il modo di comportarsi. 0:05:42.838,0:05:44.209 Fu come un fulmine a ciel sereno. 0:05:44.209,0:05:45.571 Tornai in ufficio. 0:05:45.571,0:05:48.470 Scrissi questo articolo, che non pubblicai mai 0:05:48.470,0:05:50.836 intitolato [br]"Lezioni di Recitazione per l'Intelligenza Artificiale." 0:05:50.836,0:05:52.233 Presi anche un altro mese 0:05:52.233,0:05:54.844 per fare quello che fu il primo spettacolo teatrale 0:05:54.844,0:05:56.696 con un uomo e un robot che recitano insieme. 0:05:56.696,0:06:00.263 Che è quello che vedevate prima con gli attori. 0:06:00.263,0:06:01.692 E pensai: 0:06:01.692,0:06:04.599 come possiamo fare [br]un modello di intelligenza artificiale -- 0:06:04.599,0:06:06.460 un computer, un modello di calcolo -- 0:06:06.460,0:06:08.784 che rappresenti alcune di queste idee [br]di improvvisazione, 0:06:08.784,0:06:10.941 di presa di rischio, 0:06:10.941,0:06:12.508 anche del fare errori. 0:06:12.508,0:06:15.280 Magari può trasformare un robot [br]in un compagno migliore. 0:06:15.280,0:06:17.908 Lavorai parecchio tempo su questi modelli 0:06:17.908,0:06:20.257 e li implementai su un certo numero di robot. 0:06:20.257,0:06:22.272 Qui vedete uno dei primi esempi 0:06:22.272,0:06:25.984 con i robot che cercano di usare [br]questa intelligenza artificiale incorporata, 0:06:25.984,0:06:28.742 per far corrispondere il più possibile [br]i miei movimenti, 0:06:28.742,0:06:30.229 come se fosse un gioco. 0:06:30.229,0:06:32.086 Guardate. 0:06:35.594,0:06:39.698 Vedete quando lo intimidisco, rimane fregato. 0:06:39.698,0:06:41.899 È un po' quello che potreste vedere negli attori 0:06:41.899,0:06:43.786 quando cercano di riflettersi l'un l'altro 0:06:43.786,0:06:46.304 per cercare la giusta sincronizzazione tra di loro. 0:06:46.304,0:06:48.220 Poi feci un altro esperimento, 0:06:48.220,0:06:52.303 presi persone dalla strada, [br]perché usassero la lampada da scrivania, 0:06:52.303,0:06:56.257 per provare questa idea [br]di intelligenza artificiale incorporata. 0:06:56.257,0:07:00.543 Usai due tipi di cervello per lo stesso robot. 0:07:00.543,0:07:01.863 Il robot è la stessa lampada che avete visto, 0:07:01.863,0:07:03.793 misi dentro due cervelli. 0:07:03.793,0:07:05.633 Per una metà delle persone, 0:07:05.633,0:07:08.457 misi un cervello di tipo tradizionale, 0:07:08.457,0:07:09.711 un cervello robotico calcolatore. 0:07:09.711,0:07:12.265 Aspetta il suo turno, [br]analizza tutto, pianifica. 0:07:12.265,0:07:13.921 Chiamiamolo cervello calcolatore. 0:07:13.921,0:07:17.553 L'altro aveva più dell'attore da palcoscenico, [br]un cervello che prende rischi. 0:07:17.553,0:07:19.633 Chiamiamolo cervello avventuroso. 0:07:19.633,0:07:22.594 Talvolta agisce senza sapere [br]tutto quello che deve sapere. 0:07:22.594,0:07:24.771 Talvolta fa errori e li corregge. 0:07:24.771,0:07:27.354 Feci fare a loro questo compito noioso 0:07:27.354,0:07:28.852 che durava circa 20 minuti, 0:07:28.852,0:07:30.353 dovevano lavorare insieme. 0:07:30.353,0:07:32.634 In qualche modo simulavano [br]un lavoro in fabbrica 0:07:32.634,0:07:35.299 ripetitivo. 0:07:35.299,0:07:37.073 Scoprii che alla gente piace 0:07:37.073,0:07:38.721 il robot avventuroso. 0:07:38.721,0:07:40.103 Pensavano fosse più intelligente, 0:07:40.103,0:07:42.171 più impegnato, [br]un migliore membro del gruppo, 0:07:42.171,0:07:44.268 che contribuiva di più al successo del team. 0:07:44.268,0:07:45.983 Lo chiamavano addirittura 'lui' o 'lei', 0:07:45.983,0:07:48.899 cosa che non faceva [br]il gruppo del cervello calcolatore. 0:07:48.899,0:07:51.646 Nessuno lo chiamò mai 'lui' o 'lei'. 0:07:51.646,0:07:53.495 Parlandone dopo il compito 0:07:53.495,0:07:55.193 con il cervello avventuroso, 0:07:55.193,0:07:59.275 dicevano, "Alla fine, eravamo amici [br]e mentalmente sintonizzati." 0:07:59.275,0:08:00.714 Qualunque cosa significhi. 0:08:00.714,0:08:03.961 (Risate) [br]Sembra doloroso. 0:08:03.961,0:08:06.676 Mentre le persone con il cervello calcolatore 0:08:06.676,0:08:09.049 dicevano che era un apprendista pigro. 0:08:09.049,0:08:11.750 Faceva solo quello [br]che gli era stato detto e niente di più. 0:08:11.750,0:08:14.307 È quello che la gente si aspetta dai robot, 0:08:14.307,0:08:16.742 mi sorprese quindi il fatto [br]che la gente avesse maggiori aspettative 0:08:16.742,0:08:21.886 dai robot, di chiunque in robotica [br]si aspettasse da un robot. 0:08:21.886,0:08:23.856 In un certo senso,[br]pensai che fosse il momento -- 0:08:23.856,0:08:26.717 così come il metodo di recitazione cambiò 0:08:26.717,0:08:28.149 il modo di pensare [br]alla recitazione nel 19esimo secolo, 0:08:28.149,0:08:29.992 di passare dal comportamento 0:08:29.992,0:08:31.774 calcolatore e pianificato, 0:08:31.774,0:08:35.295 a un comportamento più intuitivo, [br]di rischio, impersonificato. 0:08:35.295,0:08:36.699 Magari è giunto il momento per i robot 0:08:36.699,0:08:39.845 di passare allo stesso tipo di rivoluzione. 0:08:39.845,0:08:40.966 Qualche anno dopo, 0:08:40.966,0:08:43.474 ero al mio lavoro successivo [br]alla Georgia Tech a Atlanta, 0:08:43.474,0:08:44.539 lavoravo in un gruppo 0:08:44.539,0:08:45.821 che aveva a che fare con robot musicisti. 0:08:45.821,0:08:48.662 Pensai che la musica [br]fosse l'ambiente perfetto 0:08:48.662,0:08:51.059 per osservare il lavoro di squadra, [br]il coordinamento, 0:08:51.059,0:08:52.948 il tempismo, l'improvvisazione -- 0:08:52.948,0:08:55.484 avevamo appena ricevuto questo robot [br]che suonava la marimba. 0:08:55.484,0:08:57.499 La marimba, per chiunque come me, 0:08:57.499,0:09:00.344 era un enorme xilofono di legno. 0:09:00.344,0:09:03.039 Osservandolo 0:09:03.039,0:09:05.633 notai altre improvvisazioni uomo-robot -- 0:09:05.633,0:09:08.012 sì, ci sono altre improvvisazioni uomo-robot -- 0:09:08.012,0:09:10.105 ed erano anche queste [br]un po' come un gioco di scacchi. 0:09:10.105,0:09:11.409 L'uomo suona, 0:09:11.409,0:09:13.989 il robot lo analizza 0:09:13.989,0:09:16.201 e improvvisa la propria parte. 0:09:16.201,0:09:17.868 Questo è quello che i musicisti chiamano 0:09:17.868,0:09:19.351 un'interazione chiamata e risposta, 0:09:19.351,0:09:23.188 e si adatta anche molto bene [br]con i robot e l'intelligenza artificiale. 0:09:23.188,0:09:25.095 Ma pensai che usando le stesse idee usate 0:09:25.095,0:09:28.232 a teatro e negli studi sui lavori di gruppo, 0:09:28.232,0:09:30.684 magari potevo far suonare i robot insieme 0:09:30.684,0:09:32.305 come una band. 0:09:32.305,0:09:36.118 Tutti ripetono il motivo, [br]nessuno si ferma per un attimo. 0:09:36.118,0:09:38.910 Così provai a fare la stessa cosa, [br]questa volta con la musica, 0:09:38.910,0:09:40.297 in cui il robot non sa bene 0:09:40.297,0:09:41.272 cosa sta per suonare. 0:09:41.272,0:09:42.545 Muove in qualche modo il corpo 0:09:42.545,0:09:44.773 e sfrutta le opportunità per suonare, 0:09:44.773,0:09:47.494 Fa quello che mi insegnò a 17 anni [br]la mia professoressa di jazz. 0:09:47.494,0:09:48.758 Disse che quando si improvvisa, 0:09:48.758,0:09:50.419 qualche volta non si sa [br]quello che si sta facendo 0:09:50.419,0:09:51.434 eppure lo si fa. 0:09:51.434,0:09:52.864 Così provai a fare un robot 0:09:52.864,0:09:54.809 che non sa quello che fa, [br]ma lo fa lo stesso. 0:09:54.809,0:09:57.753 Vediamo qualche secondo di questa performance. 0:09:57.753,0:10:00.670 in cui il robot ascolta il musicista umano 0:10:00.670,0:10:02.473 e improvvisa. 0:10:02.473,0:10:04.846 E poi, guardate come il musicista umano 0:10:04.846,0:10:06.633 reagisce a quello che fa il robot, [br]e prende spunto 0:10:06.633,0:10:09.453 dal suo comportamento. 0:10:09.453,0:10:13.981 Ad un certo punto si fa anche sorprendere [br]da quello che fa il robot. 0:10:13.981,0:11:00.056 (Musica) 0:11:00.056,0:11:05.087 (Applausi) 0:11:05.087,0:11:07.073 Essere musicista non vuol dire solo suonare note, 0:11:07.073,0:11:09.459 altrimenti nessuno andrebbe [br]a vedere uno spettacolo dal vivo. 0:11:09.459,0:11:11.382 I musicisti comunicano anche con il corpo, 0:11:11.382,0:11:13.329 con altri membri del gruppo, con il pubblico, 0:11:13.329,0:11:15.492 usano il loro corpo per esprimere la musica. 0:11:15.492,0:11:17.872 E pensai, abbiamo già un musicista sul palco, 0:11:17.872,0:11:20.820 perché non farne un musicista vero e proprio. 0:11:20.820,0:11:23.336 Cominciai a progettare [br]una testa socialmente espressiva 0:11:23.336,0:11:24.885 per il robot. 0:11:24.885,0:11:26.712 La testa non tocca la marimba, 0:11:26.712,0:11:28.348 esprime solo la musica. 0:11:28.348,0:11:31.428 Ho qualche schizzo fatto su tovaglioli [br]in un bar di Atlanta 0:11:31.428,0:11:34.050 pericolosamente posizionato esattamente a metà strada 0:11:34.050,0:11:35.502 tra il mio laboratorio e casa mia. [br](Risate) 0:11:35.502,0:11:36.918 Passai lì in media 0:11:36.918,0:11:39.846 dalle tre alla quattro ore al giorno. 0:11:39.846,0:11:42.744 Credo. [br](Risate) 0:11:42.744,0:11:45.723 Tornai ai miei strumenti di animazione [br]e cercai di capire 0:11:45.723,0:11:47.905 come sarebbe un musicista robot, 0:11:47.905,0:11:50.713 ma soprattutto come si muoverebbe. 0:11:50.713,0:11:54.013 Mostra che non gli piace quello che [br]la persona sta suonando -- 0:11:54.013,0:11:56.492 e magari esprime qualunque ritmo stia ascoltando 0:11:56.492,0:11:58.141 in quel momento. 0:11:58.141,0:12:02.668 Così abbiamo ottenuto i soldi per costruire il robot, [br]che non era male. 0:12:02.668,0:12:04.878 Vi mostro ora lo stesso tipo di interpretazione, 0:12:04.878,0:12:07.220 questa volta con una testa socialmente espressiva. 0:12:07.220,0:12:09.184 E notate una cosa -- 0:12:09.184,0:12:10.880 come il robot ci mostra 0:12:10.880,0:12:12.744 il ritmo che prende dall'uomo. 0:12:12.744,0:12:16.760 Diamo anche all'uomo la sensazione di sapere [br]che il robot sa quello che sta facendo. 0:12:16.760,0:12:18.140 Anche come cambia il modo di muoversi 0:12:18.140,0:12:20.680 non appena inizia il suo assolo. 0:12:20.680,0:12:24.600 (Musica) 0:12:24.600,0:12:27.501 Ora mi guarda per assicurarsi che sto ascoltando. 0:12:27.501,0:12:48.601 (Musica) 0:12:48.601,0:12:52.228 Ora osservate di nuovo l'ultimo accordo, 0:12:52.228,0:12:55.067 e questa volta il robot comunica con il corpo 0:12:55.067,0:12:57.204 quando è impegnato nel fare le sue cose. 0:12:57.204,0:12:58.816 E quando è pronto 0:12:58.816,0:13:02.168 per sincronizzare l'accordo finale con me. 0:13:02.168,0:13:15.097 (Musica) 0:13:15.128,0:13:20.906 (Applausi) 0:13:20.906,0:13:25.263 Grazie. Spero che vediate come -- 0:13:25.263,0:13:27.944 come questa parte del corpo [br]che non tocca lo strumento 0:13:27.944,0:13:31.310 aiuti l'esecuzione del pezzo. 0:13:31.310,0:13:34.530 A un certo punto, ad Atlanta, [br]ovviamente qualche rapper 0:13:34.530,0:13:36.399 verrà al nostro laboratorio. 0:13:36.399,0:13:38.639 È venuto questo rapper 0:13:38.639,0:13:41.212 a fare qualche improvvisazione con il robot. 0:13:41.212,0:13:43.914 Qui vedete il robot 0:13:43.914,0:13:45.143 che reagisce al ritmo 0:13:45.143,0:13:47.997 e notate due cose. [br]Primo, quanto sia irresistibile 0:13:47.997,0:13:50.510 unirsi al robot quando muove la testa. 0:13:50.051,0:13:52.412 Viene voglia di muovere la testa con lui. 0:13:52.412,0:13:56.207 E secondo, anche se il rapper [br]è concentrato sul suo iPhone, 0:13:56.207,0:13:59.121 non appena il robot si gira verso di lui, gli dà retta. 0:13:59.121,0:14:01.200 Quindi anche se è nella sua visione periferica, 0:14:01.200,0:14:03.770 visibile con la coda dell'occhio, [br]è molto potente. 0:14:03.770,0:14:05.821 Il motivo è che non possiamo ignorare 0:14:05.821,0:14:07.522 gli oggetti fisici che si muovono [br]nell'ambiente circostante. 0:14:07.522,0:14:09.286 Siamo predisposti per questo. 0:14:09.286,0:14:12.618 Quindi se avete un problema con il vostro partner 0:14:12.618,0:14:15.489 che guarda troppo l'iPhone o lo smartphone, 0:14:15.489,0:14:17.082 potreste volere un robot accanto 0:14:17.082,0:14:18.636 per catturare la sua attenzione. [br](Risate) 0:14:18.636,0:14:38.211 (Musica) 0:14:38.211,0:14:44.872 (Applausi) 0:14:44.872,0:14:47.382 Voglio solo presentarvi l'ultimo robot 0:14:47.382,0:14:49.526 su cui abbiamo lavorato, 0:14:49.526,0:14:51.599 uscito da una cosa sorprendente [br]che abbiamo scoperto: 0:14:51.599,0:14:54.634 a un certo punto alla gente non importava più [br]del robot così intelligente, 0:14:54.634,0:14:56.342 che improvvisa e ascolta, 0:14:56.342,0:15:00.750 e fa tutte queste cose intelligente [br]che ho passato anni a sviluppare. 0:15:00.750,0:15:04.263 Piaceva il fatto che il robot apprezzasse la musica. [br](Risate) 0:15:04.263,0:15:06.668 Non vedevano il robot che si muoveva con la musica, 0:15:06.668,0:15:08.340 dicevano che il robot si godeva la musica. 0:15:08.340,0:15:10.744 Abbiamo pensato: [br]perché non prendere questa idea, 0:15:10.744,0:15:13.629 e ho progettato [br]un nuovo oggetto di arredamento. 0:15:13.629,0:15:15.718 Questa volta non era una lampada, [br]era uno speaker. 0:15:15.718,0:15:18.826 Era una di quelle cose [br]a cui si attacca lo smartphone. 0:15:18.826,0:15:20.545 Mi sono chiesto cosa sarebbe successo 0:15:20.545,0:15:23.146 se lo speaker non solo facesse musica, 0:15:23.146,0:15:25.657 ma gli piacesse anche. [br](Risate) 0:15:25.657,0:15:27.434 Ecco ancora qualche test di animazione 0:15:27.434,0:15:31.835 delle prime fasi. (Risate) 0:15:31.835,0:15:36.005 Ecco come è venuto il prodotto finale. 0:15:47.223,0:16:09.461 ("Drop It Like It's Hot") 0:16:09.461,0:16:12.105 È una testa che annuisce. 0:16:12.105,0:16:15.327 (Applausi) 0:16:15.327,0:16:17.228 Tante teste che annuiscono tra il pubblico, 0:16:17.228,0:16:20.386 si vede ancora l'influenza dei robot sulle persone. 0:16:20.386,0:16:23.028 Non è solo gioco e divertimento. 0:16:23.028,0:16:25.420 Credo che uno dei motivi per cui [br]mi interesso veramente 0:16:25.420,0:16:27.214 di robot che usano il corpo per comunicare 0:16:27.214,0:16:29.407 e usano il corpo per muoversi -- 0:16:29.407,0:16:32.640 e vi dirò un piccolo segreto di noi esperti di robot -- 0:16:32.640,0:16:35.001 tutti voi un giorno o l'altro 0:16:35.001,0:16:37.254 vivrete con un robot. 0:16:37.254,0:16:39.550 A un certo punto nel futuro [br]ci sarà un robot nella vostra vita. 0:16:39.550,0:16:41.678 Se non nella vostra, [br]ci sarà in quella dei vostri figli. 0:16:41.678,0:16:43.467 Voglio che questi robot siano -- 0:16:43.467,0:16:46.961 più fluidi, più coinvolgenti, più graziosi 0:16:46.961,0:16:48.749 di quello che sono adesso. 0:16:48.749,0:16:50.668 E per questo penso che forse i robot 0:16:50.668,0:16:52.034 devono essere meno dei giocatori di scacchi 0:16:52.034,0:16:54.744 e più come degli attori e dei musicisti. 0:16:54.744,0:16:57.683 Magari dovrebbero essere in grado [br]di correre rischi e improvvisare. 0:16:57.683,0:17:00.180 E magari dovrebbero essere in grado [br]di anticipare quello che state per fare. 0:17:00.180,0:17:02.756 Dovrebbero essere in grado di fare errori 0:17:02.756,0:17:03.979 e correggersi 0:17:03.979,0:17:06.015 perché alla fine siamo umani. 0:17:06.015,0:17:09.386 E magari in quanto umani, [br]i robot che non sono del tutto perfetti 0:17:09.386,0:17:11.252 sono invece perfetti per noi. 0:17:11.252,0:17:12.766 Grazie. 0:17:12.766,0:17:16.188 (Applausi)