1 00:00:00,564 --> 00:00:03,086 Meseria mea e să proiectez, construiesc și studiez 2 00:00:03,086 --> 00:00:05,086 roboți care comunică cu oamenii. 3 00:00:05,086 --> 00:00:06,639 Dar povestea nu începe deloc cu robotica, 4 00:00:06,639 --> 00:00:08,531 începe cu animația. 5 00:00:08,531 --> 00:00:11,117 Când am văzut prima oară „Luxo Jr.” de la Pixar, 6 00:00:11,117 --> 00:00:13,103 am fost uimit de cât de multă emoție 7 00:00:13,103 --> 00:00:14,861 puteau pune în ceva 8 00:00:14,861 --> 00:00:17,452 atât de banal ca o lampă de birou. 9 00:00:17,452 --> 00:00:19,285 Uitați-vă numai, la finalul acestui film, 10 00:00:19,285 --> 00:00:21,789 ai cu adevărat sentimente pentru două piese de mobilier. 11 00:00:21,789 --> 00:00:23,617 (Râsete) 12 00:00:23,617 --> 00:00:25,737 Mi-am spus, trebuie să învăț cum să fac așa ceva. 13 00:00:25,737 --> 00:00:29,271 Așa că am luat o decizie foarte proastă pentru cariera mea. 14 00:00:29,271 --> 00:00:31,675 Iată cum s-a simțit mama mea când am făcut asta. 15 00:00:31,675 --> 00:00:33,686 (Râsete) 16 00:00:33,686 --> 00:00:35,866 Am renunțat la un loc de muncă foarte comod în Israel, 17 00:00:35,866 --> 00:00:38,471 la o companie de software și m-am mutat la New York 18 00:00:38,471 --> 00:00:39,482 pentru a studia animația. 19 00:00:39,482 --> 00:00:40,639 Am locuit acolo 20 00:00:40,639 --> 00:00:43,635 într-un bloc ce stătea să se prăbușească, în Harlem, cu colegi de cameră. 21 00:00:43,635 --> 00:00:45,003 Nu e doar o figură de stil, 22 00:00:45,003 --> 00:00:46,963 tavanul chiar s-a prăbușit într-o zi 23 00:00:46,963 --> 00:00:48,273 în camera de zi. 24 00:00:48,273 --> 00:00:50,939 De câte ori apăreau știri despre ilegalitățile din construcții în New York, 25 00:00:50,939 --> 00:00:53,185 plasau reporterul în fața clădirii noastre. 26 00:00:53,185 --> 00:00:56,783 Ca un fundal care să ilustreze cât de gravă era situația. 27 00:00:56,783 --> 00:00:58,729 În fine, ziua mergeam la cursuri, iar noaptea 28 00:00:58,729 --> 00:01:02,251 stăteam și desenam animații cu creionul, cadru cu cadru. 29 00:01:02,251 --> 00:01:04,525 Am învățat astfel două lecții surprinzătoare -- 30 00:01:04,525 --> 00:01:07,078 una a fost că 31 00:01:07,078 --> 00:01:09,038 atunci când vrei să stimulezi emoții, 32 00:01:09,038 --> 00:01:10,764 aspectul nu contează așa de mult, 33 00:01:10,764 --> 00:01:13,110 totul e mișcarea, sincronizarea 34 00:01:13,110 --> 00:01:14,717 modului în care se mișcă obiectul. 35 00:01:14,717 --> 00:01:17,944 A doua a fost ceva ce ne-a spus profesorul. 36 00:01:17,944 --> 00:01:20,347 E cel care a creat nevăstuica din Ice Age. 37 00:01:20,347 --> 00:01:21,738 El a spus: 38 00:01:21,738 --> 00:01:24,895 "Ca animator, nu ești regizor, ci mai degrabă actor.” 39 00:01:24,895 --> 00:01:27,876 Dacă doriţi să găsiţi mişcarea corectă pentru un personaj, 40 00:01:27,876 --> 00:01:30,227 nu stați să vă gândiți, ci folosiți-vă propriul corp pentru a o descoperi -- 41 00:01:30,227 --> 00:01:31,863 stați în fața unei oglinzi, jucați 42 00:01:31,863 --> 00:01:33,565 în faţa camerei de filmat – oricum. 43 00:01:33,565 --> 00:01:36,459 Apoi pune acea mișcare în personajul tău. 44 00:01:36,459 --> 00:01:38,619 Un an mai târziu m-am trezit la MIT 45 00:01:38,619 --> 00:01:40,769 în grupul „viața robotizată”, a fost unul din primele grupuri 46 00:01:40,769 --> 00:01:43,414 care cerceta relaţiile dintre oameni şi roboţi. 47 00:01:43,414 --> 00:01:45,347 Şi aveam încă acest vis de a face 48 00:01:45,347 --> 00:01:48,064 realmente o lampă Luxo Jr. 49 00:01:48,064 --> 00:01:49,631 Dar am constatat că roboţii nu se mișcau deloc 50 00:01:49,631 --> 00:01:50,909 în felul captivant cu care mă obișnuisem 51 00:01:50,909 --> 00:01:52,544 în studiile mele de animaţie. 52 00:01:52,544 --> 00:01:54,761 În schimb, erau -- 53 00:01:54,761 --> 00:01:57,255 cum să spun spun, destul de robotizați. 54 00:01:57,255 --> 00:01:59,152 (Râsete) 55 00:01:59,152 --> 00:02:02,787 Şi m-am gândit, ce-ar fi dacă aș lua ce am învățat în școala de animaţie, 56 00:02:02,787 --> 00:02:05,455 şi aș folosi în a proiecta lampa de birou robotizată. 57 00:02:05,455 --> 00:02:07,539 Aşa că am început să proiectez cadru cu cadru 58 00:02:07,539 --> 00:02:09,393 încercând să fac acest robot 59 00:02:09,393 --> 00:02:12,050 cât de graţios şi captivant posibil. 60 00:02:12,050 --> 00:02:14,092 Şi aici veţi vedea robotul interacționând cu mine 61 00:02:14,092 --> 00:02:15,723 pe un desktop. 62 00:02:15,723 --> 00:02:17,934 Și eu reproiectez robotul, deci, 63 00:02:17,934 --> 00:02:19,731 fără să își dea seama, 64 00:02:19,731 --> 00:02:22,419 el își cam sapă propriul mormânt ajutându-mă. 65 00:02:22,419 --> 00:02:24,449 (Râsete) 66 00:02:24,449 --> 00:02:26,418 Nu am vrut să fie o structură mecanică 67 00:02:26,418 --> 00:02:27,712 care să facă lumină, 68 00:02:27,712 --> 00:02:30,754 ci mai degrabă un fel de ajutor tăcut, 69 00:02:30,754 --> 00:02:33,948 care-i totdeauna acolo când ai nevoie de el şi care nu deranjează cu nimic. 70 00:02:33,948 --> 00:02:35,625 Când, de exemplu, sunt în căutarea unei baterii 71 00:02:35,625 --> 00:02:37,158 pe care n-o găsesc, 72 00:02:37,158 --> 00:02:41,753 subtil, îmi va arăta unde e bateria. 73 00:02:41,753 --> 00:02:44,319 Vedeți de unde vine confuzia mea aici. 74 00:02:44,319 --> 00:02:48,578 Eu nu sunt un actor. 75 00:02:48,578 --> 00:02:50,026 Vreau să observaţi cum aceeaşi 76 00:02:50,026 --> 00:02:52,000 structură mecanică poate la un moment dat, 77 00:02:52,000 --> 00:02:55,004 doar prin felul cum se mişcă să pară blândă şi grijulie, 78 00:02:55,004 --> 00:02:58,237 iar în alt caz, poate părea violentă şi conflictuală. 79 00:02:58,237 --> 00:03:01,548 E aceeaşi structură, doar mişcarea e diferită. 80 00:03:07,026 --> 00:03:12,900 Actor: „Vrei să ştii ceva? Ei bine, vrei să știi? 81 00:03:12,900 --> 00:03:13,837 El era deja mort! 82 00:03:13,837 --> 00:03:17,854 Zăcea acolo, cu ochii țintuiți!" 83 00:03:17,854 --> 00:03:18,857 (Râsete) 84 00:03:18,857 --> 00:03:22,755 Dar mișcarea grațioasă e doar o parte din structura de ansamblu 85 00:03:22,755 --> 00:03:24,339 numită interacţiunea om-robot. 86 00:03:24,339 --> 00:03:25,828 Îmi dădeam la vremea aceea doctoratul, 87 00:03:25,828 --> 00:03:27,998 lucram în munca în echipă de a construi un robot uman; 88 00:03:27,998 --> 00:03:30,000 echipe de oameni şi roboţi lucrând împreună. 89 00:03:30,000 --> 00:03:31,334 Studiam inginerie, 90 00:03:31,334 --> 00:03:34,116 psihologie, filozofia de lucru în echipă. 91 00:03:34,116 --> 00:03:35,583 Şi în acelaşi timp m-am trezit 92 00:03:35,583 --> 00:03:37,438 în propria mea situaţie de lucru în echipă 93 00:03:37,438 --> 00:03:39,659 cu un bun prieten care se află aici. 94 00:03:39,659 --> 00:03:42,273 Şi în această situaţie, ne putem imagina cu uşurinţă roboţi 95 00:03:42,273 --> 00:03:44,366 în viitorul apropiat fiind printre noi. 96 00:03:44,366 --> 00:03:46,213 S-a întâmplat după ritualul începutului de Passover. 97 00:03:46,213 --> 00:03:48,053 Pliam o mulţime de scaune pliante, 98 00:03:48,053 --> 00:03:50,986 şi am fost uimit de cât de repede am gasit ritm propriu. 99 00:03:50,986 --> 00:03:52,553 Fiecare făcea partea lui. 100 00:03:52,553 --> 00:03:54,182 Nu a trebuit să ne împărțim sarcinile. 101 00:03:54,182 --> 00:03:56,278 Nu a trebuit să comunicăm verbal. 102 00:03:56,278 --> 00:03:57,889 S-a întâmplat pur și simplu. 103 00:03:57,889 --> 00:03:58,783 Şi m-am gândit, 104 00:03:58,783 --> 00:04:00,632 oamenii şi roboţii nu arată deloc așa. 105 00:04:00,632 --> 00:04:02,297 Când oamenii interacționează cu roboții, 106 00:04:02,297 --> 00:04:03,495 e mai mult ca un joc de şah. 107 00:04:03,495 --> 00:04:04,758 Omul face un lucru, 108 00:04:04,758 --> 00:04:06,638 robotul analizează mișcarea omului, 109 00:04:06,638 --> 00:04:08,168 apoi decide ce să facă în continuare, 110 00:04:08,168 --> 00:04:09,344 planifică și face. 111 00:04:09,344 --> 00:04:11,475 Şi apoi omul aşteaptă să-i vină rândul din nou. 112 00:04:11,475 --> 00:04:12,665 E mai mult ca un joc de şah 113 00:04:12,665 --> 00:04:14,875 care are sens pentru că șahul e grozav 114 00:04:14,875 --> 00:04:16,396 pentru matematicieni şi IT-iști. 115 00:04:16,396 --> 00:04:18,654 E vorba despre analiza informaţiei, 116 00:04:18,654 --> 00:04:21,503 luarea deciziilor şi planificare. 117 00:04:21,503 --> 00:04:25,191 Dar am vrut ca robotul meu să fie mai puţin un jucător de şah 118 00:04:25,191 --> 00:04:27,152 şi mai mult un actor independent, 119 00:04:27,152 --> 00:04:29,177 care înțelege şi cooperează. 120 00:04:29,177 --> 00:04:32,570 Așa că am făcut a doua alegere proastă a carierei mele: 121 00:04:32,570 --> 00:04:35,230 Am decis să studiez actorie pentru un semestru. 122 00:04:35,230 --> 00:04:38,090 M-am retras de la doctorat. M-am dus la lecții de actorie. 123 00:04:38,090 --> 00:04:40,550 De fapt am participat într-o piesă, 124 00:04:40,550 --> 00:04:43,342 Sper că nu există nicio înregistrare. 125 00:04:43,342 --> 00:04:45,969 Și am luat fiecare carte pe care am putut-o găsi despre actorie, 126 00:04:45,969 --> 00:04:47,945 inclusiv una din secolul XIX 127 00:04:47,945 --> 00:04:49,012 pe care am găsit-o la bibliotecă. 128 00:04:49,012 --> 00:04:52,470 Am fost uimit pentru că numele meu era al doilea pe listă-- 129 00:04:52,470 --> 00:04:55,286 denumirea anterioară fiind în 1889. (Râsete) 130 00:04:55,286 --> 00:04:57,000 Această carte fusese într-un fel de aşteptare timp de 100 de ani 131 00:04:57,000 --> 00:05:00,191 să fie redescoperită pentru robotică. 132 00:05:00,191 --> 00:05:01,669 Această carte arată actorilor 133 00:05:01,669 --> 00:05:04,034 cum să-și miște fiecare muşchi în corp 134 00:05:04,034 --> 00:05:06,742 pentru a transmite orice fel de emoţie pe care doresc s-o exprime. 135 00:05:06,742 --> 00:05:08,574 Dar adevărata revelație a fost 136 00:05:08,574 --> 00:05:09,910 când am aflat despre teatrul metodic. 137 00:05:09,910 --> 00:05:12,186 A devenit la modă în secolul XX. 138 00:05:12,186 --> 00:05:14,830 În tetraul metodic nu trebuie să planifici fiecare muşchi în corp. 139 00:05:14,830 --> 00:05:17,503 Îți folosești corpul pentru a găsi mişcarea potrivită. 140 00:05:17,503 --> 00:05:19,683 Trebuie să utilizaţi memoria simțurilor 141 00:05:19,683 --> 00:05:21,539 pentru a reconstrui emoţiile, 142 00:05:21,539 --> 00:05:24,440 să gândești cu corpul pentru a găsi expresia corectă. 143 00:05:24,440 --> 00:05:26,460 Improvizează, joacă-te cu partenerul de scenă. 144 00:05:26,460 --> 00:05:29,708 Asta a venit în acelaşi timp când citeam despre această tendinţă 145 00:05:29,708 --> 00:05:32,804 în psihologia cognitivă numită cogniție întruchipată, 146 00:05:32,804 --> 00:05:34,478 care, de asemenea, vorbeşte despre aceleaşi idei. 147 00:05:34,478 --> 00:05:35,987 Noi folosim trupurile noastre să gândim, 148 00:05:35,987 --> 00:05:38,212 nu gândim doar cu creierul şi nu utilizăm corpul doar pentru a ne mișca. 149 00:05:38,212 --> 00:05:40,621 dar corpurile noastre sunt contectate cu creierul 150 00:05:40,621 --> 00:05:42,838 pentru a genera modul în care ne comportăm. 151 00:05:42,838 --> 00:05:44,209 Şi a fost ca un fulger. 152 00:05:44,209 --> 00:05:45,571 M-am dus înapoi la biroul meu. 153 00:05:45,571 --> 00:05:48,470 Am scris o lucrare pe care nu am publicat-o niciodată, 154 00:05:48,470 --> 00:05:50,836 numită „Lecții de actorie pentru inteligența artificială." 155 00:05:50,836 --> 00:05:52,233 Mi-a trebuit încă o lună 156 00:05:52,233 --> 00:05:54,844 să încropesc prima piesă de teatru 157 00:05:54,844 --> 00:05:56,696 cu un om şi un robot jucând împreună. 158 00:05:56,696 --> 00:06:00,263 Asta ați văzut înainte cu actorii. 159 00:06:00,263 --> 00:06:01,692 Şi m-am gândit: 160 00:06:01,692 --> 00:06:04,599 Cum facem un model de inteligență artificială, 161 00:06:04,599 --> 00:06:06,460 calculator, model de calcul, 162 00:06:06,460 --> 00:06:08,784 care va adopta idei de improvizaţie, 163 00:06:08,784 --> 00:06:10,941 își va asuma riscuri, își va asuma șanse, 164 00:06:10,941 --> 00:06:12,508 și va face chiar greșeli. 165 00:06:12,508 --> 00:06:15,280 Poate conduce la conceperea de membri robotici mai buni. 166 00:06:15,280 --> 00:06:17,908 Am lucrat destul de mult la aceste modele 167 00:06:17,908 --> 00:06:20,257 şi le-am implementat pe o serie de roboți. 168 00:06:20,257 --> 00:06:22,272 Aici vedeți un exemplu foarte timpuriu 169 00:06:22,272 --> 00:06:25,984 cu roboţi încercând să încorporeze această întruchipare de inteligență artificială, 170 00:06:25,984 --> 00:06:28,742 pentru a potrivi mişcările mele pe cât de bine posibil, 171 00:06:28,742 --> 00:06:30,229 ca un fel de joc. 172 00:06:30,229 --> 00:06:32,086 Să aruncăm o privire. 173 00:06:35,594 --> 00:06:39,698 Vedeți, când îl derutez se lasă ușor păcălit. 174 00:06:39,698 --> 00:06:41,899 E oarecum ca la actori 175 00:06:41,899 --> 00:06:43,786 când încearcă să se imite unii pe alții 176 00:06:43,786 --> 00:06:46,304 pentru a găsi sincroizarea perfectă între ei. 177 00:06:46,304 --> 00:06:48,220 Şi apoi, am făcut un alt experiment, 178 00:06:48,220 --> 00:06:52,303 am luat oameni de pe stradă pentru a testa veioza robotizată 179 00:06:52,303 --> 00:06:56,257 şi ideea întruchipării inteligenței artificiale. 180 00:06:56,257 --> 00:07:00,543 Am folosit două tipuri de creier pentru acelaşi robot. 181 00:07:00,543 --> 00:07:01,863 Robotul e aceeași lampă pe care aţi văzut-o 182 00:07:01,863 --> 00:07:03,793 şi am pus două creiere în el. 183 00:07:03,793 --> 00:07:05,633 Pentru o jumătate dintre oameni, 184 00:07:05,633 --> 00:07:08,457 am pus un creier oarecum tradiţional, 185 00:07:08,457 --> 00:07:09,711 unul calculat robotic. 186 00:07:09,711 --> 00:07:12,265 Acesta își aşteaptă rândul, analizează, planifică. 187 00:07:12,265 --> 00:07:13,921 Să-l numim creierul calculat. 188 00:07:13,921 --> 00:07:17,553 Celălalt a primit mai mult actorul de scenă, creierul care își asumă riscuri. 189 00:07:17,553 --> 00:07:19,633 Să-l numim creierul aventurier. 190 00:07:19,633 --> 00:07:22,594 Acţionează uneori fără să ştie tot ceea ce trebuie să știe. 191 00:07:22,594 --> 00:07:24,771 Uneori face greşeli şi le corectează. 192 00:07:24,771 --> 00:07:27,354 Şi le-am pus să facă o sarcină plictisitoare 193 00:07:27,354 --> 00:07:28,852 care a durat aproape 20 de minute 194 00:07:28,852 --> 00:07:30,353 şi a trebuit să lucreze împreună. 195 00:07:30,353 --> 00:07:32,634 Simulând oarecum un job într-o fabrică de manufactură, 196 00:07:32,634 --> 00:07:35,299 făcând repetat aceleaşi lucruri. 197 00:07:35,299 --> 00:07:37,073 Am descoperit că oamenii preferau 198 00:07:37,073 --> 00:07:38,721 robotul aventurier. 199 00:07:38,721 --> 00:07:40,103 L-au găsit mai inteligent, 200 00:07:40,103 --> 00:07:42,171 mai devotat, mai bun membru de echipă, 201 00:07:42,171 --> 00:07:44,268 contribuind la succesul echipei mai mult. 202 00:07:44,268 --> 00:07:45,983 Chiar i-au numit „el" si „ea" 203 00:07:45,983 --> 00:07:48,899 pe când oamenii interacționând cu creierul calculat nu l-au văzut ca o pe o persoană. 204 00:07:48,899 --> 00:07:51,646 Nimeni nu l-a numit „el" sau „ea". 205 00:07:51,646 --> 00:07:53,495 Când au vorbit despre el după probă 206 00:07:53,495 --> 00:07:55,193 cu creierul aventuros, 207 00:07:55,193 --> 00:07:59,275 au spus „până la sfârşit, am fost buni prieteni şi am avut o conexiune mentală." 208 00:07:59,275 --> 00:08:00,714 Orice ar însemna ... 209 00:08:00,714 --> 00:08:03,961 (Râsete) Sună ciudat. 210 00:08:03,961 --> 00:08:06,676 Dimpotrivă, oamenii cu creierul calculat 211 00:08:06,676 --> 00:08:09,049 au spus ca e ca un ucenic leneş. 212 00:08:09,049 --> 00:08:11,750 A făcut doar ce trebuia să facă şi nimic mai mult. 213 00:08:11,750 --> 00:08:14,307 E exact ce te-ai aștepta să facă un robot. 214 00:08:14,307 --> 00:08:16,742 Am fost surprins că oamenii au avut așteptari mai mari de la roboţi, 215 00:08:16,742 --> 00:08:21,886 decât ceea ce oricine în robotică se aștepta de la roboți. 216 00:08:21,886 --> 00:08:23,856 Şi într-un fel, m-am gândit, poate că e timpul 217 00:08:23,856 --> 00:08:26,717 la fel cum teatrul metodic a schimbat 218 00:08:26,717 --> 00:08:28,149 gândirea oamenilor despre teatru în secolul XIX, 219 00:08:28,149 --> 00:08:29,992 trecând de la un mod foarte calculat, 220 00:08:29,992 --> 00:08:31,774 și planificat de a se comporta, 221 00:08:31,774 --> 00:08:35,295 la un mod mai intuitiv, asumându-și riscuri. 222 00:08:35,295 --> 00:08:36,699 Poate e timpul pentru roboți 223 00:08:36,699 --> 00:08:39,845 să aibă acelaşi fel de revoluţie. 224 00:08:39,845 --> 00:08:40,966 Câţiva ani mai târziu, 225 00:08:40,966 --> 00:08:43,474 eram în postul meu de cercetare la Georgia Tech în Atlanta, 226 00:08:43,474 --> 00:08:44,539 şi lucram într-un grup 227 00:08:44,539 --> 00:08:45,821 care se ocupa cu muzicieni robotizați. 228 00:08:45,821 --> 00:08:48,662 Şi m-am gândit, muzica e locul perfect 229 00:08:48,662 --> 00:08:51,059 să integrăm munca în echipă, coordonarea, 230 00:08:51,059 --> 00:08:52,948 sincronizarea, improvizaţia 231 00:08:52,948 --> 00:08:55,484 şi am conceput un robot care juca marimba. 232 00:08:55,484 --> 00:08:57,499 Marimba, pentru toți care, ca mine, n-au știut, 233 00:08:57,499 --> 00:09:00,344 este un xilofon imens, din lemn. 234 00:09:00,344 --> 00:09:03,039 Şi, când l-am cercetat, 235 00:09:03,039 --> 00:09:05,633 m-am uitat la alte lucrări în improvizaţia om-robot. 236 00:09:05,633 --> 00:09:08,012 Da, există alte lucrări în improvizaţia om-robot. 237 00:09:08,012 --> 00:09:10,105 Și păreau ca un joc de şah. 238 00:09:10,105 --> 00:09:11,409 Omul juca, 239 00:09:11,409 --> 00:09:13,989 robotul analiza ceea ce s-a întâmplat, 240 00:09:13,989 --> 00:09:16,201 și își improviza mișcarea. 241 00:09:16,201 --> 00:09:17,868 Asta-i ce numesc muzicienii 242 00:09:17,868 --> 00:09:19,351 o interacţiune apel - răspuns. 243 00:09:19,351 --> 00:09:23,188 Se potriveşte foarte bine cu roboţii şi inteligenţa artificială. 244 00:09:23,188 --> 00:09:25,095 M-am gândit că dacă aș folosi aceleaşi idei 245 00:09:25,095 --> 00:09:28,232 din piesa de teatru şi studiile de muncă în echipă, 246 00:09:28,232 --> 00:09:30,684 poate că pot face roboţi să improvizeze împreună 247 00:09:30,684 --> 00:09:32,305 ca o trupă. 248 00:09:32,305 --> 00:09:36,118 Toată lumea interacționează reciproc, nimeni nu se oprește niciun moment. 249 00:09:36,118 --> 00:09:38,910 Şi aşa, am încercat să fac aceleași lucruri, de data aceasta cu muzică. 250 00:09:38,910 --> 00:09:40,297 unde robotul nu ştie 251 00:09:40,297 --> 00:09:41,272 ce e pe cale să se întâmple. 252 00:09:41,272 --> 00:09:42,545 Doar își mișcă corpul oarecum 253 00:09:42,545 --> 00:09:44,773 şi utilizează oportunităţi pentru a performa, 254 00:09:44,773 --> 00:09:47,494 Face ceea ce profesorul meu de jaz când aveam 17. 255 00:09:47,494 --> 00:09:48,758 Mi-a spus, când improvizezi, 256 00:09:48,758 --> 00:09:50,419 uneori nu ştii ce faci 257 00:09:50,419 --> 00:09:51,434 şi continui să o faci. 258 00:09:51,434 --> 00:09:52,864 Şi aşa am încercat să fac un robot 259 00:09:52,864 --> 00:09:54,809 care nu știe ce face dar continuă să o facă. 260 00:09:54,809 --> 00:09:57,753 Deci să ne uităm câteva secunde la această performanță 261 00:09:57,753 --> 00:10:00,670 în care robotul ascultă un muzician 262 00:10:00,670 --> 00:10:02,473 şi improvizează. 263 00:10:02,473 --> 00:10:04,846 Uitați-vă cum răspunde muzicianul 264 00:10:04,846 --> 00:10:06,633 la ce face robotul, 265 00:10:06,633 --> 00:10:09,453 ajustând în funcție de comportamentul său. 266 00:10:09,453 --> 00:10:13,981 La un moment dat e chiar surprins de ceea ce face robotul. 267 00:10:13,981 --> 00:11:00,056 (Muzică) 268 00:11:00,056 --> 00:11:05,087 (Aplauze) 269 00:11:05,087 --> 00:11:07,073 A fi un muzician nu înseamnă doar a crea sunete, 270 00:11:07,073 --> 00:11:09,459 altfel, nimeni n-ar merge să vadă un show live. 271 00:11:09,459 --> 00:11:11,382 Muzicienii, de asemenea, comunică cu trupurile lor, 272 00:11:11,382 --> 00:11:13,329 cu membrii din trupă, cu publicul, 273 00:11:13,329 --> 00:11:15,492 își folosesc corpul să-şi exprime muzica. 274 00:11:15,492 --> 00:11:17,872 Şi m-am gândit, avem deja un muzician robot pe scenă, 275 00:11:17,872 --> 00:11:20,820 de ce să nu-l facem un muzician cu drepturi depline. 276 00:11:20,820 --> 00:11:23,336 Am început proiectarea unui cap expresiv social 277 00:11:23,336 --> 00:11:24,885 pentru robot. 278 00:11:24,885 --> 00:11:26,712 Capul nu atinge marimba, 279 00:11:26,712 --> 00:11:28,348 ci doar exprimă cum este muzica. 280 00:11:28,348 --> 00:11:31,428 Astea sunt schițe pe şerveţel într-un bar din Atlanta, 281 00:11:31,428 --> 00:11:34,050 periculos situat exact la jumatatea drumului 282 00:11:34,050 --> 00:11:35,502 dintre laborator și casa mea. (Râsete) 283 00:11:35,502 --> 00:11:36,918 Îmi petreceam, în medie, 284 00:11:36,918 --> 00:11:39,846 trei-patru ore pe zi acolo. 285 00:11:39,846 --> 00:11:42,744 Cred. (Râsete) 286 00:11:42,744 --> 00:11:45,723 Şi m-am întors la programele de animaţie am încercat să concep 287 00:11:45,723 --> 00:11:47,905 nu doar cum ar arăta un muzician robotizat, 288 00:11:47,905 --> 00:11:50,713 dar mai ales cum s-ar mișca. 289 00:11:50,713 --> 00:11:54,013 Arată că nu-i place ce cântă cealaltă persoană. 290 00:11:54,013 --> 00:11:56,492 şi poate arăta orice fel de ritm simte 291 00:11:56,492 --> 00:11:58,141 în acel moment. 292 00:11:58,141 --> 00:12:02,668 Am reușit să obținem bani pentru acest robot, ceea ce a fost grozav. 293 00:12:02,668 --> 00:12:04,878 Să vă arat acum acelaşi tip de performanţă, 294 00:12:04,878 --> 00:12:07,220 de data asta cu un cap social expresiv. 295 00:12:07,220 --> 00:12:09,184 Observaţi 296 00:12:09,184 --> 00:12:10,880 cum robotul ne arată într-adevăr 297 00:12:10,880 --> 00:12:12,744 ritmul pe care îl învață de la om. 298 00:12:12,744 --> 00:12:16,760 Dăm omului impresia că robotul știe ce face 299 00:12:16,760 --> 00:12:18,140 și, de asemenea, schimbă mișcările 300 00:12:18,140 --> 00:12:20,680 de îndată își începe propriul solo. 301 00:12:20,680 --> 00:12:24,600 (Muzică) 302 00:12:24,600 --> 00:12:27,501 Acum se uită la mine să se asigure că-l ascult. 303 00:12:27,501 --> 00:12:48,601 (Muzică) 304 00:12:48,601 --> 00:12:52,228 Acum uitați-vă la refrenul final al piesei 305 00:12:52,228 --> 00:12:55,067 şi acum robotul comunică cu propriul corp, 306 00:12:55,067 --> 00:12:57,204 concentrat pe ce vrea să facă. 307 00:12:57,204 --> 00:12:58,816 Când este pregătit 308 00:12:58,816 --> 00:13:02,168 va coordina acordul final cu mine. 309 00:13:02,168 --> 00:13:15,097 (Muzică) 310 00:13:15,128 --> 00:13:20,906 (Aplauze) 311 00:13:20,906 --> 00:13:25,263 Mulţumesc. Sper că vedeţi cât de mult 312 00:13:25,263 --> 00:13:27,944 această parte a corpului care nu atinge instrumentul 313 00:13:27,944 --> 00:13:31,310 de fapt ajută la performanţa muzicală. 314 00:13:31,310 --> 00:13:34,530 La un moment dat, eram în Atlanta, deci, evident, un rapper 315 00:13:34,530 --> 00:13:36,399 urma să intre în laboratorul nostru. 316 00:13:36,399 --> 00:13:38,639 Acest rapper a venit 317 00:13:38,639 --> 00:13:41,212 şi a improvizat puțin cu robotul. 318 00:13:41,212 --> 00:13:43,914 Şi aici puteţi vedea robotul cum 319 00:13:43,914 --> 00:13:45,143 practic răspunde ritmului 320 00:13:45,143 --> 00:13:47,997 și observaţi două lucruri. Primul, cât de irezistibil este 321 00:13:47,997 --> 00:13:50,510 să te alături roboului în timp își mișcă capul. 322 00:13:50,051 --> 00:13:52,412 şi cum doriţi să vă mișcati capul când el o face. 323 00:13:52,412 --> 00:13:56,207 Şi a doua, chiar dacă rapper-ul e concentrat la iPhone, 324 00:13:56,207 --> 00:13:59,121 de îndată ce robotul se întoarce la el, el se întoarce înapoi 325 00:13:59,121 --> 00:14:01,200 chiar dacă e doar în câmpul vizual periferic 326 00:14:01,200 --> 00:14:03,770 în colţul ochiului, e puternic. 327 00:14:03,770 --> 00:14:05,821 Asta pentru că nu putem ignora 328 00:14:05,821 --> 00:14:07,522 lucruri fizice care mișcă în jurul nostru. 329 00:14:07,522 --> 00:14:09,286 Am evoluat așa. 330 00:14:09,286 --> 00:14:12,618 Dacă aveţi o problemă cu partenerii 331 00:14:12,618 --> 00:14:15,489 care se uită la iPhone sau smartphone prea mult, 332 00:14:15,489 --> 00:14:17,082 aţi putea dori să aveți un robot acolo 333 00:14:17,082 --> 00:14:18,636 să le captați atenţia. (Râsete) 334 00:14:18,636 --> 00:14:38,211 (Muzică) 335 00:14:38,211 --> 00:14:44,872 (Aplauze) 336 00:14:44,872 --> 00:14:47,382 Să prezint ultimul robot 337 00:14:47,382 --> 00:14:49,526 la care am lucrat, 338 00:14:49,526 --> 00:14:51,599 care a rezultat din ceva fel de surprinzător: 339 00:14:51,599 --> 00:14:54,634 La un moment dat oamenilor nu le mai pasă de un robot inteligent, 340 00:14:54,634 --> 00:14:56,342 care poate improviza şi asculta, 341 00:14:56,342 --> 00:15:00,750 cu inteligență integrată la care am muncit ani întregi. 342 00:15:00,750 --> 00:15:04,263 Le-a placut că robotul savura muzica. (Râsete) 343 00:15:04,263 --> 00:15:06,668 Ei nu spuneau că robotul se mișca pe muzică, 344 00:15:06,668 --> 00:15:08,340 ci că robotul se bucura de muzică. 345 00:15:08,340 --> 00:15:10,744 Şi ne-am gândit, de ce să nu luăm această idee, 346 00:15:10,744 --> 00:15:13,629 şi am conceput o nouă piesă de mobilier. 347 00:15:13,629 --> 00:15:15,718 De data asta n-a fost o lampă de birou, ci un dock de difuzor. 348 00:15:15,718 --> 00:15:18,826 E unul din acele lucruri la care conectați smartphone-ul. 349 00:15:18,826 --> 00:15:20,545 M-am gândit, ce se va întâmpla 350 00:15:20,545 --> 00:15:23,146 dacă dock-ul n-ar transmite muzica pentru tine, 351 00:15:23,146 --> 00:15:25,657 ci s-ar și bucura de ea. (Râsete) 352 00:15:25,657 --> 00:15:27,434 Iată câteva teste de animaţie 353 00:15:27,434 --> 00:15:31,835 într-un un stadiu incipient. (Râsete) 354 00:15:31,835 --> 00:15:36,005 Şi asta e imaginea produsului final. 355 00:15:47,223 --> 00:16:09,461 Drop it Like it's Hot 356 00:16:09,461 --> 00:16:12,105 Mult bobbing cu capul. 357 00:16:12,105 --> 00:16:15,327 (Aplauze) 358 00:16:15,327 --> 00:16:17,228 Mult dat din cap. 359 00:16:17,228 --> 00:16:20,386 Încă vedem cum roboții influenţează oamenii. 360 00:16:20,386 --> 00:16:23,028 Şi nu e doar distracţie şi jocuri. 361 00:16:23,028 --> 00:16:25,420 Cauza pentru care îmi pasă atât de mult 362 00:16:25,420 --> 00:16:27,214 de roboții care își folosesc corpul pentru a comunica 363 00:16:27,214 --> 00:16:29,407 şi a se mișca... 364 00:16:29,407 --> 00:16:32,640 Să vă spun un mic secret pe care noi roboticienii îl ascundem. 365 00:16:32,640 --> 00:16:35,001 Fiecare dintre voi va trăi cu un robot 366 00:16:35,001 --> 00:16:37,254 la un moment dat în viaţă. 367 00:16:37,254 --> 00:16:39,550 Undeva în viitorul tău va fi un robot în viaţa ta. 368 00:16:39,550 --> 00:16:41,678 Şi, dacă nu în a ta, atunci în viaţa copiilor tăi. 369 00:16:41,678 --> 00:16:43,467 Vreau ca acești roboți să fie 370 00:16:43,467 --> 00:16:46,961 mai fluenți, mai interesanți, mai grațioși 371 00:16:46,961 --> 00:16:48,749 decât par în prezent. 372 00:16:48,749 --> 00:16:50,668 Pentru asta, roboţii 373 00:16:50,668 --> 00:16:52,034 trebuie să fie mai puţin ca jucătorii de şah, 374 00:16:52,034 --> 00:16:54,744 mai mult ca actorii și ca muzicienii. 375 00:16:54,744 --> 00:16:57,683 Poate că ar trebui să riște și să improvizeze. 376 00:16:57,683 --> 00:17:00,180 Poate ar trebui să anticipeze ce sunteţi pe cale să faceți. 377 00:17:00,180 --> 00:17:02,756 Şi poate că trebuie să poată face greşeli 378 00:17:02,756 --> 00:17:03,979 şi să le corecteze, 379 00:17:03,979 --> 00:17:06,015 pentru că în final suntem oameni. 380 00:17:06,015 --> 00:17:09,386 Și roboţii, fiind mai puţin decât perfecți, 381 00:17:09,386 --> 00:17:11,252 sunt perfecți pentru noi. 382 00:17:11,252 --> 00:17:12,766 Vă mulţumesc. 383 00:17:12,766 --> 00:17:16,188 (Aplauze)