1 00:00:00,796 --> 00:00:04,573 Emoțiile influențează fiecare aspect al vieții noastre, 2 00:00:04,573 --> 00:00:08,149 de la sănătate și învățătură, la cum facem afaceri și cum luăm decizii, 3 00:00:08,149 --> 00:00:09,922 mari sau mici. 4 00:00:10,672 --> 00:00:14,162 Emoțiile influențează modul în care relaționăm unii cu ceilalți. 5 00:00:15,132 --> 00:00:18,198 Am evoluat pentru a trăi într-o lume ca aceasta. 6 00:00:18,938 --> 00:00:23,427 Dar în loc viețile noastre arată tot mai mult așa 7 00:00:23,427 --> 00:00:27,021 – e un mesaj primit de la fiica mea aseară – 8 00:00:27,021 --> 00:00:29,301 o lume lipsită de emoții. 9 00:00:29,301 --> 00:00:31,252 Misiunea mea e să schimb asta. 10 00:00:31,252 --> 00:00:35,863 Vreau să aduc emoțiile înapoi în lumea digitală. 11 00:00:36,483 --> 00:00:38,870 Am început acest drum acum 15 ani. 12 00:00:38,870 --> 00:00:41,546 Lucram în informatică, în Egipt, 13 00:00:41,546 --> 00:00:45,871 și tocmai fusesem acceptată la un doctorat la Universitatea Cambridge. 14 00:00:45,871 --> 00:00:47,984 Așa că am făcut ceva neobișnuit 15 00:00:47,984 --> 00:00:52,349 pentru o proaspăt căsătorită tânără musulmană din Egipt: 16 00:00:52,349 --> 00:00:53,729 (Râsete) 17 00:00:53,729 --> 00:00:56,598 cu ajutorul soțului meu, care a trebuit să rămână în Egipt, 18 00:00:56,598 --> 00:00:59,616 mi-am făcut bagajele și m-am mutat în Anglia. 19 00:00:59,616 --> 00:01:02,844 La Cambridge, mii de kilometri departe de casă, 20 00:01:02,844 --> 00:01:05,887 am observat că petrec mai multe ore cu laptopul meu 21 00:01:05,887 --> 00:01:07,876 decât cu alți oameni. 22 00:01:08,486 --> 00:01:13,339 Dar în ciuda acestei intimități, laptopul n-avea idee cum mă simt. 23 00:01:13,339 --> 00:01:16,550 Nu știa dacă sunt fericită, 24 00:01:16,550 --> 00:01:19,628 dacă am o zi proastă, dacă sunt stresată sau dezorientată, 25 00:01:19,628 --> 00:01:22,460 iar asta era enervant. 26 00:01:23,530 --> 00:01:29,271 Mai rău, când comunicam pe internet cu familia mea rămasă acasă 27 00:01:29,271 --> 00:01:32,703 simțeam că toate emoțiile mele dispar în spațiul virtual. 28 00:01:32,703 --> 00:01:37,858 Îmi era dor de casă, mă simțeam singură și în unele zile chiar plângeam, 29 00:01:37,858 --> 00:01:42,526 dar tot ce puteam folosi pentru a-mi comunica emoțiile era... asta. 30 00:01:43,006 --> 00:01:44,806 (Râsete) 31 00:01:44,806 --> 00:01:49,030 Tehnologia de azi e foarte inteligentă, dar nu și emoțională; 32 00:01:49,030 --> 00:01:53,136 multă inteligență cognitivă, dar nu și inteligență emoțională. 33 00:01:53,136 --> 00:01:55,033 Asta m-a pus pe gânduri: 34 00:01:55,033 --> 00:01:59,107 ce-ar fi dacă tehnologia ne-ar putea simți emoțiile? 35 00:01:59,107 --> 00:02:02,853 Ce-ar fi dacă dispozitivele ar ști ce simțim și ar reacționa în concordanță, 36 00:02:02,853 --> 00:02:05,866 la fel ca un prieten cu inteligență emoțională? 37 00:02:06,666 --> 00:02:10,060 Aceste întrebări ne-au impulsionat pe mine și echipa mea 38 00:02:10,060 --> 00:02:14,607 să creăm tehnologii care să citească și să răspundă la emoțiile noastre. 39 00:02:14,607 --> 00:02:17,787 Iar punctul nostru de start a fost chipul uman. 40 00:02:18,577 --> 00:02:21,900 Chipul nostru e cel mai bun canal 41 00:02:21,900 --> 00:02:25,766 cu care transmitem stări sociale și emoționale, 42 00:02:25,766 --> 00:02:29,196 totul: bucurie, surpriză, 43 00:02:29,196 --> 00:02:32,979 empatie și curiozitate. 44 00:02:32,979 --> 00:02:37,957 În știința emoțiilor, fiecare mișcare a mușchilor feței e o unitate de acțiune. 45 00:02:37,957 --> 00:02:40,342 De exemplu, unitatea de acțiune 12 46 00:02:40,342 --> 00:02:42,720 – nu garantează succesul la Hollywood – 47 00:02:42,720 --> 00:02:45,992 e o ridicare a colțului buzei, componenta principală a zâmbetului. 48 00:02:45,992 --> 00:02:48,910 Încercați. Hai să vedem niște zâmbete. 49 00:02:48,910 --> 00:02:51,954 Un alt exemplu e unitatea 4: ridurile frunții. 50 00:02:51,954 --> 00:02:55,742 E atunci când îți apropii sprâncenele și creezi textura aceea ridată. 51 00:02:55,742 --> 00:02:59,904 Nu ne place, dar este un indicator puternic a unei emoții negative. 52 00:02:59,904 --> 00:03:02,540 Avem vreo 45 de astfel de unități, 53 00:03:02,540 --> 00:03:06,350 care se combină pentru a exprima sute de emoții. 54 00:03:06,350 --> 00:03:10,251 E greu să înveți un calculator să recunoască emoțiile, 55 00:03:10,251 --> 00:03:13,223 deoarece aceste unități pot fi rapide, subtile, 56 00:03:13,223 --> 00:03:15,617 și se combină în multe moduri. 57 00:03:15,617 --> 00:03:19,515 Spre exemplu, zâmbetul și strâmbătura. 58 00:03:19,515 --> 00:03:23,268 Seamănă cumva, dar reprezintă lucruri foarte diferite. 59 00:03:23,268 --> 00:03:24,986 (Râsete) 60 00:03:24,986 --> 00:03:27,210 Zâmbetul e pozitiv, 61 00:03:27,210 --> 00:03:28,840 strâmbătura e adesea negativă. 62 00:03:28,840 --> 00:03:32,546 Uneori strâmbătura te poate face celebru. 63 00:03:33,266 --> 00:03:38,500 Dar e important pentru un calculator să poată face diferența între cele două. 64 00:03:38,500 --> 00:03:40,237 Cum facem asta? 65 00:03:40,237 --> 00:03:42,124 Oferim algoritmilor noștri 66 00:03:42,124 --> 00:03:46,524 zeci de mii de exemple de oameni despre care știm că zâmbesc, 67 00:03:46,524 --> 00:03:49,589 din diferite etnii, vârste, sexe, 68 00:03:49,589 --> 00:03:52,050 și la fel pentru strâmbături. 69 00:03:52,050 --> 00:03:53,894 Apoi, folosind învățarea profundă, 70 00:03:53,894 --> 00:03:56,810 algoritmul caută aceste texturi și riduri 71 00:03:56,810 --> 00:03:59,220 și schimbările de formă de pe fața noastră, 72 00:03:59,220 --> 00:04:02,802 învățând astfel că toate zâmbetele au caracteristici comune 73 00:04:02,802 --> 00:04:05,703 și că strâmbăturile au caracteristici ușor diferite. 74 00:04:05,703 --> 00:04:08,141 Iar data următoare când vede o față 75 00:04:08,141 --> 00:04:10,580 învață că 76 00:04:10,580 --> 00:04:13,473 această față are aceleași caracteristici ale unui zâmbet 77 00:04:13,473 --> 00:04:17,051 și spune: „Aha, recunosc asta, e expresia unui zâmbet.” 78 00:04:18,561 --> 00:04:23,331 Cel mai bun mod de a ilustra tehnologia e să încercăm o demonstrație în direct. 79 00:04:23,331 --> 00:04:27,230 Am nevoie de un voluntar, preferabil cineva cu o față. 80 00:04:27,230 --> 00:04:29,564 (Râsete) 81 00:04:29,564 --> 00:04:32,335 Cloe va fi voluntarul nostru azi. 82 00:04:33,325 --> 00:04:38,923 În ultimii cinci ani, dintr-un proiect de cercetare la MIT am devenit o firmă, 83 00:04:38,923 --> 00:04:42,031 unde echipa mea s-a străduit să facă tehnologia să meargă, 84 00:04:42,031 --> 00:04:44,070 cum spunem noi, în „sălbăticie”. 85 00:04:44,070 --> 00:04:49,130 În plus am comprimat-o încât nucleul ei să meargă pe orice dispozitiv cu o cameră, 86 00:04:49,130 --> 00:04:50,650 ca acest iPad. 87 00:04:50,650 --> 00:04:53,316 Hai să încercăm. 88 00:04:54,756 --> 00:04:58,680 După cum puteți vedea, algoritmul a găsit fața lui Cloe, 89 00:04:58,680 --> 00:05:00,152 acest dreptunghi alb, 90 00:05:00,152 --> 00:05:02,753 și urmărește punctele reprezentative ale feței: 91 00:05:02,753 --> 00:05:05,799 sprâncenele, ochii, gura și nasul. 92 00:05:05,799 --> 00:05:08,346 Întrebarea este: îi poate recunoaște expresia? 93 00:05:08,346 --> 00:05:09,897 Hai să testăm mașina. 94 00:05:09,897 --> 00:05:11,907 Mai întâi arată-mi o față neutră. 95 00:05:11,907 --> 00:05:13,323 Da, super. 96 00:05:13,323 --> 00:05:14,903 (Râsete) 97 00:05:14,903 --> 00:05:17,726 Pe măsură ce zâmbește – un zâmbet autentic, super – 98 00:05:17,726 --> 00:05:19,716 vedeți cum crește bara verde. 99 00:05:19,716 --> 00:05:22,168 A fost un zâmbet mare, poți încerca unul subtil 100 00:05:22,168 --> 00:05:24,051 să vedem dacă îl recunoaște? 101 00:05:24,051 --> 00:05:27,637 Recunoaște și zâmbete subtile, ne-am străduit mult să iasă asta. 102 00:05:27,637 --> 00:05:31,439 Și acum sprâncenele ridicate, indicatorul surprizei. 103 00:05:31,439 --> 00:05:35,688 Acum riduri pe frunte, indicatorul confuziei. 104 00:05:35,688 --> 00:05:37,695 Încruntă-te. 105 00:05:37,695 --> 00:05:39,715 Da, perfect. 106 00:05:39,715 --> 00:05:42,748 Ați văzut diferite unități de acțiune, mai sunt multe, 107 00:05:42,748 --> 00:05:44,980 acesta e doar un demo redus. 108 00:05:44,980 --> 00:05:48,588 Fiecare citire o numim „valoare măsurată a emoției”; 109 00:05:48,588 --> 00:05:51,287 ele pot acționa împreună, creând diferite emoții. 110 00:05:51,287 --> 00:05:53,420 Pe dreapta... 111 00:05:53,420 --> 00:05:55,070 Mimează fericirea. 112 00:05:55,070 --> 00:05:57,444 Asta e bucuria, se aprinde. 113 00:05:57,444 --> 00:05:59,291 Acum arată-mi o față dezgustată. 114 00:05:59,291 --> 00:06:03,643 Gândește-te cum a fost când a plecat Zayn de la One Direction. 115 00:06:03,643 --> 00:06:05,043 (Râsete) 116 00:06:05,043 --> 00:06:09,495 Da, încrețește-ți nasul. Super. 117 00:06:09,495 --> 00:06:12,926 Valența e destul de negativă, deci probabil i-ai fost mare fan. 118 00:06:12,926 --> 00:06:15,926 Valența arată cât de pozitivă sau negativă e o experiență, 119 00:06:15,926 --> 00:06:18,712 iar angajamentul arată cât e de expresivă. 120 00:06:18,712 --> 00:06:22,126 Imaginați-vă că Cloe ar avea acces în timp real la fluxul de emoții 121 00:06:22,126 --> 00:06:24,935 și că ar putea trimite emoții oricui. 122 00:06:24,935 --> 00:06:26,868 Mulțumesc. 123 00:06:26,868 --> 00:06:29,659 (Aplauze) 124 00:06:33,819 --> 00:06:38,729 Până acum am strâns 12 miliarde de valori măsurate ale emoției; 125 00:06:38,729 --> 00:06:41,190 e cea mai mare bază de date de emoții din lume. 126 00:06:41,190 --> 00:06:44,853 Am colectat-o din 2,9 milioane de videoclipuri cu fețe, 127 00:06:44,853 --> 00:06:47,943 oameni care au fost de acord să ne transmită emoțiile, 128 00:06:47,943 --> 00:06:50,198 din 75 de țări din toată lumea. 129 00:06:50,198 --> 00:06:52,113 Și crește în fiecare zi. 130 00:06:52,603 --> 00:06:58,110 Sunt uimită că am reușit să cuantificăm ceva atât de personal cum sunt emoțiile, 131 00:06:58,110 --> 00:07:00,100 la o scară atât de mare. 132 00:07:00,100 --> 00:07:02,207 Ce am învățat până acum? 133 00:07:03,057 --> 00:07:04,518 Sexul. 134 00:07:05,388 --> 00:07:08,834 Datele noastre confirmă ceva ce ați putea bănui: 135 00:07:08,834 --> 00:07:10,881 femeile sunt mai expresive decât bărbații: 136 00:07:10,881 --> 00:07:13,564 zâmbetele lor sunt mai intense și durează mai mult, 137 00:07:13,564 --> 00:07:18,628 iar acum putem cuantifica la ce anume reacționează diferit bărbații și femeile. 138 00:07:18,628 --> 00:07:20,904 Să vorbim puțin de cultură: în SUA 139 00:07:20,904 --> 00:07:23,928 femeile sunt cu 40% mai expresive decât bărbații, 140 00:07:23,928 --> 00:07:27,963 dar, surprinzător, diferența asta nu există în Regatul Unit. 141 00:07:27,963 --> 00:07:29,879 (Râsete) 142 00:07:31,346 --> 00:07:35,323 Vârstă: oamenii peste 50 de ani 143 00:07:35,323 --> 00:07:38,759 sunt cu 25% mai emotivi decât cei mai tineri. 144 00:07:39,439 --> 00:07:43,751 La 20–30 de ani femeile zâmbesc mult mai mult decât bărbații, 145 00:07:43,751 --> 00:07:46,580 poate din nevoia de a-și găsi pe cineva. 146 00:07:47,500 --> 00:07:51,157 Dar ce ne-a surprins cel mai mult în aceste date 147 00:07:51,157 --> 00:07:53,270 e faptul că suntem expresivi mereu, 148 00:07:53,270 --> 00:07:56,243 chiar și când stăm singuri în fața dispozitivelor 149 00:07:56,243 --> 00:07:59,517 și nu doar când ne uităm la filmulețe cu pisici pe Facebook. 150 00:08:00,217 --> 00:08:03,227 Suntem expresivi când scriem mesaje, când cumpărăm online, 151 00:08:03,227 --> 00:08:05,797 chiar și când ne plătim impozitele. 152 00:08:05,797 --> 00:08:07,919 La ce sunt folosite azi aceste date? 153 00:08:07,919 --> 00:08:10,166 La a înțelege cum interacționăm cu media, 154 00:08:10,166 --> 00:08:13,076 cu conținutul viral și comportamentul votanților, 155 00:08:13,076 --> 00:08:16,447 dar și la a dezvolta planul emotiv al tehnologiei. 156 00:08:16,447 --> 00:08:20,405 Și aș vrea să vă arăt câteva exemple la care țin foarte mult. 157 00:08:21,195 --> 00:08:24,303 Ochelarii cu funcții emotive pot ajuta indivizii 158 00:08:24,303 --> 00:08:27,470 care au probleme cu vederea să citească fețele celorlalți 159 00:08:27,470 --> 00:08:31,128 și-i poate ajuta pe autiștii de diverse grade să interpreteze emoția, 160 00:08:31,128 --> 00:08:33,577 lucru care pentru ei e complicat. 161 00:08:35,577 --> 00:08:38,767 În educație, imaginați-vă că aplicațiile de învățare 162 00:08:38,767 --> 00:08:41,284 vă percep confuzia, și atunci încetinesc, 163 00:08:41,284 --> 00:08:43,403 sau plictiseala, și atunci grăbesc pasul, 164 00:08:43,403 --> 00:08:46,124 cum ar face un profesor bun în clasă. 165 00:08:46,834 --> 00:08:49,637 Ce ar fi dacă ceasul v-ar simți starea 166 00:08:49,637 --> 00:08:52,325 sau dacă mașina ar simți că sunteți obosiți, 167 00:08:52,325 --> 00:08:55,011 sau poate frigiderul simte că sunteți stresat 168 00:08:55,011 --> 00:08:59,058 și se încuie ca să nu mâncați frenetic? (Râsete) 169 00:08:59,058 --> 00:09:01,525 Mi-ar plăcea asta, da! 170 00:09:03,575 --> 00:09:07,598 Cum ar fi fost dacă la Cambridge aș fi avut acces la acest sistem 171 00:09:07,598 --> 00:09:11,718 și aș fi putut să le transmit rudelor emoțiile, într-un mod natural, 172 00:09:11,718 --> 00:09:14,910 ca și când aș fi fost în aceeași cameră cu ei? 173 00:09:15,450 --> 00:09:18,117 Cred că în viitorii cinci ani 174 00:09:18,117 --> 00:09:21,011 toate dispozitivele vor avea un cip al emoțiilor 175 00:09:21,011 --> 00:09:25,000 și nici nu ne vom aduce aminte cum era când nu te puteai încrunta la dispozitiv 176 00:09:25,000 --> 00:09:28,711 ca să-și dea seama dintr-o privire: „Hmm, nu ți-a plăcut, nu?” 177 00:09:29,191 --> 00:09:32,724 Cea mai mare dificultate e că tehnologia are așa multe aplicații 178 00:09:32,724 --> 00:09:35,840 încât eu și echipa mea înțelegem că nu putem face noi totul, 179 00:09:35,840 --> 00:09:37,904 așa că am făcut tehnologia disponibilă, 180 00:09:37,904 --> 00:09:41,680 pentru ca dezvoltatorii să înceapă să construiască și să creeze. 181 00:09:41,680 --> 00:09:45,507 Ne dăm seama că există riscuri 182 00:09:45,507 --> 00:09:47,596 și potențial pentru abuzuri, 183 00:09:47,596 --> 00:09:50,378 dar personal, după ce am petrecut mulți ani făcând asta, 184 00:09:50,378 --> 00:09:53,123 cred că beneficiile pe care le poate avea omenirea 185 00:09:53,123 --> 00:09:55,649 din tehnologiile cu inteligență emoțională 186 00:09:55,649 --> 00:09:58,730 depășesc cu mult riscurile de abuz. 187 00:09:59,210 --> 00:10:01,804 Așa că vă invit să participați. 188 00:10:01,804 --> 00:10:04,381 Cu cât știe mai multă lume de această tehnologie, 189 00:10:04,381 --> 00:10:08,225 cu atât avem un cuvânt mai greu în cum e ea folosită. 190 00:10:09,095 --> 00:10:13,603 Pe măsură ce viața noastră devine digitală 191 00:10:13,603 --> 00:10:17,342 ne chinuim inutil să ne folosim mai puțin dispozitivele 192 00:10:17,342 --> 00:10:19,626 pentru a ne revendica emoțiile. 193 00:10:20,436 --> 00:10:24,625 Ceea ce încerc eu e să aduc emoțiile înapoi în tehnologie, 194 00:10:24,625 --> 00:10:26,725 să ameliorez reacțiile tehnologiilor. 195 00:10:26,725 --> 00:10:29,377 Visez ca aceste dispozitive care ne-au despărțit 196 00:10:29,377 --> 00:10:31,365 să ne reunească. 197 00:10:32,205 --> 00:10:36,482 Umanizând tehnologia avem imensa șansă 198 00:10:36,482 --> 00:10:40,203 de a reimagina modul în care ne conectăm cu mașinile, 199 00:10:40,203 --> 00:10:44,227 și prin asta și modul în care noi, ca ființe umane, 200 00:10:44,227 --> 00:10:45,832 ne conectăm între noi. 201 00:10:46,152 --> 00:10:47,343 Mulțumesc. 202 00:10:47,343 --> 00:10:50,303 (Aplauze)