0:00:00.796,0:00:04.573 Emoțiile influențează fiecare[br]aspect al vieții noastre, 0:00:04.573,0:00:08.149 de la sănătate și învățătură, [br]la cum facem afaceri și cum luăm decizii, 0:00:08.149,0:00:09.922 mari sau mici. 0:00:10.672,0:00:14.162 Emoțiile influențează modul în care [br]relaționăm unii cu ceilalți. 0:00:15.132,0:00:18.198 Am evoluat pentru a trăi [br]într-o lume ca aceasta. 0:00:18.938,0:00:23.427 Dar în loc viețile noastre[br]arată tot mai mult așa 0:00:23.427,0:00:27.021 – e un mesaj primit [br]de la fiica mea aseară – 0:00:27.021,0:00:29.301 o lume lipsită de emoții. 0:00:29.301,0:00:31.252 Misiunea mea e să schimb asta. 0:00:31.252,0:00:35.863 Vreau să aduc emoțiile înapoi [br]în lumea digitală. 0:00:36.483,0:00:38.870 Am început acest drum acum 15 ani. 0:00:38.870,0:00:41.546 Lucram în informatică, în Egipt, 0:00:41.546,0:00:45.871 și tocmai fusesem acceptată la un doctorat[br]la Universitatea Cambridge. 0:00:45.871,0:00:47.984 Așa că am făcut ceva neobișnuit 0:00:47.984,0:00:52.349 pentru o proaspăt căsătorită[br]tânără musulmană din Egipt: 0:00:52.349,0:00:53.729 (Râsete) 0:00:53.729,0:00:56.598 cu ajutorul soțului meu, [br]care a trebuit să rămână în Egipt, 0:00:56.598,0:00:59.616 mi-am făcut bagajele[br]și m-am mutat în Anglia. 0:00:59.616,0:01:02.844 La Cambridge, [br]mii de kilometri departe de casă, 0:01:02.844,0:01:05.887 am observat că petrec[br]mai multe ore cu laptopul meu 0:01:05.887,0:01:07.876 decât cu alți oameni. 0:01:08.486,0:01:13.339 Dar în ciuda acestei intimități, [br]laptopul n-avea idee cum mă simt. 0:01:13.339,0:01:16.550 Nu știa dacă sunt fericită, 0:01:16.550,0:01:19.628 dacă am o zi proastă, [br]dacă sunt stresată sau dezorientată, 0:01:19.628,0:01:22.460 iar asta era enervant. 0:01:23.530,0:01:29.271 Mai rău, când comunicam pe internet[br]cu familia mea rămasă acasă 0:01:29.271,0:01:32.703 simțeam că toate emoțiile mele[br]dispar în spațiul virtual. 0:01:32.703,0:01:37.858 Îmi era dor de casă, mă simțeam singură[br]și în unele zile chiar plângeam, 0:01:37.858,0:01:42.526 dar tot ce puteam folosi pentru a-mi [br]comunica emoțiile era... asta. 0:01:43.006,0:01:44.806 (Râsete) 0:01:44.806,0:01:49.030 Tehnologia de azi e foarte inteligentă,[br]dar nu și emoțională; 0:01:49.030,0:01:53.136 multă inteligență cognitivă,[br]dar nu și inteligență emoțională. 0:01:53.136,0:01:55.033 Asta m-a pus pe gânduri: 0:01:55.033,0:01:59.107 ce-ar fi dacă tehnologia[br]ne-ar putea simți emoțiile? 0:01:59.107,0:02:02.853 Ce-ar fi dacă dispozitivele ar ști ce simțim[br]și ar reacționa în concordanță, 0:02:02.853,0:02:05.866 la fel ca un prieten[br]cu inteligență emoțională? 0:02:06.666,0:02:10.060 Aceste întrebări ne-au impulsionat[br]pe mine și echipa mea 0:02:10.060,0:02:14.607 să creăm tehnologii care să citească[br]și să răspundă la emoțiile noastre. 0:02:14.607,0:02:17.787 Iar punctul nostru de start[br]a fost chipul uman. 0:02:18.577,0:02:21.900 Chipul nostru e cel mai bun canal 0:02:21.900,0:02:25.766 cu care transmitem[br]stări sociale și emoționale, 0:02:25.766,0:02:29.196 totul: bucurie, surpriză, 0:02:29.196,0:02:32.979 empatie și curiozitate. 0:02:32.979,0:02:37.957 În știința emoțiilor, fiecare mișcare[br]a mușchilor feței e o unitate de acțiune. 0:02:37.957,0:02:40.342 De exemplu, unitatea de acțiune 12 0:02:40.342,0:02:42.720 – nu garantează succesul la Hollywood – 0:02:42.720,0:02:45.992 e o ridicare a colțului buzei,[br]componenta principală a zâmbetului. 0:02:45.992,0:02:48.910 Încercați. Hai să vedem niște zâmbete. 0:02:48.910,0:02:51.954 Un alt exemplu e unitatea 4:[br]ridurile frunții. 0:02:51.954,0:02:55.742 E atunci când îți apropii sprâncenele[br]și creezi textura aceea ridată. 0:02:55.742,0:02:59.904 Nu ne place, dar este un indicator[br]puternic a unei emoții negative. 0:02:59.904,0:03:02.540 Avem vreo 45 de astfel de unități, 0:03:02.540,0:03:06.350 care se combină pentru a exprima[br]sute de emoții. 0:03:06.350,0:03:10.251 E greu să înveți un calculator[br]să recunoască emoțiile, 0:03:10.251,0:03:13.223 deoarece aceste unități[br]pot fi rapide, subtile, 0:03:13.223,0:03:15.617 și se combină în multe moduri. 0:03:15.617,0:03:19.515 Spre exemplu, zâmbetul și strâmbătura. 0:03:19.515,0:03:23.268 Seamănă cumva, dar reprezintă[br]lucruri foarte diferite. 0:03:23.268,0:03:24.986 (Râsete) 0:03:24.986,0:03:27.210 Zâmbetul e pozitiv, 0:03:27.210,0:03:28.840 strâmbătura e adesea negativă. 0:03:28.840,0:03:32.546 Uneori strâmbătura te poate face celebru. 0:03:33.266,0:03:38.500 Dar e important pentru un calculator[br]să poată face diferența între cele două. 0:03:38.500,0:03:40.237 Cum facem asta? 0:03:40.237,0:03:42.124 Oferim algoritmilor noștri 0:03:42.124,0:03:46.524 zeci de mii de exemple de oameni[br]despre care știm că zâmbesc, 0:03:46.524,0:03:49.589 din diferite etnii, vârste, sexe, 0:03:49.589,0:03:52.050 și la fel pentru strâmbături. 0:03:52.050,0:03:53.894 Apoi, folosind învățarea profundă, 0:03:53.894,0:03:56.810 algoritmul caută aceste texturi și riduri 0:03:56.810,0:03:59.220 și schimbările de formă[br]de pe fața noastră, 0:03:59.220,0:04:02.802 învățând astfel că toate zâmbetele[br]au caracteristici comune 0:04:02.802,0:04:05.703 și că strâmbăturile[br]au caracteristici ușor diferite. 0:04:05.703,0:04:08.141 Iar data următoare când vede o față 0:04:08.141,0:04:10.580 învață că 0:04:10.580,0:04:13.473 această față are aceleași[br]caracteristici ale unui zâmbet 0:04:13.473,0:04:17.051 și spune: „Aha, recunosc asta,[br]e expresia unui zâmbet.” 0:04:18.561,0:04:23.331 Cel mai bun mod de a ilustra tehnologia[br]e să încercăm o demonstrație în direct. 0:04:23.331,0:04:27.230 Am nevoie de un voluntar,[br]preferabil cineva cu o față. 0:04:27.230,0:04:29.564 (Râsete) 0:04:29.564,0:04:32.335 Cloe va fi voluntarul nostru azi. 0:04:33.325,0:04:38.923 În ultimii cinci ani, dintr-un proiect[br]de cercetare la MIT am devenit o firmă, 0:04:38.923,0:04:42.031 unde echipa mea s-a străduit să facă[br]tehnologia să meargă, 0:04:42.031,0:04:44.070 cum spunem noi, în „sălbăticie”. 0:04:44.070,0:04:49.130 În plus am comprimat-o încât nucleul ei[br]să meargă pe orice dispozitiv cu o cameră, 0:04:49.130,0:04:50.650 ca acest iPad. 0:04:50.650,0:04:53.316 Hai să încercăm. 0:04:54.756,0:04:58.680 După cum puteți vedea,[br]algoritmul a găsit fața lui Cloe, 0:04:58.680,0:05:00.152 acest dreptunghi alb, 0:05:00.152,0:05:02.753 și urmărește punctele[br]reprezentative ale feței: 0:05:02.753,0:05:05.799 sprâncenele, ochii, gura și nasul. 0:05:05.799,0:05:08.346 Întrebarea este:[br]îi poate recunoaște expresia? 0:05:08.346,0:05:09.897 Hai să testăm mașina. 0:05:09.897,0:05:11.907 Mai întâi arată-mi o față neutră. 0:05:11.907,0:05:13.323 Da, super. 0:05:13.323,0:05:14.903 (Râsete) 0:05:14.903,0:05:17.726 Pe măsură ce zâmbește[br]– un zâmbet autentic, super – 0:05:17.726,0:05:19.716 vedeți cum crește bara verde. 0:05:19.716,0:05:22.168 A fost un zâmbet mare,[br]poți încerca unul subtil 0:05:22.168,0:05:24.051 să vedem dacă îl recunoaște? 0:05:24.051,0:05:27.637 Recunoaște și zâmbete subtile,[br]ne-am străduit mult să iasă asta. 0:05:27.637,0:05:31.439 Și acum sprâncenele ridicate,[br]indicatorul surprizei. 0:05:31.439,0:05:35.688 Acum riduri pe frunte,[br]indicatorul confuziei. 0:05:35.688,0:05:37.695 Încruntă-te. 0:05:37.695,0:05:39.715 Da, perfect. 0:05:39.715,0:05:42.748 Ați văzut diferite unități de acțiune,[br]mai sunt multe, 0:05:42.748,0:05:44.980 acesta e doar un demo redus. 0:05:44.980,0:05:48.588 Fiecare citire o numim[br]„valoare măsurată a emoției”; 0:05:48.588,0:05:51.287 ele pot acționa împreună,[br]creând diferite emoții. 0:05:51.287,0:05:53.420 Pe dreapta... 0:05:53.420,0:05:55.070 Mimează fericirea. 0:05:55.070,0:05:57.444 Asta e bucuria, se aprinde. 0:05:57.444,0:05:59.291 Acum arată-mi o față dezgustată. 0:05:59.291,0:06:03.643 Gândește-te cum a fost[br]când a plecat Zayn de la One Direction. 0:06:03.643,0:06:05.043 (Râsete) 0:06:05.043,0:06:09.495 Da, încrețește-ți nasul. Super. 0:06:09.495,0:06:12.926 Valența e destul de negativă, [br]deci probabil i-ai fost mare fan. 0:06:12.926,0:06:15.926 Valența arată cât de pozitivă[br]sau negativă e o experiență, 0:06:15.926,0:06:18.712 iar angajamentul arată[br]cât e de expresivă. 0:06:18.712,0:06:22.126 Imaginați-vă că Cloe ar avea acces [br]în timp real la fluxul de emoții 0:06:22.126,0:06:24.935 și că ar putea trimite[br]emoții oricui. 0:06:24.935,0:06:26.868 Mulțumesc. 0:06:26.868,0:06:29.659 (Aplauze) 0:06:33.819,0:06:38.729 Până acum am strâns 12 miliarde[br]de valori măsurate ale emoției; 0:06:38.729,0:06:41.190 e cea mai mare bază de date [br]de emoții din lume. 0:06:41.190,0:06:44.853 Am colectat-o din 2,9 milioane[br]de videoclipuri cu fețe, 0:06:44.853,0:06:47.943 oameni care au fost de acord[br]să ne transmită emoțiile, 0:06:47.943,0:06:50.198 din 75 de țări din toată lumea. 0:06:50.198,0:06:52.113 Și crește în fiecare zi. 0:06:52.603,0:06:58.110 Sunt uimită că am reușit să cuantificăm[br]ceva atât de personal cum sunt emoțiile, 0:06:58.110,0:07:00.100 la o scară atât de mare. 0:07:00.100,0:07:02.207 Ce am învățat până acum? 0:07:03.057,0:07:04.518 Sexul. 0:07:05.388,0:07:08.834 Datele noastre confirmă ceva [br]ce ați putea bănui: 0:07:08.834,0:07:10.881 femeile sunt mai expresive decât bărbații: 0:07:10.881,0:07:13.564 zâmbetele lor sunt mai intense[br]și durează mai mult, 0:07:13.564,0:07:18.628 iar acum putem cuantifica la ce anume[br]reacționează diferit bărbații și femeile. 0:07:18.628,0:07:20.904 Să vorbim puțin de cultură: în SUA 0:07:20.904,0:07:23.928 femeile sunt cu 40% mai expresive [br]decât bărbații, 0:07:23.928,0:07:27.963 dar, surprinzător,[br]diferența asta nu există în Regatul Unit. 0:07:27.963,0:07:29.879 (Râsete) 0:07:31.346,0:07:35.323 Vârstă: oamenii peste 50 de ani 0:07:35.323,0:07:38.759 sunt cu 25% mai emotivi[br]decât cei mai tineri. 0:07:39.439,0:07:43.751 La 20–30 de ani femeile zâmbesc [br]mult mai mult decât bărbații, 0:07:43.751,0:07:46.580 poate din nevoia de a-și găsi pe cineva. 0:07:47.500,0:07:51.157 Dar ce ne-a surprins cel mai mult[br]în aceste date 0:07:51.157,0:07:53.270 e faptul că suntem expresivi mereu, 0:07:53.270,0:07:56.243 chiar și când stăm singuri[br]în fața dispozitivelor 0:07:56.243,0:07:59.517 și nu doar când ne uităm la [br]filmulețe cu pisici pe Facebook. 0:08:00.217,0:08:03.227 Suntem expresivi când scriem [br]mesaje, când cumpărăm online, 0:08:03.227,0:08:05.797 chiar și când ne plătim impozitele. 0:08:05.797,0:08:07.919 La ce sunt folosite azi aceste date? 0:08:07.919,0:08:10.166 La a înțelege cum interacționăm cu media, 0:08:10.166,0:08:13.076 cu conținutul viral și[br]comportamentul votanților, 0:08:13.076,0:08:16.447 dar și la a dezvolta[br]planul emotiv al tehnologiei. 0:08:16.447,0:08:20.405 Și aș vrea să vă arăt câteva exemple[br]la care țin foarte mult. 0:08:21.195,0:08:24.303 Ochelarii cu funcții emotive[br]pot ajuta indivizii 0:08:24.303,0:08:27.470 care au probleme cu vederea [br]să citească fețele celorlalți 0:08:27.470,0:08:31.128 și-i poate ajuta pe autiștii[br]de diverse grade să interpreteze emoția, 0:08:31.128,0:08:33.577 lucru care pentru ei e complicat. 0:08:35.577,0:08:38.767 În educație, imaginați-vă[br]că aplicațiile de învățare 0:08:38.767,0:08:41.284 vă percep confuzia,[br]și atunci încetinesc, 0:08:41.284,0:08:43.403 sau plictiseala,[br]și atunci grăbesc pasul, 0:08:43.403,0:08:46.124 cum ar face un profesor bun în clasă. 0:08:46.834,0:08:49.637 Ce ar fi dacă ceasul v-ar simți starea 0:08:49.637,0:08:52.325 sau dacă mașina ar simți [br]că sunteți obosiți, 0:08:52.325,0:08:55.011 sau poate frigiderul simte [br]că sunteți stresat 0:08:55.011,0:08:59.058 și se încuie ca să nu mâncați frenetic?[br](Râsete) 0:08:59.058,0:09:01.525 Mi-ar plăcea asta, da! 0:09:03.575,0:09:07.598 Cum ar fi fost dacă la Cambridge[br]aș fi avut acces la acest sistem 0:09:07.598,0:09:11.718 și aș fi putut să le transmit rudelor [br]emoțiile, într-un mod natural, 0:09:11.718,0:09:14.910 ca și când aș fi fost în[br]aceeași cameră cu ei? 0:09:15.450,0:09:18.117 Cred că în viitorii cinci ani 0:09:18.117,0:09:21.011 toate dispozitivele vor avea[br]un cip al emoțiilor 0:09:21.011,0:09:25.000 și nici nu ne vom aduce aminte cum era[br]când nu te puteai încrunta la dispozitiv 0:09:25.000,0:09:28.711 ca să-și dea seama dintr-o privire:[br]„Hmm, nu ți-a plăcut, nu?” 0:09:29.191,0:09:32.724 Cea mai mare dificultate e[br]că tehnologia are așa multe aplicații 0:09:32.724,0:09:35.840 încât eu și echipa mea înțelegem[br]că nu putem face noi totul, 0:09:35.840,0:09:37.904 așa că am făcut tehnologia disponibilă, 0:09:37.904,0:09:41.680 pentru ca dezvoltatorii să înceapă[br]să construiască și să creeze. 0:09:41.680,0:09:45.507 Ne dăm seama că există riscuri 0:09:45.507,0:09:47.596 și potențial pentru abuzuri, 0:09:47.596,0:09:50.378 dar personal, după ce am petrecut[br]mulți ani făcând asta, 0:09:50.378,0:09:53.123 cred că beneficiile pe care[br]le poate avea omenirea 0:09:53.123,0:09:55.649 din tehnologiile cu inteligență emoțională 0:09:55.649,0:09:58.730 depășesc cu mult riscurile de abuz. 0:09:59.210,0:10:01.804 Așa că vă invit să participați. 0:10:01.804,0:10:04.381 Cu cât știe mai multă lume [br]de această tehnologie, 0:10:04.381,0:10:08.225 cu atât avem un cuvânt mai greu[br]în cum e ea folosită. 0:10:09.095,0:10:13.603 Pe măsură ce viața noastră[br]devine digitală 0:10:13.603,0:10:17.342 ne chinuim inutil să ne folosim[br]mai puțin dispozitivele 0:10:17.342,0:10:19.626 pentru a ne revendica emoțiile. 0:10:20.436,0:10:24.625 Ceea ce încerc eu e să aduc [br]emoțiile înapoi în tehnologie, 0:10:24.625,0:10:26.725 să ameliorez reacțiile tehnologiilor. 0:10:26.725,0:10:29.377 Visez ca aceste dispozitive[br]care ne-au despărțit 0:10:29.377,0:10:31.365 să ne reunească. 0:10:32.205,0:10:36.482 Umanizând tehnologia avem imensa șansă 0:10:36.482,0:10:40.203 de a reimagina modul în care [br]ne conectăm cu mașinile, 0:10:40.203,0:10:44.227 și prin asta și modul în care noi,[br]ca ființe umane, 0:10:44.227,0:10:45.832 ne conectăm între noi. 0:10:46.152,0:10:47.343 Mulțumesc. 0:10:47.343,0:10:50.303 (Aplauze)