1 00:00:00,556 --> 00:00:04,573 Emocionet tona e ndikojnë çdo aspekt të jetës, 2 00:00:04,573 --> 00:00:08,149 prej shëndetit, nga ajo se si mësojmë, si bëjmë biznes dhe si marim vendime, 3 00:00:08,149 --> 00:00:09,922 të mëdha dhe të vogla. 4 00:00:10,672 --> 00:00:14,162 Emocionet tona gjithashtu ndikojnë se si lidhemi me njëri-tjetrin. 5 00:00:15,132 --> 00:00:19,108 Ne kemi evoluar për të jetuar në një botë si kjo, 6 00:00:19,108 --> 00:00:23,427 por në vend të kësaj, ne po jetojmë më shumë jetën tonë kështu -- 7 00:00:23,427 --> 00:00:26,561 ky është një mesazh nga vajza ime natën e kaluar 8 00:00:26,561 --> 00:00:29,301 në një botë që i mungojnë emocionet. 9 00:00:29,301 --> 00:00:31,252 Unë jam në një mision për ta ndryshu këtë 10 00:00:31,252 --> 00:00:35,343 Unë dua t'i kthej emocionet tona prapë në eksperiencën digjitale. 11 00:00:36,223 --> 00:00:39,300 E fillova këtë rrugë para 15 viteve. 12 00:00:39,300 --> 00:00:41,366 Isha shkencëtare kompjuterash në Egjipt, 13 00:00:41,366 --> 00:00:45,871 dhe sapo u pata pranuar në një program Ph.D. në Universitetin Cambridge. 14 00:00:45,871 --> 00:00:47,984 Kështu bëra diçka të pazakonshme 15 00:00:47,984 --> 00:00:52,209 për një grua egjiptiane muslimane të sapomartuar: 16 00:00:53,599 --> 00:00:56,598 me mbështetjen e burrit tim, që duhej të qëndronte në Egjipt 17 00:00:56,598 --> 00:00:59,616 i bëra gati valixhet dhe u zhvendosa në Angli. 18 00:00:59,616 --> 00:01:02,844 Në Cambridge, mijëra kilometra larg shtëpisë, 19 00:01:02,844 --> 00:01:06,257 e kuptova që po kaloja më shumë kohë me laptopin 20 00:01:06,257 --> 00:01:08,486 se sa me njerëz. 21 00:01:08,486 --> 00:01:13,339 Pavarësisht këtij intimiteti, laptopi nuk kishte ide se si ndihesha. 22 00:01:13,339 --> 00:01:16,550 Nuk e dinte nëse isha e lumtur, 23 00:01:16,550 --> 00:01:19,538 nëse kam kaluar ditë të keqe, jam e stresuar apo konfuze, 24 00:01:19,538 --> 00:01:22,460 dhe kjo filloi të bëhej frustruese. 25 00:01:23,600 --> 00:01:28,831 Edhe më keq, derisa komunikoja online me familjen në shtëpi, 26 00:01:29,421 --> 00:01:32,703 e ndjeja se të gjtha emocionet e mia u zhdukën në hapësirë. 27 00:01:32,703 --> 00:01:37,858 Isha përmalluar, isha e vetmuar, dhe në disa ditë edhe qaja 28 00:01:37,858 --> 00:01:42,786 por me çka mund t'i komunikoja këto emocione ishte kjo, 29 00:01:42,786 --> 00:01:44,806 (Te qeshura) 30 00:01:44,806 --> 00:01:49,780 Teknologjia sot ka shumë I.Q por aspak E.Q 31 00:01:49,780 --> 00:01:52,956 shumë inteligjencë kognitive, por jo inteligjencë emocionale. 32 00:01:52,956 --> 00:01:55,153 Kjo më bëri të mendoj, 33 00:01:55,153 --> 00:01:58,777 çka nëse teknologjia do të mund t'i ndjente emocionet? 34 00:01:58,777 --> 00:02:02,853 çka nëse pajisjet do të mund ta dinin se si ndjehemi dhe reagojmë, 35 00:02:02,853 --> 00:02:05,866 në të njejtën mënyrë sikur një mik inteligjent? 36 00:02:06,666 --> 00:02:10,230 Këto pyetje na udhëhoqën mua dhe ekipin 37 00:02:10,230 --> 00:02:14,607 të krijojmë teknologji të cilat mund t'i lexojnë dhe t'i përgjigjen emocioneve tona 38 00:02:14,607 --> 00:02:17,697 dhe pika fillestare ishte fytyra e njeriut. 39 00:02:18,577 --> 00:02:21,750 Fytyra jonë është një prej kanalëve më të fuqishëm 40 00:02:21,750 --> 00:02:25,766 të cilët ne i përdorim për t'i komunikuar gjendjet tona sociale dhe emocionale, 41 00:02:25,766 --> 00:02:28,776 të gjitha prej kënaqësisë, surprizës, 42 00:02:28,776 --> 00:02:32,979 empatisë dhe kuriozitetit. 43 00:02:32,979 --> 00:02:37,907 Në shkencën e emocionëve, ne i quajmë çdo lëvizje të muskujve si njësi veprimi. 44 00:02:37,907 --> 00:02:40,832 Shembull, njësia veprimit 12, 45 00:02:40,832 --> 00:02:42,870 nuk është hit holliwudian, 46 00:02:42,870 --> 00:02:46,312 por është tërheqje e buzës, e që është komponenti kryesor i buzëqeshjes. 47 00:02:46,312 --> 00:02:49,300 Provoni të gjithë. Le t'i shohim ca buzëqeshje. 48 00:02:49,300 --> 00:02:51,954 Shembull tjetër, njësia 4, është rrudhja e vetullave. 49 00:02:51,954 --> 00:02:54,192 Është kur t'i bashkosh vetullat së bashku 50 00:02:54,192 --> 00:02:56,459 dhe krijon të gjitha këto rrudha. 51 00:02:56,459 --> 00:03:00,754 Ne nuk i pëlqejmë , por ato janë indikator i fortë i emocionëve negative. 52 00:03:00,754 --> 00:03:02,960 Ne kemi rreth 45 njësi veprimi, 53 00:03:02,960 --> 00:03:06,350 dhe ato kombinohen për të paraqitur qindra emocione. 54 00:03:06,350 --> 00:03:10,251 Të mësosh një kompjuter t'i lexojë këto emocione të fytyrës është e vështirë, 55 00:03:10,251 --> 00:03:13,223 sepse këto njësi, mund të jenë të shpejta dhe delikate. 56 00:03:13,223 --> 00:03:15,777 dhe ato kombinohen në mënyra të ndryshme. 57 00:03:15,777 --> 00:03:19,515 Shembull, buzëqeshja dhe buzëqeshja e vetëkënaqur. 58 00:03:19,515 --> 00:03:23,268 Duken gati se të njejta por kanë kuptim të ndryshëm. 59 00:03:23,268 --> 00:03:24,986 (Te qeshura) 60 00:03:24,986 --> 00:03:27,990 Buzëqeshja është pozitive, 61 00:03:27,990 --> 00:03:29,260 tjetra është negative. 62 00:03:29,260 --> 00:03:33,136 Nganjëherë buzëqeshja e vetëkënaqur mund t'ju bëjë të famshëm. 63 00:03:33,136 --> 00:03:35,960 Por seriozisht, është e rëndësishme për kompjuterin të mund 64 00:03:35,960 --> 00:03:38,815 ta tregoje dallimin mes dy shprehjeve. 65 00:03:38,815 --> 00:03:40,627 Pra si e bëjmë ne këtë? 66 00:03:40,627 --> 00:03:42,414 Ne i japim algoritmet 67 00:03:42,414 --> 00:03:46,524 mijëra shembuj të njerëzve që i dijmë që janë duke buzëqeshur, 68 00:03:46,524 --> 00:03:49,589 nga etnitete, mosha, gjini të ndryshme, 69 00:03:49,589 --> 00:03:52,400 dhe e bëjmë të njejtën për buzëqeshjen e vetëkënaqur. 70 00:03:52,400 --> 00:03:53,954 Pastaj, përdorim mësimin e thellë 71 00:03:53,954 --> 00:03:56,810 algoritmi shikon të gjitha modelet dhe rrudhat 72 00:03:56,810 --> 00:03:59,390 dhe forma ndryshon në fytyrën tonë, 73 00:03:59,390 --> 00:04:02,592 dhe e mëson se të gjitha buzëqeshjet kanë karakteristika të ngjashme 74 00:04:02,592 --> 00:04:05,773 të gjitha buzëqeshjet e vetëkënaqura kanë karakteristika delikate. 75 00:04:05,773 --> 00:04:08,141 Dhe kur herën tjetër që e sheh një fytyrë të re, 76 00:04:08,141 --> 00:04:10,440 e mëson që 77 00:04:10,440 --> 00:04:13,473 kjo fytyrë ka karakteristikat e një buzëqeshje, 78 00:04:13,473 --> 00:04:17,751 dhe thot "Aha, unë e di këte. Kjo është shprehja për buzëqeshjen." 79 00:04:18,381 --> 00:04:21,181 Mënyra më e mirë për ta demonstruar si punon kjo teknologji 80 00:04:21,181 --> 00:04:23,317 është ta provojmë drejtpërdrejtë, 81 00:04:23,317 --> 00:04:27,230 më duhet një vullnetar, preferohet dikush me fytyrë. 82 00:04:27,230 --> 00:04:29,564 (Te qeshura) 83 00:04:29,564 --> 00:04:32,335 Cloe do të jetë vullnetarja jonë sot. 84 00:04:33,325 --> 00:04:37,783 Këto 5 vitet e fundit, ne kemi kaluar nga të qenurit një projekt hulumtues ne MIT 85 00:04:37,783 --> 00:04:38,939 në një kompani, 86 00:04:38,939 --> 00:04:42,131 ku ekipi im ka punuar shumë për ta bërë këtë teknologji të punojë, 87 00:04:42,131 --> 00:04:44,540 si na pëlqen të themi, në egërsi. 88 00:04:44,540 --> 00:04:47,210 Ne edhe e kemi tkurrur aq sa motori i emocionëve 89 00:04:47,210 --> 00:04:50,530 punon në çdo paisje me kamerë, sikur ky iPad. 90 00:04:50,530 --> 00:04:53,316 Pra hajde ta provojmë. 91 00:04:54,756 --> 00:04:58,680 Pra siq po e shihni, algoritmi ka gjetur fytyrën e Cloe-it. 92 00:04:58,680 --> 00:05:00,372 pra është kjo kutia e bardhë, 93 00:05:00,372 --> 00:05:02,943 është duke i gjetur tiparet kryesore në fytyrën e saj, 94 00:05:02,943 --> 00:05:05,799 vetullat e saj, sytë, gojën dhe hundën. 95 00:05:05,799 --> 00:05:08,786 Pyetja është, a mund ta njohe shprehjen e saj? 96 00:05:08,786 --> 00:05:10,457 Pra, ne do ta provojmë makinën. 97 00:05:10,457 --> 00:05:14,643 Në fillim, jepma poker face. Mbresëlënëse. (Qeshin) 98 00:05:14,643 --> 00:05:17,456 Derisa ajo buzëqesh, kjo është buzëqeshje e sinqertë. 99 00:05:17,456 --> 00:05:19,756 Shiriti i gjelbërt rritet derisa ajo qesh. 100 00:05:19,756 --> 00:05:20,978 Kjo ishte e madhe. 101 00:05:20,978 --> 00:05:24,021 A po e provon një më delikate për ta parë nëse e njeh kompjuteri? 102 00:05:24,021 --> 00:05:26,352 Po e njeh edhe buzëqeshjen delikate. 103 00:05:26,352 --> 00:05:28,477 Kemi punuar shumë që kjo të ndodhë. 104 00:05:28,477 --> 00:05:31,439 Tani, vetulla e ngritur, indikator i surprizës. 105 00:05:31,439 --> 00:05:35,688 Rrudhosja e vetullave, indikator i konfuzionit. 106 00:05:35,688 --> 00:05:39,695 Trego pakënaqësi, perfekt. 107 00:05:39,695 --> 00:05:43,188 Këto janë disa prej njësive. Ka shumë më shumë. 108 00:05:43,188 --> 00:05:45,220 Ky është demo i zvogëluar. 109 00:05:45,220 --> 00:05:48,368 Ne e quajmë çdo lexim si të dhëna, 110 00:05:48,368 --> 00:05:51,337 që dhezen së bashku për të portretizuar emocione të ndryshme. 111 00:05:51,337 --> 00:05:55,990 Në anën e djathtë-- shiko sikur se je e lumtur. 112 00:05:55,990 --> 00:05:57,444 Pra lumturia dhezet. 113 00:05:57,444 --> 00:05:59,371 Tani bëje fytyrën sikur neveritesh. 114 00:05:59,371 --> 00:06:03,643 Provo ta kujtosh si ishte kur Zayn la One Direction. 115 00:06:03,643 --> 00:06:05,153 (Qeshin) 116 00:06:05,153 --> 00:06:09,495 Po, rrudhe hundën. Mrekullueshëm. 117 00:06:09,495 --> 00:06:13,226 Valenca është negative, sigurisht paske qenë fanse e madhe. 118 00:06:13,226 --> 00:06:15,926 Valenca tregon a është pozitive apo negative eksperienca 119 00:06:15,926 --> 00:06:18,712 ndërsa angazhimi tregon sa ekspresive është ajo. 120 00:06:18,712 --> 00:06:22,126 Imagjinoi sikur Cloe të kishte qasje te kjo në kohe reale të emocioneve 121 00:06:22,126 --> 00:06:24,935 dhe ta ndante me këdo. 122 00:06:24,935 --> 00:06:27,858 Faleminderit. 123 00:06:27,858 --> 00:06:32,479 (Duartrokitje) 124 00:06:33,749 --> 00:06:39,019 Deri tani, ne kemi grumbulluar 12 miliard të dhëna të këtyre emocioneve. 125 00:06:39,019 --> 00:06:41,630 Është databaza më e madhe e emocioneve. 126 00:06:41,630 --> 00:06:44,593 Ne i kemi mbledhur këto nga 2.9 milionë video të fytyrave, 127 00:06:44,593 --> 00:06:47,193 njerëz që janë pajtuar mi nda emocionet e tyre me ne. 128 00:06:47,193 --> 00:06:50,398 nga 75 vende rreth botës. 129 00:06:50,398 --> 00:06:52,113 Po rritet çdo ditë. 130 00:06:52,603 --> 00:06:54,670 Mua më mahnit kjo 131 00:06:54,670 --> 00:06:57,865 se si mundemi të përcaktojmë diqka aq personale sa emocionet tona, 132 00:06:57,865 --> 00:07:00,100 e ne mund ta bëjmë këtë deri në këtë shkallë. 133 00:07:00,100 --> 00:07:02,277 Pra çka kemi mësuar ne? 134 00:07:03,057 --> 00:07:05,388 Gjinia. 135 00:07:05,388 --> 00:07:09,034 Të dhënat tona konfirmojnë diqka për të cilën ju mund të keni dyshuar. 136 00:07:09,034 --> 00:07:10,891 Gratë shprehen më shume se burrat. 137 00:07:10,891 --> 00:07:13,574 Jo vetëm që buzëqeshin më shumë por e zgjasin më gjatë 138 00:07:13,574 --> 00:07:16,478 dhe tani ne mundemi me përcaktu se pse burrat dhe gratë 139 00:07:16,478 --> 00:07:18,614 përgjigjen ndryshe. 140 00:07:18,614 --> 00:07:20,904 Le ta provojmë kulturën: Në Shtetet e bashkuara, 141 00:07:20,904 --> 00:07:24,108 gratë shprehen 40 përçind më shumë se burrat, 142 00:07:24,108 --> 00:07:27,753 por për kuriozitet, nuk shohim ndonjë dallim në U.K mes burrave dhe grave 143 00:07:27,753 --> 00:07:30,259 (Qeshin) 144 00:07:31,296 --> 00:07:35,323 Mosha: njerëzit të cilët janë 50 vjet e më të vjetër 145 00:07:35,323 --> 00:07:38,759 janë 25 përçind më emotivë se sa të rinjtë 146 00:07:39,899 --> 00:07:43,751 Gratë në të njëzetat buzëqeshin më shumë se burrat në moshën e njejtë. 147 00:07:43,751 --> 00:07:47,590 ndoshta një domosdoshmëri për takime. 148 00:07:47,590 --> 00:07:50,207 Por çka na befason neve nga këto të dhëna 149 00:07:50,207 --> 00:07:53,410 është që ne shprehemi gjatë tërë kohës , 150 00:07:53,410 --> 00:07:56,243 edhe kur jemi ulur vetëm përballë paisjeve tona, 151 00:07:56,243 --> 00:07:59,517 e jo vetëm kur jemi duke shikuar video të maceve në Facebook. 152 00:08:00,217 --> 00:08:03,227 Ne shprehemi kur dërgojmë email, shkruajmë ose kur blejmë online 153 00:08:03,227 --> 00:08:05,527 ose kur paguajmë taksat. 154 00:08:05,527 --> 00:08:07,919 Ku përdoren këto të dhëna sot? 155 00:08:07,919 --> 00:08:10,682 Për të kuptuar si lidhemi ne me mediat, 156 00:08:10,682 --> 00:08:13,166 për të kuptuar diqka që bëhet virale dhe votimin; 157 00:08:13,166 --> 00:08:15,906 dhe për të fuqizuar teknologji të emocionëve, 158 00:08:15,906 --> 00:08:20,527 dhe dua t'i ndaj disa shembuj që i kam shumë për zemër. 159 00:08:21,197 --> 00:08:24,265 Syzet me mundësi leximi të emocionëve mund të ndihmojnë individët 160 00:08:24,265 --> 00:08:27,493 që janë vizualisht të paaftë t'i lexojnë fytyrat e tjerëve, 161 00:08:27,493 --> 00:08:31,680 dhe mund të ndihmojë personat me spektrin e autizmit t'i interpretojnë emocionet, 162 00:08:31,680 --> 00:08:34,458 diqka me të cilën ata vërtet luftojnë. 163 00:08:35,918 --> 00:08:38,777 Në edukim, imagjinoni sikur aplikacionet e mësimit 164 00:08:38,777 --> 00:08:41,587 ta dinin se jeni konfuz dhe ta ngadalësojne 165 00:08:41,587 --> 00:08:43,444 ose që jeni mërzitur e ta përshpejtojnë 166 00:08:43,444 --> 00:08:46,413 sikur do ta bënte një mësues i mirë. 167 00:08:47,043 --> 00:08:49,644 çka nëse ora e dorës do të llogariste disponimin, 168 00:08:49,644 --> 00:08:52,337 ose vetura ta dinte që je i lodhur, 169 00:08:52,337 --> 00:08:54,885 ose frigoriferi ta dinte se je i stresuar, 170 00:08:54,885 --> 00:09:00,951 dhe të mbyllej në mënyrë automatike për të të parandaluar nga mbingrënia. 171 00:09:00,951 --> 00:09:03,668 Kjo do të më pëlqente. 172 00:09:03,668 --> 00:09:05,595 çka nëse kur isha në Cambridge, 173 00:09:05,595 --> 00:09:07,908 të kisha qasje tek pajisja e emocionëve, 174 00:09:07,908 --> 00:09:11,437 dhe të mund të ndaja këtë me familjen në një mënyrë natyrale, 175 00:09:11,437 --> 00:09:15,408 sikur do ta bëja nëse do të ishim bashkë në një dhomë? 176 00:09:15,408 --> 00:09:18,550 Mendoj që 5 vjet me vone, 177 00:09:18,550 --> 00:09:20,887 pajisjet tona do të kenë një chip për emocione 178 00:09:20,887 --> 00:09:24,951 dhe neve nuk do të na kujtohet kur nuk mundëm me tregu pakënaqësi te pajisja jonë 179 00:09:24,951 --> 00:09:29,200 pa na thënë, "Hmm, kjo nuk të pëlqej, apo jo?" 180 00:09:29,200 --> 00:09:32,961 Sfida më e madhe është se ka shumë aplikacione të kësaj teknologjie, 181 00:09:32,961 --> 00:09:35,864 ekipi im dhe unë e kuptojmë se nuk mundemi t'i ndërtojmë vetë 182 00:09:35,864 --> 00:09:39,360 dhe e kemi bërë të mundshme këtë teknologji që krijuesit e tjerë 183 00:09:39,360 --> 00:09:41,474 mund të krijojnë dhe të bëhen kreativ. 184 00:09:41,474 --> 00:09:45,560 Ne dimë se ka rreziqe potenciale 185 00:09:45,560 --> 00:09:47,627 dhe potencial për abuzim, 186 00:09:47,627 --> 00:09:50,576 por personalisht, pasi kam kaluar vite duke e bërë këtë, 187 00:09:50,576 --> 00:09:53,548 Besoj që benefitet e njerëzimit 188 00:09:53,548 --> 00:09:55,823 për të pas teknologji me inteligjencë emocionale 189 00:09:55,823 --> 00:09:59,399 e mundin potencialin për shpërdorim. 190 00:09:59,399 --> 00:10:01,930 Unë ju ftoj të gjithëve për të qenë pjesë e bisedës. 191 00:10:01,930 --> 00:10:04,484 Sa më shumë njerëz që dijnë për këtë teknologji, 192 00:10:04,484 --> 00:10:07,661 aq më shumë do të dijmë se si po përdoret. 193 00:10:09,081 --> 00:10:13,655 Sa më shumë që jetët tona bëhen digjitale, 194 00:10:13,655 --> 00:10:17,153 po luftojmë nje betejë të humbur duke provuar ta frenojmë përdorimin e paisjeve 195 00:10:17,153 --> 00:10:19,382 në mënyrë që të rivendosim emocionet tona. 196 00:10:20,622 --> 00:10:24,536 çka po provoj unë të bëj është që t'i sjell emocionet në teknologji 197 00:10:24,536 --> 00:10:26,765 dhe t'i bëjë teknologjitë tona më reaguese. 198 00:10:26,765 --> 00:10:29,435 Dua që ato pajisje që na kanë ndarë 199 00:10:29,435 --> 00:10:31,897 të na bashkojnë përsëri. 200 00:10:31,897 --> 00:10:36,485 Dhe duke e njerëzuar teknologjinë, në kemi shansin e artë 201 00:10:36,485 --> 00:10:39,782 për të riimagjinuar si lidhemi ne me makinerinë, 202 00:10:39,782 --> 00:10:44,263 dhe se si, ne si qenie njerëzore 203 00:10:44,263 --> 00:10:46,167 lidhemi me njëri tjetrin. 204 00:10:46,167 --> 00:10:48,327 Faleminderit. 205 00:10:48,327 --> 00:10:51,640 (Duartrokitje)