1 00:00:00,556 --> 00:00:04,573 Duygularımız hayatımızın her alanını etkiliyor, 2 00:00:04,573 --> 00:00:08,149 sağlığımız ve nasıl öğrendiğimizden, nasıl iş yaptığımız ve karar aldığımıza kadar, 3 00:00:08,149 --> 00:00:09,922 büyük olanları ve küçükleri. 4 00:00:10,672 --> 00:00:15,022 Duygularımız aynı zamanda birbirimizle nasıl bağlantı kuracağımızı da etkiliyor. 5 00:00:15,132 --> 00:00:19,108 Böyle bir dünyada yaşamak üzere evrildik, 6 00:00:19,108 --> 00:00:23,427 ama onun yerine hayatlarımızı giderek daha fazla böyle yaşıyoruz -- 7 00:00:23,427 --> 00:00:26,561 bu dün gece kızımdan gelen kısa mesaj -- 8 00:00:26,561 --> 00:00:29,301 duygulardan yoksun bir dünyada. 9 00:00:29,301 --> 00:00:31,252 Bu durumu değiştirmek üzere görevdeyim. 10 00:00:31,252 --> 00:00:35,343 Dijital deneyimlerimize duyguları tekrar getirmek istiyorum. 11 00:00:36,223 --> 00:00:39,300 Bu yola 15 sene önce koyuldum. 12 00:00:39,300 --> 00:00:41,366 Mısır'da bilgisayar bilimciydim 13 00:00:41,366 --> 00:00:45,871 ve Cambridge Üniversitesi'nde doktora programına yeni kabul edilmiştim. 14 00:00:45,871 --> 00:00:47,984 Genç, yeni evli, Müslüman, Mısırlı 15 00:00:47,984 --> 00:00:52,209 bir eş için oldukça alışılmadık bir şey yaptım: 16 00:00:53,599 --> 00:00:56,598 Mısır'da kalmak zorunda olan eşimin desteğiyle 17 00:00:56,598 --> 00:00:59,616 bavullarımı toplayıp İngiltere'ye taşındım. 18 00:00:59,616 --> 00:01:02,844 Cambridge'de, evimden binlerce mil uzakta, 19 00:01:02,844 --> 00:01:06,257 dizüstü bilgisayarımla herhangi bir insanla olduğundan 20 00:01:06,257 --> 00:01:08,486 daha fazla zaman geçirdiğimi fark ettim. 21 00:01:08,486 --> 00:01:13,339 Bu yakınlığa rağmen, bilgisayarımın ne hissettiğime dair kesinlikle en ufak bir fikri yoktu. 22 00:01:13,339 --> 00:01:16,550 Mutlu mu olduğum, kötü bir gün mü geçirdiğim 23 00:01:16,550 --> 00:01:19,538 veya stresli, şaşkın mı olduğumla ilgili 24 00:01:19,538 --> 00:01:22,460 bir fikri yoktu ve bu sinir bozmaya başladı. 25 00:01:23,600 --> 00:01:28,831 Daha da kötüsü, ülkemdeki ailemle internette iletişim kurduğumda, 26 00:01:29,421 --> 00:01:32,703 bütün duygularımın sanal gerçeklik içinde kaybolduğunu hissettim. 27 00:01:32,703 --> 00:01:37,858 Evimi özlüyordum, yalnızdım ve bazı günler gerçekten ağlıyordum, 28 00:01:37,858 --> 00:01:42,786 ancak bütün bu duyguları iletme şeklim böyleydi. 29 00:01:42,786 --> 00:01:44,806 (Gülüşmeler) 30 00:01:44,806 --> 00:01:49,130 Bugünün teknolojisinin çok fazla I.Q.'su var, ancak E.Q.'su yok; 31 00:01:49,130 --> 00:01:52,956 oldukça fazla kavramsal zekâ var, ancak duygusal zekâ yok. 32 00:01:52,956 --> 00:01:55,153 İşte bu beni düşündürdü, 33 00:01:55,153 --> 00:01:58,777 teknolojimiz duygularımızı hissetse ne olurdu? 34 00:01:58,777 --> 00:02:02,853 Eğer cihazlarımız nasıl hissettiğimizi bilseler ve ona göre reaksiyon verseler ne olurdu, 35 00:02:02,853 --> 00:02:05,866 aynen duygusal zekâya sahip bir arkadaşın yapacağı gibi? 36 00:02:06,666 --> 00:02:10,230 Bu sorular beni ve ekibimi 37 00:02:10,230 --> 00:02:14,607 duygularımızı okuyup cevap verecek teknolojiler yaratmaya götürdü 38 00:02:14,607 --> 00:02:17,697 ve başlangıç noktamız insan yüzüydü. 39 00:02:18,577 --> 00:02:21,750 İnsan yüzü, hepimizin sosyal ve duygusal durumumuzu iletmek için 40 00:02:21,750 --> 00:02:25,766 kullandığı en güçlü yollardan biri. 41 00:02:25,766 --> 00:02:28,776 Hoşlanmadan, sürprize, 42 00:02:28,776 --> 00:02:32,979 empati ve meraka kadar her şeyi. 43 00:02:32,979 --> 00:02:37,907 Duygu biliminde, her yüz kası hareketine eylem birimi diyoruz. 44 00:02:37,907 --> 00:02:40,832 Örneğin, eylem birimi 12, 45 00:02:40,832 --> 00:02:42,870 bir Hollywood kapalı gişesi değil, 46 00:02:42,870 --> 00:02:46,312 aslında gülüşün ana unsuru olan dudak kenarının yukarı doğru çekilmesi. 47 00:02:46,312 --> 00:02:49,300 Herkes denesin. Hadi biraz gülümseyelim. 48 00:02:49,300 --> 00:02:51,954 Diğer bir örnek, eylem birimi 4. Alnın kırışması. 49 00:02:51,954 --> 00:02:54,192 Kaşlarınızı birbirine yaklaştırıp, 50 00:02:54,192 --> 00:02:56,459 bütün o kıvrımları ve kırışıklıkları yarattığınız zaman olur. 51 00:02:56,459 --> 00:03:00,114 Onları sevmeyiz, ama negatif duyguların güçlü bir göstergesidir. 52 00:03:00,114 --> 00:03:02,460 Bu eylem birimlerinden 45 tane kadarına sahibiz 53 00:03:02,460 --> 00:03:06,350 ve yüzlerce duyguyu ifade etmek için bir araya gelirler. 54 00:03:06,350 --> 00:03:10,251 Bir bilgisayara yüzdeki bu duyguları okumayı öğretmek zordur, 55 00:03:10,251 --> 00:03:13,223 çünkü bu eylem birimleri hızlı olabilir, gizli olabilir 56 00:03:13,223 --> 00:03:15,777 ve birçok farklı şekilde bir araya gelebilirler. 57 00:03:15,777 --> 00:03:19,515 Örneğin, gülümseme ve zoraki tebessümü ele alalım. 58 00:03:19,515 --> 00:03:23,268 Bir şekilde benzerler, ancak çok farklı anlamlara gelirler. 59 00:03:23,268 --> 00:03:24,986 (Gülüşmeler) 60 00:03:24,986 --> 00:03:27,210 Gülümseme pozitif, 61 00:03:27,210 --> 00:03:29,260 zoraki tebessüm ise çoğunlukla negatiftir. 62 00:03:29,260 --> 00:03:33,136 Bazen zoraki tebessüm sizi ünlü yapabilir. 63 00:03:33,136 --> 00:03:35,960 Ancak sahiden bir bilgisayarın iki ifade arasındaki 64 00:03:35,960 --> 00:03:38,565 farkı bilebilmesi önemlidir. 65 00:03:38,565 --> 00:03:40,507 Öyleyse bunu nasıl yaparız? 66 00:03:40,507 --> 00:03:42,414 Algoritmalarımıza farklı 67 00:03:42,414 --> 00:03:46,524 etnik gruplardan, yaşlardan, cinsiyetlerden gülümsediğini 68 00:03:46,524 --> 00:03:49,589 bildiğimiz on binlerce örnek veririz 69 00:03:49,589 --> 00:03:51,980 ve aynısını zoraki tebessüm için de yaparız. 70 00:03:51,980 --> 00:03:53,954 Sonra derin öğrenme yoluyla, 71 00:03:53,954 --> 00:03:56,810 algoritma yüzümüzdeki bütün bu kıvrımlara, kırışıklıklara 72 00:03:56,810 --> 00:03:59,390 ve şekil değişimlerine bakar, 73 00:03:59,390 --> 00:04:02,592 kısaca bütün gülümsemelerin ortak özellikleri olduğunu öğrenir, 74 00:04:02,592 --> 00:04:05,773 bütün zoraki tebessümlerin hemen göze çarpmayan farklı özellikleri var. 75 00:04:05,773 --> 00:04:08,141 Bir daha yeni bir yüz gördüğünde, 76 00:04:08,141 --> 00:04:10,440 o yüzün esasen bir gülümsemeye 77 00:04:10,440 --> 00:04:13,473 özgü karakteristikleri olduğunu öğrenir 78 00:04:13,473 --> 00:04:17,751 ve şöyle der, "Evet, bunu tanıyorum. Bu bir gülümseme ifadesi." 79 00:04:18,381 --> 00:04:21,181 Bu teknolojinin nasıl çalıştığını göstermenin en iyi yolu 80 00:04:21,181 --> 00:04:23,317 canlı bir demo denemek, 81 00:04:23,317 --> 00:04:27,230 bu yüzden bir gönüllüye ihtiyacım var, tercihen yüzü olan biri. 82 00:04:27,230 --> 00:04:29,564 (Gülüşmeler) 83 00:04:29,564 --> 00:04:32,335 Chloe bugün gönüllümüz olacak. 84 00:04:33,325 --> 00:04:37,783 Geçen beş sene içinde, MIT'de bir araştırma projesi olmaktan 85 00:04:37,783 --> 00:04:38,939 bir şirket olmaya geçtik, 86 00:04:38,939 --> 00:04:42,131 ekibim bu teknolojinin çalışması için gerçekten çok çalıştı, 87 00:04:42,131 --> 00:04:44,540 şu an piyasada kullanılması için diyebiliriz. 88 00:04:44,540 --> 00:04:47,210 Aynı zamanda onu küçülttük ki, çekirdek duygu makinesi, 89 00:04:47,210 --> 00:04:50,530 bu iPad gibi kameraya sahip herhangi bir mobil araçta çalışabilsin. 90 00:04:50,530 --> 00:04:53,316 Hadi bir deneme yapalım. 91 00:04:54,756 --> 00:04:58,680 Gördüğünüz gibi, algoritma sonuçta Chloe'nin yüzünü buldu, 92 00:04:58,680 --> 00:05:00,372 işte bu beyaz sınırlı kutu 93 00:05:00,372 --> 00:05:02,943 ve yüzündeki ana hatları takip ediyor, 94 00:05:02,943 --> 00:05:05,799 işte kaşları, gözleri, ağzı ve burnu. 95 00:05:05,799 --> 00:05:08,786 Soru şu; ifadesini tanıyabilecek mi? 96 00:05:08,786 --> 00:05:10,457 Bu yüzden makineyi test edeceğiz. 97 00:05:10,457 --> 00:05:14,643 İlk önce, bana ifadesiz yüzünü göster. Evet, harika. (Gülüşmeler) 98 00:05:14,643 --> 00:05:17,456 Sonra gülümsedikçe, bu gerçek bir gülümseme, harika. 99 00:05:17,456 --> 00:05:19,756 Evet, gülümsedikçe yeşil çubuğun arttığını görebilirsiniz. 100 00:05:19,756 --> 00:05:20,978 Evet, bu büyük bir gülümsemeydi. 101 00:05:20,978 --> 00:05:23,771 Bakalım hafif gülümsediğinde bilgisayarın tanıyabilecek mi? 102 00:05:23,771 --> 00:05:25,702 Hafif gülümsemeleri de tanıyor. 103 00:05:25,702 --> 00:05:28,067 Bunu gerçekleştirmek için gerçekten çok çalıştık. 104 00:05:28,067 --> 00:05:31,439 Sonra kaşlar kalkıyor, şaşırmanın göstergesi. 105 00:05:31,439 --> 00:05:35,688 Alnın kırışması, kafa karışıklığının göstergesi. 106 00:05:35,688 --> 00:05:39,695 Somurtma. Evet, mükemmel. 107 00:05:39,695 --> 00:05:43,188 İşte bunların hepsi farklı eylem birimleri. Daha çok var. 108 00:05:43,188 --> 00:05:45,220 Bu sadece kısaltılmış bir demo. 109 00:05:45,220 --> 00:05:48,368 Her okumaya, bir duygu veri noktası adını veriyoruz. 110 00:05:48,368 --> 00:05:51,337 Sonra farklı duyguları resmetmek için birlikte harekete geçerler. 111 00:05:51,337 --> 00:05:55,990 Demonun sağ tarafında -- mutlu görün. 112 00:05:55,990 --> 00:05:57,444 İşte bu neşe. Neşe harekete geçiyor. 113 00:05:57,444 --> 00:05:59,371 Şimdi bana iğrenme ifadesi ver. 114 00:05:59,371 --> 00:06:03,643 Zayn One Direction'ı terk ettiğinde nasıl olduğunu hatırlamaya çalış. 115 00:06:03,643 --> 00:06:05,153 (Gülüşmeler) 116 00:06:05,153 --> 00:06:09,495 Evet, burnunu kırıştır. Harika. 117 00:06:09,495 --> 00:06:13,226 Değerlik oldukça negatif, herhâlde çok büyük bir hayranısın. 118 00:06:13,226 --> 00:06:15,926 Değerlik, deneyimin ne kadar pozitif veya negatif olduğuyla ilgili; 119 00:06:15,926 --> 00:06:18,712 bağlantı ise, kişinin bunu ne kadar ifade edebildiğiyle. 120 00:06:18,712 --> 00:06:22,126 O zaman Chloe'nin bu gerçek zamanlı duygu akışına erişimi olduğunu 121 00:06:22,126 --> 00:06:24,935 ve istediği kişilerle paylaşabileceğini hayal edin. 122 00:06:24,935 --> 00:06:27,858 Teşekkürler. 123 00:06:27,858 --> 00:06:32,479 (Alkış) 124 00:06:33,749 --> 00:06:39,019 Şimdiye kadar bu duygu veri noktalarından 12 milyar adet topladık. 125 00:06:39,019 --> 00:06:41,630 Dünyadaki en büyük duygu veri tabanı. 126 00:06:41,630 --> 00:06:44,593 Bunu 2,9 milyon yüz videosundan topladık, 127 00:06:44,593 --> 00:06:47,193 bizimle duygularını paylaşmaya gönüllü insanlardan 128 00:06:47,193 --> 00:06:50,398 ve dünyadaki 75 ülkeden. 129 00:06:50,398 --> 00:06:52,113 Her gün büyüyor. 130 00:06:52,603 --> 00:06:54,670 Duygular kadar kişisel bir şeyi 131 00:06:54,670 --> 00:06:57,865 artık ölçebiliyor olmamız beni çok şaşırtıyor 132 00:06:57,865 --> 00:07:00,100 ve bunu bu ölçekte yapabiliyoruz. 133 00:07:00,100 --> 00:07:02,277 Peki şimdiye kadar ne öğrendik? 134 00:07:03,057 --> 00:07:05,388 Cinsiyet. 135 00:07:05,388 --> 00:07:09,034 Şüpheleniyor olduğunuz bir şeyi verimiz doğruluyor. 136 00:07:09,034 --> 00:07:10,891 Kadınlar erkeklerden daha fazla duygularını ifade ediyor. 137 00:07:10,891 --> 00:07:13,574 Daha çok gülümsemeleri yanında, gülümsemeleri daha uzun sürüyor 138 00:07:13,574 --> 00:07:16,478 ve erkeklerle kadınların gerçekten neye farklı 139 00:07:16,478 --> 00:07:18,614 yanıt verdiğini artık ölçebiliyoruz. 140 00:07:18,614 --> 00:07:20,904 Hadi kültüre bakalım: Amerika Birleşik Devletleri'nde, 141 00:07:20,904 --> 00:07:24,108 kadınlar erkeklerden yüzde 40 daha fazla ifadelerini gösteriyor, 142 00:07:24,108 --> 00:07:27,753 ancak ilginç biçimde Birleşik Krallık'ta erkekler ve kadınlar arasında fark görmüyoruz. 143 00:07:27,753 --> 00:07:30,259 (Gülüşmeler) 144 00:07:31,296 --> 00:07:35,323 Yaş: 50 ve üzerindeki yaştaki insanlar 145 00:07:35,323 --> 00:07:38,759 gençlerden yüzde 25 daha duygusal. 146 00:07:39,899 --> 00:07:43,751 Yirmilerindeki kadınlar aynı yaştaki erkeklerden daha fazla gülümsüyor, 147 00:07:43,751 --> 00:07:47,590 belki de flört için bir gereklilik. 148 00:07:47,590 --> 00:07:50,207 Ancak belki de bu veriyle ilgili bizi en fazla şaşırtan şey, 149 00:07:50,207 --> 00:07:53,410 her zaman duygularımızı ifade ediyor oluşumuz, 150 00:07:53,410 --> 00:07:56,243 cihazlarımızın başında tek başımıza oturuyor olsak bile 151 00:07:56,243 --> 00:07:59,517 ve sadece Facebook'ta kedi videoları izlerken değil. 152 00:08:00,217 --> 00:08:03,227 E-posta atarken, mesajlaşırken, internette alışveriş yaparken veya vergilerimizi 153 00:08:03,227 --> 00:08:05,527 hallederken bile duygularımızı ifade ediyoruz. 154 00:08:05,527 --> 00:08:07,919 Bu veri bugün nerede kullanılıyor? 155 00:08:07,919 --> 00:08:10,682 Medya ile nasıl bağ kurduğumuzu anlamada, 156 00:08:10,682 --> 00:08:13,166 yani yayılma ve oy verme davranışını anlamada 157 00:08:13,166 --> 00:08:16,446 ve bunun yanında teknolojik güçlendirme veya duygu-etkinleştirmede. 158 00:08:16,446 --> 00:08:20,527 Özellikle çok sevdiğim bazı örnekleri sizinle paylaşmak istiyorum. 159 00:08:21,197 --> 00:08:24,265 Duygu-etkinleştirilmiş, giyilebilir gözlükler, görme engelli olan 160 00:08:24,265 --> 00:08:27,493 bireylere diğerlerinin yüzlerini okumada yardımcı olabilir 161 00:08:27,493 --> 00:08:31,020 ve otizm spektrumu olan bireylere duyguları anlamada yardımcı olabilir, 162 00:08:31,020 --> 00:08:33,358 bu onların gerçekten çok zorluk çektiği bir şey. 163 00:08:35,668 --> 00:08:38,777 Eğitimde, öğrenme uygulamalarınızın kafanızın karıştığını 164 00:08:38,777 --> 00:08:41,587 hissettiğini ve yavaşladığını veya sıkıldığınızı hissettiğini, 165 00:08:41,587 --> 00:08:43,444 bu yüzden hızlandığını hayal edin, 166 00:08:43,444 --> 00:08:46,413 aynı iyi bir öğretmenin sınıfta yapacağı gibi. 167 00:08:47,043 --> 00:08:49,644 Eğer kolunuzdaki saatiniz ruh hâlinizi takip etseydi ne olurdu 168 00:08:49,644 --> 00:08:52,337 veya arabanız yorgun olduğunuzu hissetseydi 169 00:08:52,337 --> 00:08:54,885 veya belki de buzdolabınız stresli olduğunuzu bilseydi, 170 00:08:54,885 --> 00:08:59,391 o zaman sizi aşırı yemeden korumak için otomatik olarak kilitlenirdi. (Gülüşmeler) 171 00:08:59,391 --> 00:09:01,388 Bunu isterdim, evet. 172 00:09:03,668 --> 00:09:05,595 Eğer Cambridge'deyken 173 00:09:05,595 --> 00:09:07,908 gerçek zamanlı duygu akışına erişimim olsaydı 174 00:09:07,908 --> 00:09:11,437 ve bunu ülkemdeki ailemle çok doğal bir şekilde paylaşabilseydim, 175 00:09:11,437 --> 00:09:15,408 aynı hepimiz aynı odada olsaydık yapacağım gibi. 176 00:09:15,408 --> 00:09:18,550 Bence beş yıl içinde, 177 00:09:18,550 --> 00:09:20,887 bütün cihazlarımızın duygu çipi olacak, 178 00:09:20,887 --> 00:09:24,951 yalnızca cihazımıza somurttuğumuzda, "Hımm, bunu sevmedin, değil mi?" 179 00:09:24,951 --> 00:09:29,200 diyecek bir cihazımızın olmamasının nasıl bir şey olduğunu hatırlamayacağız. 180 00:09:29,200 --> 00:09:32,961 En büyük sorunumuz, bu teknolojinin pek çok uygulaması olması, 181 00:09:32,961 --> 00:09:35,864 ekibim ve ben hepsini tek başımıza yapamayacağımızın farkındayız, 182 00:09:35,864 --> 00:09:39,360 o yüzden bu teknolojiyi kullanılabilir hâle getirdik, böylece diğer geliştiriciler 183 00:09:39,360 --> 00:09:41,474 de yapmaya başlayabilir ve yaratıcı olabilirler. 184 00:09:41,474 --> 00:09:45,560 Olası risklerin ve istismar olasılığının 185 00:09:45,560 --> 00:09:47,627 olduğunun farkındayız, 186 00:09:47,627 --> 00:09:50,576 ancak şahsen bunu yıllardır yapan biri olarak ben, 187 00:09:50,576 --> 00:09:53,548 duygusal olarak akıllı teknolojilere sahip olmanın 188 00:09:53,548 --> 00:09:55,823 insanlığa getirdiği yararların, yanlış kullanılma 189 00:09:55,823 --> 00:09:59,399 olasılığından çok daha ağır bastığına inanıyorum. 190 00:09:59,399 --> 00:10:01,930 Hepinizi bu etkileşimin bir parçası olmaya davet ediyorum. 191 00:10:01,930 --> 00:10:04,484 Bu teknolojiyi bilen daha fazla insan oldukça, 192 00:10:04,484 --> 00:10:07,661 nasıl kullanıldığıyla ilgili daha fazla söz hakkımız olur. 193 00:10:09,081 --> 00:10:13,655 Hayatlarımız daha fazla dijital hâle geldikçe, 194 00:10:13,655 --> 00:10:17,153 duygularımızı geri kazanmak için, cihazlarımızı kullanmayı frenlemeye 195 00:10:17,153 --> 00:10:19,382 çalışarak beyhude savaş veriyoruz. 196 00:10:20,622 --> 00:10:24,536 Bu yüzden bunun yerine yapmaya çalıştığım şey, duyguları teknolojimize getirmek 197 00:10:24,536 --> 00:10:26,765 ve teknolojilerimizi daha cevap verir hâle getirmek. 198 00:10:26,765 --> 00:10:29,435 Bu yüzden bizi ayıran bu cihazlarımızın, 199 00:10:29,435 --> 00:10:31,897 bizi tekrar bir araya getirmesini istiyorum. 200 00:10:31,897 --> 00:10:36,485 Teknolojiyi insanlaştırarak, makinelerle nasıl bağlantı kuracağımızı 201 00:10:36,485 --> 00:10:39,782 ve böylece insanlık olarak birbirimizle nasıl bağlantı kuracağımızı 202 00:10:39,782 --> 00:10:44,263 tekrar düşünmek için 203 00:10:44,263 --> 00:10:46,167 bulunmaz bir fırsatımız var. 204 00:10:46,167 --> 00:10:48,327 Teşekkürler. 205 00:10:48,327 --> 00:10:51,640 (Alkış)