0:00:00.556,0:00:04.573 Duygularımız hayatımızın [br]her alanını etkiliyor, 0:00:04.573,0:00:08.149 sağlığımız ve nasıl öğrendiğimizden, [br]nasıl iş yaptığımız ve karar aldığımıza kadar, 0:00:08.149,0:00:09.922 büyük olanları ve küçükleri. 0:00:10.672,0:00:15.022 Duygularımız aynı zamanda birbirimizle [br]nasıl bağlantı kuracağımızı da etkiliyor. 0:00:15.132,0:00:19.108 Böyle bir dünyada yaşamak [br]üzere evrildik, 0:00:19.108,0:00:23.427 ama onun yerine hayatlarımızı giderek [br]daha fazla böyle yaşıyoruz -- 0:00:23.427,0:00:26.561 bu dün gece kızımdan gelen kısa mesaj -- 0:00:26.561,0:00:29.301 duygulardan yoksun bir dünyada. 0:00:29.301,0:00:31.252 Bu durumu değiştirmek üzere görevdeyim. 0:00:31.252,0:00:35.343 Dijital deneyimlerimize duyguları tekrar[br]getirmek istiyorum. 0:00:36.223,0:00:39.300 Bu yola 15 sene önce koyuldum. 0:00:39.300,0:00:41.366 Mısır'da bilgisayar bilimciydim 0:00:41.366,0:00:45.871 ve Cambridge Üniversitesi'nde doktora [br]programına yeni kabul edilmiştim. 0:00:45.871,0:00:47.984 Genç, yeni evli, Müslüman, Mısırlı [br] 0:00:47.984,0:00:52.209 bir eş için oldukça alışılmadık [br]bir şey yaptım: 0:00:53.599,0:00:56.598 Mısır'da kalmak zorunda [br]olan eşimin desteğiyle 0:00:56.598,0:00:59.616 bavullarımı toplayıp [br]İngiltere'ye taşındım. 0:00:59.616,0:01:02.844 Cambridge'de, evimden binlerce mil uzakta, 0:01:02.844,0:01:06.257 dizüstü bilgisayarımla herhangi [br]bir insanla olduğundan 0:01:06.257,0:01:08.486 daha fazla zaman geçirdiğimi fark ettim. 0:01:08.486,0:01:13.339 Bu yakınlığa rağmen, bilgisayarımın ne [br]hissettiğime dair kesinlikle en ufak bir fikri yoktu. 0:01:13.339,0:01:16.550 Mutlu mu olduğum, [br]kötü bir gün mü geçirdiğim 0:01:16.550,0:01:19.538 veya stresli, şaşkın mı olduğumla ilgili 0:01:19.538,0:01:22.460 bir fikri yoktu ve bu [br]sinir bozmaya başladı. 0:01:23.600,0:01:28.831 Daha da kötüsü, ülkemdeki ailemle [br]internette iletişim kurduğumda, 0:01:29.421,0:01:32.703 bütün duygularımın sanal gerçeklik içinde [br]kaybolduğunu hissettim. 0:01:32.703,0:01:37.858 Evimi özlüyordum, yalnızdım [br]ve bazı günler gerçekten ağlıyordum, 0:01:37.858,0:01:42.786 ancak bütün bu duyguları [br]iletme şeklim böyleydi. 0:01:42.786,0:01:44.806 (Gülüşmeler) 0:01:44.806,0:01:49.130 Bugünün teknolojisinin çok fazla [br]I.Q.'su var, ancak E.Q.'su yok; 0:01:49.130,0:01:52.956 oldukça fazla kavramsal zekâ var, [br]ancak duygusal zekâ yok. 0:01:52.956,0:01:55.153 İşte bu beni düşündürdü, 0:01:55.153,0:01:58.777 teknolojimiz duygularımızı [br]hissetse ne olurdu? 0:01:58.777,0:02:02.853 Eğer cihazlarımız nasıl hissettiğimizi bilseler [br]ve ona göre reaksiyon verseler ne olurdu, 0:02:02.853,0:02:05.866 aynen duygusal zekâya sahip [br]bir arkadaşın yapacağı gibi? 0:02:06.666,0:02:10.230 Bu sorular beni ve ekibimi 0:02:10.230,0:02:14.607 duygularımızı okuyup cevap verecek [br]teknolojiler yaratmaya götürdü 0:02:14.607,0:02:17.697 ve başlangıç noktamız insan yüzüydü. 0:02:18.577,0:02:21.750 İnsan yüzü, hepimizin sosyal ve [br]duygusal durumumuzu iletmek için 0:02:21.750,0:02:25.766 kullandığı en güçlü yollardan biri. 0:02:25.766,0:02:28.776 Hoşlanmadan, sürprize, 0:02:28.776,0:02:32.979 empati ve meraka kadar her şeyi. 0:02:32.979,0:02:37.907 Duygu biliminde, her yüz kası [br]hareketine eylem birimi diyoruz. 0:02:37.907,0:02:40.832 Örneğin, eylem birimi 12, 0:02:40.832,0:02:42.870 bir Hollywood kapalı gişesi değil, 0:02:42.870,0:02:46.312 aslında gülüşün ana unsuru olan dudak [br]kenarının yukarı doğru çekilmesi. 0:02:46.312,0:02:49.300 Herkes denesin. Hadi biraz gülümseyelim. 0:02:49.300,0:02:51.954 Diğer bir örnek, eylem birimi 4. [br]Alnın kırışması. 0:02:51.954,0:02:54.192 Kaşlarınızı birbirine yaklaştırıp, 0:02:54.192,0:02:56.459 bütün o kıvrımları ve kırışıklıkları [br]yarattığınız zaman olur. 0:02:56.459,0:03:00.114 Onları sevmeyiz, ama negatif duyguların [br]güçlü bir göstergesidir. 0:03:00.114,0:03:02.460 Bu eylem birimlerinden [br]45 tane kadarına sahibiz 0:03:02.460,0:03:06.350 ve yüzlerce duyguyu ifade [br]etmek için bir araya gelirler. 0:03:06.350,0:03:10.251 Bir bilgisayara yüzdeki bu duyguları [br]okumayı öğretmek zordur, 0:03:10.251,0:03:13.223 çünkü bu eylem birimleri [br]hızlı olabilir, gizli olabilir 0:03:13.223,0:03:15.777 ve birçok farklı şekilde [br]bir araya gelebilirler. 0:03:15.777,0:03:19.515 Örneğin, gülümseme ve [br]zoraki tebessümü ele alalım. 0:03:19.515,0:03:23.268 Bir şekilde benzerler, [br]ancak çok farklı anlamlara gelirler. 0:03:23.268,0:03:24.986 (Gülüşmeler) 0:03:24.986,0:03:27.210 Gülümseme pozitif, 0:03:27.210,0:03:29.260 zoraki tebessüm ise [br]çoğunlukla negatiftir. 0:03:29.260,0:03:33.136 Bazen zoraki tebessüm sizi ünlü yapabilir. 0:03:33.136,0:03:35.960 Ancak sahiden bir bilgisayarın [br]iki ifade arasındaki 0:03:35.960,0:03:38.565 farkı bilebilmesi önemlidir. 0:03:38.565,0:03:40.507 Öyleyse bunu nasıl yaparız? 0:03:40.507,0:03:42.414 Algoritmalarımıza farklı [br] 0:03:42.414,0:03:46.524 etnik gruplardan, yaşlardan, [br]cinsiyetlerden gülümsediğini 0:03:46.524,0:03:49.589 bildiğimiz on binlerce örnek veririz 0:03:49.589,0:03:51.980 ve aynısını zoraki [br]tebessüm için de yaparız. 0:03:51.980,0:03:53.954 Sonra derin öğrenme yoluyla, 0:03:53.954,0:03:56.810 algoritma yüzümüzdeki bütün bu [br]kıvrımlara, kırışıklıklara 0:03:56.810,0:03:59.390 ve şekil değişimlerine bakar, 0:03:59.390,0:04:02.592 kısaca bütün gülümsemelerin ortak [br]özellikleri olduğunu öğrenir, 0:04:02.592,0:04:05.773 bütün zoraki tebessümlerin hemen göze[br]çarpmayan farklı özellikleri var. 0:04:05.773,0:04:08.141 Bir daha yeni bir yüz gördüğünde, 0:04:08.141,0:04:10.440 o yüzün esasen bir gülümsemeye 0:04:10.440,0:04:13.473 özgü karakteristikleri olduğunu öğrenir 0:04:13.473,0:04:17.751 ve şöyle der, "Evet, bunu tanıyorum. [br]Bu bir gülümseme ifadesi." 0:04:18.381,0:04:21.181 Bu teknolojinin nasıl çalıştığını [br]göstermenin en iyi yolu 0:04:21.181,0:04:23.317 canlı bir demo denemek, 0:04:23.317,0:04:27.230 bu yüzden bir gönüllüye ihtiyacım var, [br]tercihen yüzü olan biri. 0:04:27.230,0:04:29.564 (Gülüşmeler) 0:04:29.564,0:04:32.335 Chloe bugün gönüllümüz olacak. 0:04:33.325,0:04:37.783 Geçen beş sene içinde, MIT'de bir [br]araştırma projesi olmaktan 0:04:37.783,0:04:38.939 bir şirket olmaya geçtik, 0:04:38.939,0:04:42.131 ekibim bu teknolojinin çalışması [br]için gerçekten çok çalıştı, 0:04:42.131,0:04:44.540 şu an piyasada kullanılması [br]için diyebiliriz. 0:04:44.540,0:04:47.210 Aynı zamanda onu küçülttük ki, [br]çekirdek duygu makinesi, 0:04:47.210,0:04:50.530 bu iPad gibi kameraya sahip herhangi [br]bir mobil araçta çalışabilsin. 0:04:50.530,0:04:53.316 Hadi bir deneme yapalım. 0:04:54.756,0:04:58.680 Gördüğünüz gibi, algoritma [br]sonuçta Chloe'nin yüzünü buldu, 0:04:58.680,0:05:00.372 işte bu beyaz sınırlı kutu 0:05:00.372,0:05:02.943 ve yüzündeki ana [br]hatları takip ediyor, 0:05:02.943,0:05:05.799 işte kaşları, gözleri, ağzı ve burnu. 0:05:05.799,0:05:08.786 Soru şu; ifadesini tanıyabilecek mi? 0:05:08.786,0:05:10.457 Bu yüzden makineyi test edeceğiz. 0:05:10.457,0:05:14.643 İlk önce, bana ifadesiz yüzünü göster. [br]Evet, harika. (Gülüşmeler) 0:05:14.643,0:05:17.456 Sonra gülümsedikçe, bu gerçek [br]bir gülümseme, harika. 0:05:17.456,0:05:19.756 Evet, gülümsedikçe yeşil çubuğun [br]arttığını görebilirsiniz. 0:05:19.756,0:05:20.978 Evet, bu büyük bir gülümsemeydi. 0:05:20.978,0:05:23.771 Bakalım hafif gülümsediğinde[br]bilgisayarın tanıyabilecek mi? 0:05:23.771,0:05:25.702 Hafif gülümsemeleri de tanıyor. 0:05:25.702,0:05:28.067 Bunu gerçekleştirmek için [br]gerçekten çok çalıştık. 0:05:28.067,0:05:31.439 Sonra kaşlar kalkıyor, [br]şaşırmanın göstergesi. 0:05:31.439,0:05:35.688 Alnın kırışması, [br]kafa karışıklığının göstergesi. 0:05:35.688,0:05:39.695 Somurtma. Evet, mükemmel. 0:05:39.695,0:05:43.188 İşte bunların hepsi farklı eylem [br]birimleri. Daha çok var. 0:05:43.188,0:05:45.220 Bu sadece kısaltılmış bir demo. 0:05:45.220,0:05:48.368 Her okumaya, bir duygu veri [br]noktası adını veriyoruz. 0:05:48.368,0:05:51.337 Sonra farklı duyguları resmetmek [br]için birlikte harekete geçerler. 0:05:51.337,0:05:55.990 Demonun sağ tarafında -- [br]mutlu görün. 0:05:55.990,0:05:57.444 İşte bu neşe. [br]Neşe harekete geçiyor. 0:05:57.444,0:05:59.371 Şimdi bana iğrenme ifadesi ver. 0:05:59.371,0:06:03.643 Zayn One Direction'ı terk ettiğinde[br]nasıl olduğunu hatırlamaya çalış. 0:06:03.643,0:06:05.153 (Gülüşmeler) 0:06:05.153,0:06:09.495 Evet, burnunu kırıştır. Harika. 0:06:09.495,0:06:13.226 Değerlik oldukça negatif, herhâlde [br]çok büyük bir hayranısın. 0:06:13.226,0:06:15.926 Değerlik, deneyimin ne kadar pozitif [br]veya negatif olduğuyla ilgili; 0:06:15.926,0:06:18.712 bağlantı ise, kişinin bunu ne [br]kadar ifade edebildiğiyle. 0:06:18.712,0:06:22.126 O zaman Chloe'nin bu gerçek zamanlı [br]duygu akışına erişimi olduğunu 0:06:22.126,0:06:24.935 ve istediği kişilerle[br]paylaşabileceğini hayal edin. 0:06:24.935,0:06:27.858 Teşekkürler. 0:06:27.858,0:06:32.479 (Alkış) 0:06:33.749,0:06:39.019 Şimdiye kadar bu duygu veri noktalarından [br]12 milyar adet topladık. 0:06:39.019,0:06:41.630 Dünyadaki en büyük duygu veri tabanı. 0:06:41.630,0:06:44.593 Bunu 2,9 milyon yüz videosundan topladık, 0:06:44.593,0:06:47.193 bizimle duygularını paylaşmaya [br]gönüllü insanlardan 0:06:47.193,0:06:50.398 ve dünyadaki 75 ülkeden. 0:06:50.398,0:06:52.113 Her gün büyüyor. 0:06:52.603,0:06:54.670 Duygular kadar kişisel bir şeyi 0:06:54.670,0:06:57.865 artık ölçebiliyor olmamız [br]beni çok şaşırtıyor 0:06:57.865,0:07:00.100 ve bunu bu ölçekte yapabiliyoruz. 0:07:00.100,0:07:02.277 Peki şimdiye kadar ne öğrendik? 0:07:03.057,0:07:05.388 Cinsiyet. 0:07:05.388,0:07:09.034 Şüpheleniyor olduğunuz [br]bir şeyi verimiz doğruluyor. 0:07:09.034,0:07:10.891 Kadınlar erkeklerden daha [br]fazla duygularını ifade ediyor. 0:07:10.891,0:07:13.574 Daha çok gülümsemeleri yanında, [br]gülümsemeleri daha uzun sürüyor 0:07:13.574,0:07:16.478 ve erkeklerle kadınların [br]gerçekten neye farklı 0:07:16.478,0:07:18.614 yanıt verdiğini artık ölçebiliyoruz. 0:07:18.614,0:07:20.904 Hadi kültüre bakalım: [br]Amerika Birleşik Devletleri'nde, 0:07:20.904,0:07:24.108 kadınlar erkeklerden yüzde 40 [br]daha fazla ifadelerini gösteriyor, 0:07:24.108,0:07:27.753 ancak ilginç biçimde Birleşik Krallık'ta erkekler [br]ve kadınlar arasında fark görmüyoruz. 0:07:27.753,0:07:30.259 (Gülüşmeler) 0:07:31.296,0:07:35.323 Yaş: 50 ve üzerindeki yaştaki insanlar 0:07:35.323,0:07:38.759 gençlerden yüzde 25 daha duygusal. 0:07:39.899,0:07:43.751 Yirmilerindeki kadınlar aynı yaştaki [br]erkeklerden daha fazla gülümsüyor, 0:07:43.751,0:07:47.590 belki de flört için bir gereklilik. 0:07:47.590,0:07:50.207 Ancak belki de bu veriyle ilgili [br]bizi en fazla şaşırtan şey, 0:07:50.207,0:07:53.410 her zaman duygularımızı [br]ifade ediyor oluşumuz, 0:07:53.410,0:07:56.243 cihazlarımızın başında tek [br]başımıza oturuyor olsak bile 0:07:56.243,0:07:59.517 ve sadece Facebook'ta [br]kedi videoları izlerken değil. 0:08:00.217,0:08:03.227 E-posta atarken, mesajlaşırken, internette [br]alışveriş yaparken veya vergilerimizi 0:08:03.227,0:08:05.527 hallederken bile duygularımızı [br]ifade ediyoruz. 0:08:05.527,0:08:07.919 Bu veri bugün nerede kullanılıyor? 0:08:07.919,0:08:10.682 Medya ile nasıl bağ[br]kurduğumuzu anlamada, 0:08:10.682,0:08:13.166 yani yayılma ve oy verme [br]davranışını anlamada 0:08:13.166,0:08:16.446 ve bunun yanında teknolojik güçlendirme [br]veya duygu-etkinleştirmede. 0:08:16.446,0:08:20.527 Özellikle çok sevdiğim bazı örnekleri [br]sizinle paylaşmak istiyorum. 0:08:21.197,0:08:24.265 Duygu-etkinleştirilmiş, giyilebilir [br]gözlükler, görme engelli olan 0:08:24.265,0:08:27.493 bireylere diğerlerinin yüzlerini [br]okumada yardımcı olabilir 0:08:27.493,0:08:31.020 ve otizm spektrumu olan bireylere [br]duyguları anlamada yardımcı olabilir, 0:08:31.020,0:08:33.358 bu onların gerçekten çok [br]zorluk çektiği bir şey. 0:08:35.668,0:08:38.777 Eğitimde, öğrenme uygulamalarınızın [br]kafanızın karıştığını 0:08:38.777,0:08:41.587 hissettiğini ve yavaşladığını veya [br]sıkıldığınızı hissettiğini, 0:08:41.587,0:08:43.444 bu yüzden hızlandığını hayal edin, 0:08:43.444,0:08:46.413 aynı iyi bir öğretmenin [br]sınıfta yapacağı gibi. 0:08:47.043,0:08:49.644 Eğer kolunuzdaki saatiniz ruh hâlinizi [br]takip etseydi ne olurdu 0:08:49.644,0:08:52.337 veya arabanız yorgun [br]olduğunuzu hissetseydi 0:08:52.337,0:08:54.885 veya belki de buzdolabınız stresli [br]olduğunuzu bilseydi, 0:08:54.885,0:08:59.391 o zaman sizi aşırı yemeden korumak için [br]otomatik olarak kilitlenirdi. (Gülüşmeler) 0:08:59.391,0:09:01.388 Bunu isterdim, evet. 0:09:03.668,0:09:05.595 Eğer Cambridge'deyken 0:09:05.595,0:09:07.908 gerçek zamanlı duygu [br]akışına erişimim olsaydı 0:09:07.908,0:09:11.437 ve bunu ülkemdeki ailemle çok doğal [br]bir şekilde paylaşabilseydim, 0:09:11.437,0:09:15.408 aynı hepimiz aynı odada [br]olsaydık yapacağım gibi. 0:09:15.408,0:09:18.550 Bence beş yıl içinde, 0:09:18.550,0:09:20.887 bütün cihazlarımızın duygu çipi olacak, 0:09:20.887,0:09:24.951 yalnızca cihazımıza somurttuğumuzda, [br]"Hımm, bunu sevmedin, değil mi?" 0:09:24.951,0:09:29.200 diyecek bir cihazımızın olmamasının [br]nasıl bir şey olduğunu hatırlamayacağız. 0:09:29.200,0:09:32.961 En büyük sorunumuz, bu teknolojinin [br]pek çok uygulaması olması, 0:09:32.961,0:09:35.864 ekibim ve ben hepsini tek başımıza [br]yapamayacağımızın farkındayız, 0:09:35.864,0:09:39.360 o yüzden bu teknolojiyi kullanılabilir hâle [br]getirdik, böylece diğer geliştiriciler 0:09:39.360,0:09:41.474 de yapmaya başlayabilir [br]ve yaratıcı olabilirler. 0:09:41.474,0:09:45.560 Olası risklerin ve istismar olasılığının 0:09:45.560,0:09:47.627 olduğunun farkındayız, 0:09:47.627,0:09:50.576 ancak şahsen bunu yıllardır [br]yapan biri olarak ben, 0:09:50.576,0:09:53.548 duygusal olarak akıllı [br]teknolojilere sahip olmanın 0:09:53.548,0:09:55.823 insanlığa getirdiği yararların,[br]yanlış kullanılma 0:09:55.823,0:09:59.399 olasılığından çok daha [br]ağır bastığına inanıyorum. 0:09:59.399,0:10:01.930 Hepinizi bu etkileşimin bir parçası [br]olmaya davet ediyorum. 0:10:01.930,0:10:04.484 Bu teknolojiyi bilen daha [br]fazla insan oldukça, 0:10:04.484,0:10:07.661 nasıl kullanıldığıyla ilgili daha [br]fazla söz hakkımız olur. 0:10:09.081,0:10:13.655 Hayatlarımız daha fazla [br]dijital hâle geldikçe, 0:10:13.655,0:10:17.153 duygularımızı geri kazanmak için,[br]cihazlarımızı kullanmayı frenlemeye 0:10:17.153,0:10:19.382 çalışarak beyhude savaş veriyoruz. 0:10:20.622,0:10:24.536 Bu yüzden bunun yerine yapmaya çalıştığım [br]şey, duyguları teknolojimize getirmek 0:10:24.536,0:10:26.765 ve teknolojilerimizi daha cevap[br]verir hâle getirmek. 0:10:26.765,0:10:29.435 Bu yüzden bizi ayıran bu cihazlarımızın, 0:10:29.435,0:10:31.897 bizi tekrar bir araya [br]getirmesini istiyorum. 0:10:31.897,0:10:36.485 Teknolojiyi insanlaştırarak, makinelerle [br]nasıl bağlantı kuracağımızı 0:10:36.485,0:10:39.782 ve böylece insanlık olarak birbirimizle [br]nasıl bağlantı kuracağımızı 0:10:39.782,0:10:44.263 tekrar düşünmek için [br] 0:10:44.263,0:10:46.167 bulunmaz bir fırsatımız var. 0:10:46.167,0:10:48.327 Teşekkürler. 0:10:48.327,0:10:51.640 (Alkış)