1 00:00:07,052 --> 00:00:11,642 Her geçen yıl makineler insanları, daha önce sadece bizim yapabildiğimizi 2 00:00:11,642 --> 00:00:14,848 sandığımız pek çok faaliyette gölgede bırakıyor. 3 00:00:14,848 --> 00:00:18,423 Bugünün bilgisayarları karmaşık masaüstü oyunlarında yenebiliyor, 4 00:00:18,423 --> 00:00:21,294 sayısız dilde konuşma metnini çevirebiliyor 5 00:00:21,294 --> 00:00:24,746 ve hemen hemen her nesneyi anında tanımlayabiliyorlar. 6 00:00:24,746 --> 00:00:27,112 Ancak yarının robotları, 7 00:00:27,112 --> 00:00:30,243 nasıl hissettiğimizi çözerek daha ileri gidebilirler. 8 00:00:30,243 --> 00:00:32,381 Ve bu neden önemli? 9 00:00:32,381 --> 00:00:34,713 Çünkü eğer makineler ve onları çalıştıran insanlar 10 00:00:34,713 --> 00:00:37,223 duygusal durumlarımızı doğru olarak okuyabilirlerse, 11 00:00:37,223 --> 00:00:40,193 benzeri görülmemiş şekillerde bize yardımcı olabilir veya 12 00:00:40,193 --> 00:00:43,102 bizi yönetebilirler. 13 00:00:43,102 --> 00:00:44,614 Ancak oraya gelmeden önce, 14 00:00:44,614 --> 00:00:49,653 duygu gibi çok karmaşık bir şey, nasıl sadece dil makinelerinin anlayacağı 15 00:00:49,653 --> 00:00:53,253 önemsiz sayılara dönüştürülebiliyor? 16 00:00:53,253 --> 00:00:56,843 Esasen beyinlerimizin duyguları nasıl ayırt edeceklerini öğrenerek 17 00:00:56,843 --> 00:00:58,994 yorumladıkları şekilde. 18 00:00:58,994 --> 00:01:04,120 Amerikalı psikolog Paul Ekman, kültürler boyunca görsel ipuçlarının 19 00:01:04,120 --> 00:01:09,174 aynı şekilde anlaşıldığı belirli evrensel duyguları tanımladı. 20 00:01:09,174 --> 00:01:14,193 Örneğin, bir gülümseme görüntüsü, modern şehir insanına ve yerli kabilelere 21 00:01:14,193 --> 00:01:16,965 aynı hazzı gönderiyor. 22 00:01:16,965 --> 00:01:18,094 Ekman'a göre, 23 00:01:18,094 --> 00:01:18,823 öfke, 24 00:01:18,823 --> 00:01:19,533 tiksinti, 25 00:01:19,533 --> 00:01:20,275 korku, 26 00:01:20,275 --> 00:01:21,092 haz, 27 00:01:21,092 --> 00:01:21,848 üzüntü 28 00:01:21,848 --> 00:01:25,433 ve şaşkınlık eşit derecede tanınabilir. 29 00:01:25,433 --> 00:01:29,836 Görünen o ki, bilgisayarlar görüntü tanımada sinir ağları gibi 30 00:01:29,836 --> 00:01:34,015 algoritma öğrenen makineler sayesinde, hızla daha iyiye gidiyorlar. 31 00:01:34,015 --> 00:01:38,205 Bunlar, bağlantılarımızı şekillendirerek ve bilgi değişimi yaparak 32 00:01:38,205 --> 00:01:41,784 biyolojik nöronlarımızı taklit eden suni ağlar içeriyor. 33 00:01:41,784 --> 00:01:46,125 Ağı eğitmek için, farklı kategorilere ön sınıflandırması yapılmış, 34 00:01:46,125 --> 00:01:49,175 mutlu ya da üzüntülü olarak işaretlenmiş fotoğraf gibi girdiler, 35 00:01:49,175 --> 00:01:51,285 sistem içine beslenirler. 36 00:01:51,285 --> 00:01:53,745 Ağ daha sonra belirli özelliklere görevlendirilmiş 37 00:01:53,745 --> 00:01:58,405 ilgili ağırlıkları ayarlayarak bu örnekleri sınıflandırmayı öğrenir. 38 00:01:58,405 --> 00:02:00,225 Ne kadar çok eğitme verisi girilirse, 39 00:02:00,225 --> 00:02:04,795 algoritma yeni görüntüleri doğru olarak tanımakta o kadar iyi olur. 40 00:02:04,795 --> 00:02:07,137 Bu, yeni uyarıcının nasıl işlem göreceğini 41 00:02:07,137 --> 00:02:11,725 şekillendirmek için önceki deneyimlerden öğrenen kendi beyinlerimize benzer. 42 00:02:11,725 --> 00:02:15,466 Algoritmaları tanımak sadece yüz ifadeleri ile sınırlı değildir. 43 00:02:15,466 --> 00:02:17,886 Duygularımız pek çok yönden açığa çıkıyor. 44 00:02:17,886 --> 00:02:20,116 Beden dili ve ses tonu, 45 00:02:20,116 --> 00:02:23,237 kalp atışında değişiklik, yüz rengi ve vücut ısısı 46 00:02:23,237 --> 00:02:28,046 ya da yazdığımız yazıdaki kelimelerin sıklığı ve cümle yapısı ile. 47 00:02:28,046 --> 00:02:31,205 Sinir ağlarını bunları tanımak için eğitmenin uzun ve karmaşık 48 00:02:31,205 --> 00:02:33,637 bir görev olduğunu düşünebilirsiniz 49 00:02:33,637 --> 00:02:36,876 ancak orada ne kadar verinin olduğunu ve 50 00:02:36,876 --> 00:02:40,375 modern bilgisayarların ne kadar çabuk işleyebildiğini fark edinceye kadar. 51 00:02:40,375 --> 00:02:41,807 Sosyal medya yorumlarından, 52 00:02:41,807 --> 00:02:43,576 yüklenen fotoğraflar ve videolardan 53 00:02:43,576 --> 00:02:45,067 ve telefon kayıtlarından, 54 00:02:45,067 --> 00:02:46,767 ısıya duyarlı güvenlik kameraları 55 00:02:46,767 --> 00:02:50,437 ve fizyolojik işaretleri gözleyen giysi bilgisayarlara kadar, 56 00:02:50,437 --> 00:02:52,947 asıl soru yeterince verinin nasıl toplanacağı değil, 57 00:02:52,947 --> 00:02:55,255 onunla ne yapacağımızdır. 58 00:02:55,255 --> 00:02:59,706 Bilgisayarlı duygu tanımanın çok fazla yararlı kullanımları var. 59 00:02:59,706 --> 00:03:02,537 Algoritmaları kullanarak yüz ifadelerini tanımlayan robotlar 60 00:03:02,537 --> 00:03:04,416 çocukların öğrenmelerine yardım edebilir 61 00:03:04,416 --> 00:03:07,636 veya yalnız insanlara bir çeşit arkadaşlık sağlayabilirler. 62 00:03:07,636 --> 00:03:11,667 Sosyal medya şirketleri, belirli kelime ve tabirleri içeren mesajları işaretleyerek 63 00:03:11,667 --> 00:03:17,047 intiharları önlemeye yardım etmek için algoritmaları kullanmayı düşünüyorlar. 64 00:03:17,047 --> 00:03:21,287 Ve duygu tanıma yazılımları ruhsal bozuklukları tedavi etmeye yardım edebilir 65 00:03:21,287 --> 00:03:25,578 veya insanlara düşük ücretle otomatik psikoterapi sağlayabilirler. 66 00:03:25,578 --> 00:03:27,188 Potansiyel faydalarına rağmen, 67 00:03:27,188 --> 00:03:30,869 fotoğraflarımızı otomatik olarak tarayan büyük bir ağın olasılığı, 68 00:03:30,869 --> 00:03:31,958 görüşmeler 69 00:03:31,958 --> 00:03:36,877 ve fizyolojik işaretler de oldukça rahatsız edici. 70 00:03:36,877 --> 00:03:40,796 Bu tür şahsi olmayan sistemler reklamcılık yoluyla duygularımızı sömüren 71 00:03:40,796 --> 00:03:45,208 şirketler tarafından kullanıldığında, mahremiyetimiz için sonuçlar ne olur? 72 00:03:45,208 --> 00:03:46,718 Ve eğer yetkililer, 73 00:03:46,718 --> 00:03:50,737 suç işleme potansiyeli olan insanları, hareket etmeye karar vermeden önce 74 00:03:50,737 --> 00:03:54,927 belirleyebileceklerini düşünüyorlarsa, bizim haklarımıza ne olacak? 75 00:03:54,927 --> 00:03:57,150 Robotların hâlihazırda, ironi yapmak gibi 76 00:03:57,150 --> 00:04:00,258 duygusal nüansları ve birinin ne kadar mutlu ya da üzgün olduğunu 77 00:04:00,258 --> 00:04:04,758 gösteren duyguların derecesini ayırt etmekte gidecek çok yolları var. 78 00:04:04,758 --> 00:04:09,288 Yine de, zamanla duygularımızı doğru olarak okuyabilirler 79 00:04:09,288 --> 00:04:11,138 ve onlara cevap verebilirler. 80 00:04:11,138 --> 00:04:15,389 Ancak, istenmeyen ihlal korkumuzla empati yapıp yapamayacaklarıysa, 81 00:04:15,389 --> 00:04:16,887 başka bir konu.