1 00:00:00,975 --> 00:00:02,571 Algoritmalar her yerde. 2 00:00:04,111 --> 00:00:07,236 Kazananları kaybedenlerden ayırıyor. 3 00:00:08,019 --> 00:00:10,283 Kazananlar ya işi alıyor 4 00:00:10,307 --> 00:00:12,050 ya da iyi bir kredi kartı teklifi. 5 00:00:12,074 --> 00:00:14,700 Kaybedenler iş görüşmesine bile çağrılmaz 6 00:00:15,610 --> 00:00:18,107 veya sigorta primi için daha fazla ödeme yaparlar. 7 00:00:18,227 --> 00:00:21,746 Doğrulama sistemi olmayan, anlamadığımız 8 00:00:22,675 --> 00:00:25,892 gizli formülasyonlar ile puanlanıyoruz. 9 00:00:26,730 --> 00:00:28,536 Burada şu soru akla geliyor: 10 00:00:28,560 --> 00:00:31,473 Peki ya algoritmalar hatalıysa? 11 00:00:33,100 --> 00:00:35,140 Algoritma oluşturmak için 2 şey gerekli: 12 00:00:35,164 --> 00:00:37,145 Geçmişte ne olduğunu gösteren veri, 13 00:00:37,169 --> 00:00:38,730 o her zaman aradığınız 14 00:00:38,754 --> 00:00:41,211 ve bulmayı umduğunuz başarı tanımına. 15 00:00:41,235 --> 00:00:46,272 Sonuca ulaşmak için algoritma çalıştırırsınız. 16 00:00:46,296 --> 00:00:49,715 Algoritma başarı ile nelerin bağlantılı olduğunu keşfeder. 17 00:00:49,739 --> 00:00:52,202 Hangi durum başarıya ulaştırır? 18 00:00:52,881 --> 00:00:54,643 Aslında herkes algoritma kullanır. 19 00:00:54,667 --> 00:00:57,385 Sadece yazılı olarak formüle etmezler. 20 00:00:57,409 --> 00:00:58,757 Size bir örnek vereyim. 21 00:00:58,781 --> 00:01:02,097 Aileme yemek yapmak için her gün algoritma kullanırım. 22 00:01:02,121 --> 00:01:03,597 Kullandığım veri 23 00:01:04,394 --> 00:01:06,053 mutfağımdaki malzemeler, 24 00:01:06,077 --> 00:01:07,604 zaman, 25 00:01:07,628 --> 00:01:08,861 tutkudur 26 00:01:08,885 --> 00:01:10,594 ve bu verileri düzene koyarım. 27 00:01:10,618 --> 00:01:14,869 Bu arada, Japon erişte paketlerini yemekten saymıyorum. 28 00:01:14,893 --> 00:01:16,762 (Kahkahalar) 29 00:01:16,786 --> 00:01:18,631 Başarı tanımım şudur: 30 00:01:18,655 --> 00:01:21,314 Çocuklarım sebzeleri yerse yemeğim başarılıdır. 31 00:01:22,181 --> 00:01:25,035 En küçük oğluma sorulsaydı bu tanım farklı olurdu. 32 00:01:25,059 --> 00:01:27,847 Onun başarı tanımı çok miktarda Nutella yemek. 33 00:01:29,179 --> 00:01:31,405 Ama başarıya ben ulaşmalıyım. 34 00:01:31,429 --> 00:01:34,076 Bu iş benim sorumluluğumda. Görüşüm önemli. 35 00:01:34,166 --> 00:01:36,835 Bu, algoritmaların ilk kuralı. 36 00:01:36,835 --> 00:01:40,015 Algoritmalar, kodların içine gömülmüş fikirlerdir. 37 00:01:41,562 --> 00:01:45,225 İnsanların algoritmalar hakkındaki görüşlerinden farklı bir şey bu. 38 00:01:45,249 --> 00:01:49,753 İnsanlar algoritmaların tarafsız, doğru ve bilimsel olduğunu düşünür. 39 00:01:50,387 --> 00:01:52,086 Bu bir pazarlama hilesi. 40 00:01:53,269 --> 00:01:55,394 Algoritmalara güvenmeniz 41 00:01:55,418 --> 00:01:58,572 ve onlardan korkmanız için 42 00:01:58,596 --> 00:02:02,257 bir pazarlama hilesidir çünkü matematikten de korkarsınız 43 00:02:02,281 --> 00:02:04,299 ama sayılara güvenirsiniz. 44 00:02:05,567 --> 00:02:10,397 Büyük veriye körü körüne inanırsak çok şey yanlış gidebilir. 45 00:02:11,684 --> 00:02:15,057 Bu Kiri Soares. Brooklyn'de okul müdürü. 46 00:02:15,081 --> 00:02:17,667 2011'de öğretmenlerin 'katma değer modeli' adında 47 00:02:17,691 --> 00:02:20,418 gizli, karışık bir algoritma ile 48 00:02:20,442 --> 00:02:21,931 puanlandıklarını söyledi. 49 00:02:22,505 --> 00:02:25,597 "Formülasyonu bana göster, sana içeriğini açıklayayım" dedim. 50 00:02:26,656 --> 00:02:29,327 Cevap verdi: "Doğrusu formülasyonu almaya çalıştım 51 00:02:29,351 --> 00:02:31,833 fakat eğitim birimi bana bunun matematiksel olduğunu 52 00:02:31,867 --> 00:02:33,723 ve içeriğini anlamayacağımı söyledi". 53 00:02:35,266 --> 00:02:36,604 Daha kötüye gidiyor. 54 00:02:36,628 --> 00:02:40,158 The New York Post, "Bilgiye Özgürlük Hareketi" kapsamındaki 55 00:02:40,182 --> 00:02:43,141 talebi sonucu öğretmenlerin isim ve puanlarını temin edip 56 00:02:43,165 --> 00:02:45,947 adeta öğretmen ayıplama eylemi olarak sonuçları yayımladı. 57 00:02:47,084 --> 00:02:50,944 Aynı yollarla formül ve kaynak kodunu almaya çalıştığımda 58 00:02:50,968 --> 00:02:53,557 bunu alamayacağım söylendi. Talebim reddedildi. 59 00:02:54,061 --> 00:02:55,575 Sonra New York'ta hiç kimsenin 60 00:02:55,599 --> 00:02:58,465 bu formüle erişimi olmadığını öğrendim. 61 00:02:58,489 --> 00:03:00,224 Kimse içeriğini bilmiyor, anlamıyor. 62 00:03:01,929 --> 00:03:05,153 Sonra Gary Rubinstein adında zeki biri olaya dâhil oldu. 63 00:03:05,177 --> 00:03:08,798 Rubinstein, New York Post verisindeki 665 öğretmenin aslında iki tane 64 00:03:08,822 --> 00:03:10,688 yani mükerrer puanı olduğunu keşfetti. 65 00:03:10,712 --> 00:03:13,043 Bu ancak, öğretmenler 7 ve 8'inci sınıflara 66 00:03:13,043 --> 00:03:15,056 ders veriyor olsaydı oluşabilirdi. 67 00:03:15,080 --> 00:03:16,948 Rubinstein, sonuçların grafiğini çizdi. 68 00:03:16,948 --> 00:03:18,805 Her nokta bir öğretmeni temsil ediyor. 69 00:03:19,104 --> 00:03:21,483 (Kahkahalar) 70 00:03:21,507 --> 00:03:23,028 Nedir bu? 71 00:03:23,052 --> 00:03:24,329 (Kahkahalar) 72 00:03:24,353 --> 00:03:27,799 Bu asla kişileri değerlendirmek için kullanılmamalıydı. 73 00:03:27,823 --> 00:03:29,749 Tıpkı rasgele bir sayı üreticisi gibi. 74 00:03:29,773 --> 00:03:32,719 (Alkışlar) 75 00:03:32,743 --> 00:03:33,905 Ama kullanıldı. 76 00:03:33,929 --> 00:03:35,105 Bu Sarah Wysocki. 77 00:03:35,129 --> 00:03:37,304 Diğer 205 öğretmen ile birlikte 78 00:03:37,328 --> 00:03:39,990 Washington'ta görevine son verildi. 79 00:03:40,014 --> 00:03:42,923 Oysa okul müdürü ve veliler 80 00:03:42,947 --> 00:03:44,375 kendisinden çok memnundu. 81 00:03:45,034 --> 00:03:47,106 Burada başta yapay zeka uzmanları 82 00:03:47,106 --> 00:03:49,933 ve veri bilimciler olmak üzere ne düşündüğünüzü biliyorum. 83 00:03:49,957 --> 00:03:54,183 Muhtemelen "Böyle tutarsız bir algoritma oluşturmazdım" diyorsunuz. 84 00:03:54,673 --> 00:03:56,536 Oysa algoritmalar hatalı kurulabilir 85 00:03:56,560 --> 00:04:01,158 ve kötü niyetle oluşturulmasalar da yıkıcı sonuçları olabilir. 86 00:04:02,531 --> 00:04:04,910 Kötü tasarlanmış bir uçak 87 00:04:04,934 --> 00:04:06,935 kaza yapar ve herkes hatayı görür, 88 00:04:06,959 --> 00:04:08,809 oysa algoritma kötü tasarlandığında 89 00:04:10,245 --> 00:04:14,110 zarar vermeye sessizce, uzun süre devam edebilir. 90 00:04:15,748 --> 00:04:17,318 Bu Roger Ailes. 91 00:04:17,342 --> 00:04:19,342 (Kahkahalar) 92 00:04:20,524 --> 00:04:22,912 Fox News kanalını 1996'da kurdu. 93 00:04:23,126 --> 00:04:26,017 Kanalda 20'den fazla kadın taciz iddiasıyla şikayetçi oldu. 94 00:04:26,041 --> 00:04:29,276 Haber kanalında başarıya ulaşmalarının engellendiğini söylediler. 95 00:04:29,300 --> 00:04:31,820 Görevi geçen sene sonlandırıldı 96 00:04:31,844 --> 00:04:34,514 ama problemlerin devam ettiğini öğrendik. 97 00:04:35,654 --> 00:04:37,054 Bu, şu soruyu akla getiriyor: 98 00:04:37,078 --> 00:04:39,962 Fox News, temiz bir sayfa açmak için ne yapmalı? 99 00:04:40,475 --> 00:04:43,806 İşe alım süreçlerini makine öğrenmesine dayalı 100 00:04:43,950 --> 00:04:45,964 bir algoritma ile değiştirseler ne olur? 101 00:04:45,988 --> 00:04:47,583 Kulağa iyi geliyor, değil mi? 102 00:04:47,607 --> 00:04:48,907 Bir düşünün. 103 00:04:48,931 --> 00:04:51,036 Veri ne olurdu? 104 00:04:51,060 --> 00:04:56,007 Son 21 yılda kanala yapılan iş başvuruları veri seçimi için 105 00:04:56,031 --> 00:04:57,533 mantıklı olur. 106 00:04:57,557 --> 00:04:59,695 Peki ya buradaki 'başarının tanımı' nedir? 107 00:04:59,771 --> 00:05:01,245 Makul bir karar şöyle olurdu; 108 00:05:01,269 --> 00:05:03,047 Fox News'da kim başarılı? 109 00:05:03,071 --> 00:05:06,651 Diyelim ki 4 sene orada kalmış, 110 00:05:06,675 --> 00:05:08,329 en az 1 kez terfi almış kişiler. 111 00:05:08,816 --> 00:05:10,377 Kulağa mantıklı geliyor. 112 00:05:10,401 --> 00:05:12,755 Sonra algoritma oluşturulurdu. 113 00:05:12,779 --> 00:05:16,656 Kimlerin başarıya ulaştığını öğrenmek, 114 00:05:17,219 --> 00:05:21,537 geçmişte ne tür başvuruların başarıya ulaştığını görmek için 115 00:05:21,561 --> 00:05:23,025 algoritma oluşturulurdu. 116 00:05:23,460 --> 00:05:25,485 Mevcut iş başvurularının bulunduğu havuza 117 00:05:25,649 --> 00:05:28,554 bu yöntem uygulansa ne olabilirdi, düşünün. 118 00:05:29,119 --> 00:05:31,208 Geçmişte başarılı olanlar gibi görünmeyen 119 00:05:31,663 --> 00:05:35,593 kadınları filtreleyebilirdi. 120 00:05:39,752 --> 00:05:42,289 Eğer sadece umarsızca 121 00:05:42,313 --> 00:05:44,201 kör bir şekilde kullanırsanız 122 00:05:44,201 --> 00:05:46,513 algoritmalar süreçleri daha adil hale getirmez. 123 00:05:46,537 --> 00:05:48,665 Geçmişteki uygulamalarımızı, 124 00:05:48,689 --> 00:05:50,202 kalıplarımızı tekrarlar durur. 125 00:05:50,266 --> 00:05:51,835 Otomatikmen kalıcı hale gelir. 126 00:05:52,718 --> 00:05:55,107 Mükemmel bir dünyada yaşasaydık bu iyi olurdu 127 00:05:55,905 --> 00:05:57,217 fakat dünya mükemmel değil. 128 00:05:57,241 --> 00:06:01,343 Şunu da söyleyeyim, pek çok şirketin yüz kızartıcı davası yoktur 129 00:06:02,446 --> 00:06:05,034 fakat veriyi takip etmeleri 130 00:06:05,058 --> 00:06:07,247 ve veriye odaklanmaları söylenen 131 00:06:07,271 --> 00:06:09,414 veri bilimcileri vardır. 132 00:06:09,993 --> 00:06:11,654 Bunun ne anlama geldiğini düşünün. 133 00:06:11,678 --> 00:06:15,705 Çünkü hepimizin ön yargıları var, ki bu cinsiyetçiliği veya başka bir 134 00:06:15,729 --> 00:06:17,995 ayrımcılığın kodlanabileceği anlamına gelebilir. 135 00:06:19,488 --> 00:06:20,909 Düşünce deneyi yapalım 136 00:06:20,933 --> 00:06:22,442 çünkü bunu seviyorum: 137 00:06:23,574 --> 00:06:26,549 Tüm şehirler ve mahallelerinin ırk bakımından 138 00:06:28,247 --> 00:06:31,575 ötekileştirildiği bir toplumda 139 00:06:31,599 --> 00:06:34,636 polisler suç aramak için 140 00:06:34,660 --> 00:06:36,523 sadece azınlık mahallelerine gidiyor. 141 00:06:36,523 --> 00:06:38,670 Yakalamalar epey taraflı olurdu. 142 00:06:39,261 --> 00:06:42,426 Bu sürecin yönetiminde gelecek suçların nerede olacağını öngören 143 00:06:42,450 --> 00:06:46,611 ve maaş ödenen veri bilimcileri olsa ne olurdu? 144 00:06:47,275 --> 00:06:48,762 Azınlık mahalleleri. 145 00:06:49,285 --> 00:06:52,410 Veya bir sonraki suçlunun kim olacağını öngörmek için? 146 00:06:52,888 --> 00:06:54,283 Bir azınlık. 147 00:06:55,949 --> 00:06:58,870 Veri bilimcileri, modellerinin ne kadar 148 00:06:58,894 --> 00:07:00,811 iyi ve uygulanabilir olduğu konusunda 149 00:07:00,835 --> 00:07:02,814 övünürlerdi ve haklı olurlardı da. 150 00:07:03,951 --> 00:07:08,280 Şu an gerçeklik bu kadar keskin değil, ama pek çok bölgede 151 00:07:08,280 --> 00:07:09,877 taraflı davranıldığını gösteren 152 00:07:09,901 --> 00:07:11,794 polis ve hukuk sistemi verisi 153 00:07:11,818 --> 00:07:14,506 ayrımcılık yapıldığını gösteriyor. 154 00:07:15,632 --> 00:07:18,447 Aslına bakılırsa suçların meydana geleceği 155 00:07:18,471 --> 00:07:20,001 sıcak bölgeleri öngörüyoruz. 156 00:07:20,401 --> 00:07:24,267 Hatta bireysel suçluluk konusunda da 157 00:07:24,291 --> 00:07:26,061 öngörü yapıyoruz. 158 00:07:26,972 --> 00:07:30,115 ProPublica isimli organizasyon 159 00:07:30,169 --> 00:07:32,467 Florida'da hakimlerce kullanılan, 160 00:07:32,467 --> 00:07:34,380 'suçun tekrarlama riski' adı verilen 161 00:07:34,380 --> 00:07:36,908 algoritmaya baktılar. 162 00:07:38,411 --> 00:07:41,996 Algoritmada Bernard, soldaki siyah kişi, 10 üzerinden 10 puan aldı. 163 00:07:42,879 --> 00:07:45,186 Dylan, sağdaki kişi, 10 üzerinden 3 puan. 164 00:07:45,210 --> 00:07:47,961 10 üzerinden 10 yüksek risk. 10 üzerinden 3 düşük risk. 165 00:07:47,978 --> 00:07:50,677 Her ikisi de uyuşturucu bulundurmaktan göz altına alındı. 166 00:07:50,677 --> 00:07:52,301 Her ikisinin de sabıka kaydı var. 167 00:07:52,301 --> 00:07:54,991 Ama Dylan'ın ağır suçu varken 168 00:07:55,015 --> 00:07:56,191 Bernard'ın yoktu. 169 00:07:57,818 --> 00:08:00,884 Bu önemli çünkü puan yükseldikçe 170 00:08:00,908 --> 00:08:04,381 uzun süreli ceza alma ihtimali artıyor. 171 00:08:06,294 --> 00:08:07,588 Neler oluyor? 172 00:08:08,526 --> 00:08:09,858 Veri manipülasyonu. 173 00:08:10,930 --> 00:08:15,251 Bu, teknoloji uzmanlarının çirkin gerçekleri kara kutulu algoritmalarla 174 00:08:15,251 --> 00:08:17,202 gizledikleri bir süreç. 175 00:08:17,226 --> 00:08:18,516 Bunun objektif 176 00:08:19,320 --> 00:08:20,888 ve ideal olduğunu söylüyorlar. 177 00:08:23,118 --> 00:08:25,503 Gizli, önemli ve yıkıcı sonuçları olan 178 00:08:25,527 --> 00:08:28,014 algoritmalar için bir deyim türettim: 179 00:08:28,038 --> 00:08:30,037 "Matematiksel yıkım silahları" 180 00:08:30,061 --> 00:08:31,625 (Kahkahalar) 181 00:08:31,649 --> 00:08:34,223 (Alkışlar) 182 00:08:34,267 --> 00:08:37,561 Bunlar her yerdeler ve her yerde olmaları hata sonucu değil. 183 00:08:37,695 --> 00:08:41,418 Bunlar özel amaç için özel algoritmalar üreten 184 00:08:41,442 --> 00:08:42,834 özel şirketler. 185 00:08:43,214 --> 00:08:46,428 Öğretmenler ve polisler ile ilgili söylediklerim bile 186 00:08:46,452 --> 00:08:48,321 özel şirketler tarafından üretilip 187 00:08:48,345 --> 00:08:50,576 kamu kurumlarına satıldı. 188 00:08:50,600 --> 00:08:52,473 Buna onların "özel tarifi" diyorlar 189 00:08:52,497 --> 00:08:54,705 ve bu yüzden içeriği ile ilgili konuşmuyorlar. 190 00:08:54,725 --> 00:08:56,869 Bu bir tür özel güç. 191 00:08:57,924 --> 00:09:02,619 Kamu otoritesini kullanarak kar ediyorlar. 192 00:09:05,114 --> 00:09:07,268 Tüm bunların özel sektörde olduğu 193 00:09:07,302 --> 00:09:09,640 ve sektörde rekabet olduğu için serbest piyasanın 194 00:09:09,640 --> 00:09:11,500 bu sorunu çözeceğini düşünüyorsanız 195 00:09:11,610 --> 00:09:12,833 sorunu çözmeyecek. 196 00:09:12,857 --> 00:09:15,977 Adaletsizlik ile elde edilen önemli miktarda para var. 197 00:09:17,127 --> 00:09:20,496 Ayrıca ekonomik olarak rasyonel karar alıcılar değiliz. 198 00:09:20,921 --> 00:09:22,843 Farkında olmadığımız ön yargılarımız var. 199 00:09:22,960 --> 00:09:26,337 Farkında olmasak ve öyle olmayı dilemesek bile 200 00:09:26,361 --> 00:09:28,380 kafa tasçı ve dar kafalıyız. 201 00:09:29,352 --> 00:09:32,433 Bunun böyle olduğunuz biliyoruz, 202 00:09:32,457 --> 00:09:35,677 çünkü sosyologlar yaptıkları deneyler ile 203 00:09:35,701 --> 00:09:37,366 öyle olduğumuzu gösterdiler. 204 00:09:37,390 --> 00:09:39,958 Deneyde aynı yeteneklere sahip insanların 205 00:09:39,982 --> 00:09:42,483 çok sayıda iş başvurusu vardı. Kimi başvurular siyah, 206 00:09:42,517 --> 00:09:45,243 kimi başvurular beyaz insanı andıran isimlerle yapıldı. 207 00:09:45,243 --> 00:09:47,131 Sonuç her zaman hayal kırıklığıydı. 208 00:09:47,280 --> 00:09:49,281 Bizler farkında olmasak da taraflıyız 209 00:09:49,305 --> 00:09:52,734 ve taraflılığımızı, seçtiğimiz veriler ile 210 00:09:52,758 --> 00:09:54,570 algoritmalara dahil ediyoruz. 211 00:09:54,594 --> 00:09:57,337 Mesela ben erişteleri es geçtim. 212 00:09:57,361 --> 00:09:58,986 Onların yemek olmadığını düşündüm. 213 00:09:59,010 --> 00:10:03,668 Ancak geçmiş deneyimleri 214 00:10:03,668 --> 00:10:06,732 ve başarı tanımlarını baz alarak seçtiğimiz veriye 215 00:10:06,756 --> 00:10:10,739 nasıl güvenebiliriz ve algoritmaların sağlıklı olacağını nasıl bekleyebiliriz? 216 00:10:10,763 --> 00:10:13,459 Bunu yapamayız. Algoritmaları test etmemiz gerekir. 217 00:10:13,545 --> 00:10:15,874 Algoritmaların doğruluklarını test etmeliyiz. 218 00:10:15,898 --> 00:10:18,609 İyi haber şu ki bunu yapabiliriz. 219 00:10:18,633 --> 00:10:21,985 Algoritmalar kontrol edilebilir 220 00:10:22,009 --> 00:10:24,043 ve kontroller bize gerçeği söyleyebilir. 221 00:10:24,067 --> 00:10:26,560 Algoritmaların hatalarını giderebiliriz. 222 00:10:26,584 --> 00:10:28,959 Ben buna, 'algoritma denetimi' adını veriyorum 223 00:10:28,983 --> 00:10:30,662 ve size bundan bahsedeyim. 224 00:10:30,686 --> 00:10:32,882 Öncelikle verinin doğruluğu testi. 225 00:10:34,132 --> 00:10:36,789 Bahsettiğim suçun tekrarlama riski algoritmasında 226 00:10:37,582 --> 00:10:39,699 verinin doğruluğu testi şu anlama gelir: 227 00:10:39,699 --> 00:10:44,705 Amerika'da beyaz ve siyahlar arasında esrar tüketimi aynı ölçüde yaygın, 228 00:10:44,729 --> 00:10:47,214 oysa siyahların tutuklanma ihtimalleri 229 00:10:47,238 --> 00:10:50,422 bölgeye bağlı olarak dört veya beş kat fazla. 230 00:10:51,317 --> 00:10:54,143 Diğer suçlarda bu tür bir taraflılık nasıldır 231 00:10:54,167 --> 00:10:55,618 ve bunu nasıl inceleriz? 232 00:10:56,162 --> 00:10:59,201 İkincisi başarının tanımı hakkında düşünüp 233 00:10:59,225 --> 00:11:00,606 onu gözden geçirmeliyiz. 234 00:11:00,630 --> 00:11:03,382 İşe alım algoritmasından bahsetmiştim, hatırlayın. 235 00:11:03,406 --> 00:11:06,571 Şirkette 4 yıl kalıp en az bir kez terfi alan kişi. 236 00:11:06,595 --> 00:11:08,364 Kendisini başarılı tanımlamıştık 237 00:11:08,388 --> 00:11:11,467 ama kendisi ayrıca kültürlerince desteklenen bir kişi. 238 00:11:12,089 --> 00:11:14,015 Bu da aslında bir taraflılık olabilir. 239 00:11:14,039 --> 00:11:16,104 Bu iki şeyi ayırmamız gerekiyor. 240 00:11:16,128 --> 00:11:18,224 Mesela orkestralara yönelik 'kör seçim' 241 00:11:18,228 --> 00:11:19,774 adı verilen seçimlere bakalım. 242 00:11:19,798 --> 00:11:22,464 Bu uygulamada ses sınavında olan kişiler 243 00:11:22,646 --> 00:11:24,877 perdenin arkasında bulunduğundan görünmüyor. 244 00:11:24,901 --> 00:11:28,318 Sadece dinlediği konusunda 245 00:11:28,342 --> 00:11:30,371 bir sonuca ulaşan insanları düşünün. 246 00:11:30,395 --> 00:11:32,454 Herhangi bir şeyden dikkatleri dağılmıyor. 247 00:11:32,771 --> 00:11:35,710 Orkestra için 'kör seçim' başladığından beri 248 00:11:35,734 --> 00:11:39,178 orkestralardaki kadın sayısı 5 kat arttı. 249 00:11:39,643 --> 00:11:42,658 Sonra kesinliği göz önünde bulundurmalıyız. 250 00:11:42,953 --> 00:11:46,967 Bu öğretmenlere için katma değer modelinin anında başarısız olacağı aşama olurdu. 251 00:11:47,578 --> 00:11:49,740 Elbette hiçbir algoritma mükemmel değil, 252 00:11:50,620 --> 00:11:54,225 bu yüzden her algoritmanın hatalarını dikkate almalıyız. 253 00:11:54,836 --> 00:11:59,195 Bu hatalar ne sıklıkla oluşuyor, hangileri modeli başarısız kılıyor? 254 00:11:59,850 --> 00:12:01,568 Başarısızlığın maliyeti ne? 255 00:12:02,434 --> 00:12:04,641 Son aşamada 256 00:12:05,973 --> 00:12:08,159 algoritmaların uzun dönemli etkilerini, 257 00:12:08,166 --> 00:12:10,626 geri besleme döngülerini göz önünde bulundurmalıyız. 258 00:12:10,626 --> 00:12:12,822 Kulağa soyut geliyor ama Facebook yazılımcıları 259 00:12:12,846 --> 00:12:16,220 sadece arkadaşlarımızın paylaşımını görmemize karar vermeden önce 260 00:12:16,270 --> 00:12:21,125 bunun üzerinde düşünseydi nasıl olurdu, hayal edin. 261 00:12:21,501 --> 00:12:24,995 İki mesajım var. Birincisi veri bilimciler için: 262 00:12:25,450 --> 00:12:28,859 Bizler neyin doğru olduğuna karar verenler olmamalıyız. 263 00:12:29,520 --> 00:12:33,303 Bizler toplumlarda meydana gelen etik tartışmaların 264 00:12:33,327 --> 00:12:34,621 tercümanları olmalıyız. 265 00:12:35,579 --> 00:12:37,712 (Alkışlar) 266 00:12:37,736 --> 00:12:39,292 Ve geri kalanlar, 267 00:12:40,011 --> 00:12:41,407 veri bilimci olmayanlar: 268 00:12:41,431 --> 00:12:43,349 Bu herhangi bir matematik testi değil. 269 00:12:43,632 --> 00:12:44,980 Bu bir politik mücadele. 270 00:12:46,587 --> 00:12:50,494 Bizler algoritma amirlerinden sorumluluk talep etmeliyiz. 271 00:12:52,118 --> 00:12:53,617 (Alkışlar) 272 00:12:53,641 --> 00:12:57,866 Büyük verideki kör inanç dönemi bitmeli. 273 00:12:57,890 --> 00:12:59,057 Teşekkür ederim. 274 00:12:59,081 --> 00:13:04,384 (Alkışlar)