Büyük verideki kör inanç dönemi bitmeli
-
0:01 - 0:03Algoritmalar her yerde.
-
0:04 - 0:07Kazananları kaybedenlerden ayırıyor.
-
0:08 - 0:10Kazananlar ya işi alıyor
-
0:10 - 0:12ya da iyi bir kredi kartı teklifi.
-
0:12 - 0:15Kaybedenler iş görüşmesine bile çağrılmaz
-
0:16 - 0:18veya sigorta primi için
daha fazla ödeme yaparlar. -
0:18 - 0:22Doğrulama sistemi olmayan,
anlamadığımız -
0:23 - 0:26gizli formülasyonlar ile puanlanıyoruz.
-
0:27 - 0:29Burada şu soru akla geliyor:
-
0:29 - 0:31Peki ya algoritmalar hatalıysa?
-
0:33 - 0:35Algoritma oluşturmak için 2 şey gerekli:
-
0:35 - 0:37Geçmişte ne olduğunu gösteren veri,
-
0:37 - 0:39o her zaman aradığınız
-
0:39 - 0:41ve bulmayı umduğunuz başarı tanımına.
-
0:41 - 0:46Sonuca ulaşmak için
algoritma çalıştırırsınız. -
0:46 - 0:50Algoritma başarı ile nelerin
bağlantılı olduğunu keşfeder. -
0:50 - 0:52Hangi durum başarıya ulaştırır?
-
0:53 - 0:55Aslında herkes algoritma kullanır.
-
0:55 - 0:57Sadece yazılı olarak formüle etmezler.
-
0:57 - 0:59Size bir örnek vereyim.
-
0:59 - 1:02Aileme yemek yapmak için
her gün algoritma kullanırım. -
1:02 - 1:04Kullandığım veri
-
1:04 - 1:06mutfağımdaki malzemeler,
-
1:06 - 1:08zaman,
-
1:08 - 1:09tutkudur
-
1:09 - 1:11ve bu verileri düzene koyarım.
-
1:11 - 1:15Bu arada, Japon erişte paketlerini
yemekten saymıyorum. -
1:15 - 1:17(Kahkahalar)
-
1:17 - 1:19Başarı tanımım şudur:
-
1:19 - 1:21Çocuklarım sebzeleri yerse
yemeğim başarılıdır. -
1:22 - 1:25En küçük oğluma sorulsaydı
bu tanım farklı olurdu. -
1:25 - 1:28Onun başarı tanımı
çok miktarda Nutella yemek. -
1:29 - 1:31Ama başarıya ben ulaşmalıyım.
-
1:31 - 1:34Bu iş benim sorumluluğumda.
Görüşüm önemli. -
1:34 - 1:37Bu, algoritmaların ilk kuralı.
-
1:37 - 1:40Algoritmalar,
kodların içine gömülmüş fikirlerdir. -
1:42 - 1:45İnsanların algoritmalar hakkındaki
görüşlerinden farklı bir şey bu. -
1:45 - 1:50İnsanlar algoritmaların tarafsız,
doğru ve bilimsel olduğunu düşünür. -
1:50 - 1:52Bu bir pazarlama hilesi.
-
1:53 - 1:55Algoritmalara güvenmeniz
-
1:55 - 1:59ve onlardan korkmanız için
-
1:59 - 2:02bir pazarlama hilesidir
çünkü matematikten de korkarsınız -
2:02 - 2:04ama sayılara güvenirsiniz.
-
2:06 - 2:10Büyük veriye körü körüne inanırsak
çok şey yanlış gidebilir. -
2:12 - 2:15Bu Kiri Soares.
Brooklyn'de okul müdürü. -
2:15 - 2:182011'de öğretmenlerin
'katma değer modeli' adında -
2:18 - 2:20gizli, karışık bir algoritma ile
-
2:20 - 2:22puanlandıklarını söyledi.
-
2:23 - 2:26"Formülasyonu bana göster,
sana içeriğini açıklayayım" dedim. -
2:27 - 2:29Cevap verdi:
"Doğrusu formülasyonu almaya çalıştım -
2:29 - 2:32fakat eğitim birimi bana
bunun matematiksel olduğunu -
2:32 - 2:34ve içeriğini anlamayacağımı söyledi".
-
2:35 - 2:37Daha kötüye gidiyor.
-
2:37 - 2:40The New York Post,
"Bilgiye Özgürlük Hareketi" kapsamındaki -
2:40 - 2:43talebi sonucu öğretmenlerin
isim ve puanlarını temin edip -
2:43 - 2:46adeta öğretmen ayıplama
eylemi olarak sonuçları yayımladı. -
2:47 - 2:51Aynı yollarla formül ve kaynak kodunu
almaya çalıştığımda -
2:51 - 2:54bunu alamayacağım söylendi.
Talebim reddedildi. -
2:54 - 2:56Sonra New York'ta hiç kimsenin
-
2:56 - 2:58bu formüle erişimi olmadığını öğrendim.
-
2:58 - 3:00Kimse içeriğini bilmiyor, anlamıyor.
-
3:02 - 3:05Sonra Gary Rubinstein adında
zeki biri olaya dâhil oldu. -
3:05 - 3:09Rubinstein, New York Post verisindeki
665 öğretmenin aslında iki tane -
3:09 - 3:11yani mükerrer puanı olduğunu keşfetti.
-
3:11 - 3:13Bu ancak, öğretmenler
7 ve 8'inci sınıflara -
3:13 - 3:15ders veriyor olsaydı oluşabilirdi.
-
3:15 - 3:17Rubinstein, sonuçların grafiğini çizdi.
-
3:17 - 3:19Her nokta bir öğretmeni temsil ediyor.
-
3:19 - 3:21(Kahkahalar)
-
3:22 - 3:23Nedir bu?
-
3:23 - 3:24(Kahkahalar)
-
3:24 - 3:28Bu asla kişileri değerlendirmek için
kullanılmamalıydı. -
3:28 - 3:30Tıpkı rasgele bir sayı üreticisi gibi.
-
3:30 - 3:33(Alkışlar)
-
3:33 - 3:34Ama kullanıldı.
-
3:34 - 3:35Bu Sarah Wysocki.
-
3:35 - 3:37Diğer 205 öğretmen ile birlikte
-
3:37 - 3:40Washington'ta görevine son verildi.
-
3:40 - 3:43Oysa okul müdürü ve veliler
-
3:43 - 3:44kendisinden çok memnundu.
-
3:45 - 3:47Burada başta yapay zeka uzmanları
-
3:47 - 3:50ve veri bilimciler olmak üzere
ne düşündüğünüzü biliyorum. -
3:50 - 3:54Muhtemelen "Böyle tutarsız bir
algoritma oluşturmazdım" diyorsunuz. -
3:55 - 3:57Oysa algoritmalar hatalı kurulabilir
-
3:57 - 4:01ve kötü niyetle oluşturulmasalar da
yıkıcı sonuçları olabilir. -
4:03 - 4:05Kötü tasarlanmış bir uçak
-
4:05 - 4:07kaza yapar ve herkes hatayı görür,
-
4:07 - 4:09oysa algoritma kötü tasarlandığında
-
4:10 - 4:14zarar vermeye sessizce,
uzun süre devam edebilir. -
4:16 - 4:17Bu Roger Ailes.
-
4:17 - 4:19(Kahkahalar)
-
4:21 - 4:23Fox News kanalını 1996'da kurdu.
-
4:23 - 4:26Kanalda 20'den fazla kadın
taciz iddiasıyla şikayetçi oldu. -
4:26 - 4:29Haber kanalında başarıya ulaşmalarının
engellendiğini söylediler. -
4:29 - 4:32Görevi geçen sene sonlandırıldı
-
4:32 - 4:35ama problemlerin devam ettiğini öğrendik.
-
4:36 - 4:37Bu, şu soruyu akla getiriyor:
-
4:37 - 4:40Fox News, temiz bir sayfa açmak
için ne yapmalı? -
4:40 - 4:44İşe alım süreçlerini
makine öğrenmesine dayalı -
4:44 - 4:46bir algoritma ile değiştirseler ne olur?
-
4:46 - 4:48Kulağa iyi geliyor, değil mi?
-
4:48 - 4:49Bir düşünün.
-
4:49 - 4:51Veri ne olurdu?
-
4:51 - 4:56Son 21 yılda kanala yapılan
iş başvuruları veri seçimi için -
4:56 - 4:58mantıklı olur.
-
4:58 - 5:00Peki ya buradaki 'başarının tanımı' nedir?
-
5:00 - 5:01Makul bir karar şöyle olurdu;
-
5:01 - 5:03Fox News'da kim başarılı?
-
5:03 - 5:07Diyelim ki 4 sene orada kalmış,
-
5:07 - 5:08en az 1 kez terfi almış kişiler.
-
5:09 - 5:10Kulağa mantıklı geliyor.
-
5:10 - 5:13Sonra algoritma oluşturulurdu.
-
5:13 - 5:17Kimlerin başarıya ulaştığını öğrenmek,
-
5:17 - 5:22geçmişte ne tür başvuruların
başarıya ulaştığını görmek için -
5:22 - 5:23algoritma oluşturulurdu.
-
5:23 - 5:25Mevcut iş başvurularının bulunduğu havuza
-
5:26 - 5:29bu yöntem uygulansa ne olabilirdi,
düşünün. -
5:29 - 5:31Geçmişte başarılı olanlar gibi görünmeyen
-
5:32 - 5:36kadınları filtreleyebilirdi.
-
5:40 - 5:42Eğer sadece umarsızca
-
5:42 - 5:44kör bir şekilde kullanırsanız
-
5:44 - 5:47algoritmalar
süreçleri daha adil hale getirmez. -
5:47 - 5:49Geçmişteki uygulamalarımızı,
-
5:49 - 5:50kalıplarımızı tekrarlar durur.
-
5:50 - 5:52Otomatikmen kalıcı hale gelir.
-
5:53 - 5:55Mükemmel bir dünyada yaşasaydık
bu iyi olurdu -
5:56 - 5:57fakat dünya mükemmel değil.
-
5:57 - 6:01Şunu da söyleyeyim, pek çok şirketin
yüz kızartıcı davası yoktur -
6:02 - 6:05fakat veriyi takip etmeleri
-
6:05 - 6:07ve veriye odaklanmaları söylenen
-
6:07 - 6:09veri bilimcileri vardır.
-
6:10 - 6:12Bunun ne anlama geldiğini düşünün.
-
6:12 - 6:16Çünkü hepimizin ön yargıları var,
ki bu cinsiyetçiliği veya başka bir -
6:16 - 6:18ayrımcılığın kodlanabileceği
anlamına gelebilir. -
6:19 - 6:21Düşünce deneyi yapalım
-
6:21 - 6:22çünkü bunu seviyorum:
-
6:24 - 6:27Tüm şehirler ve mahallelerinin
ırk bakımından -
6:28 - 6:32ötekileştirildiği bir toplumda
-
6:32 - 6:35polisler suç aramak için
-
6:35 - 6:37sadece azınlık mahallelerine gidiyor.
-
6:37 - 6:39Yakalamalar epey taraflı olurdu.
-
6:39 - 6:42Bu sürecin yönetiminde
gelecek suçların nerede olacağını öngören -
6:42 - 6:47ve maaş ödenen
veri bilimcileri olsa ne olurdu? -
6:47 - 6:49Azınlık mahalleleri.
-
6:49 - 6:52Veya bir sonraki suçlunun kim
olacağını öngörmek için? -
6:53 - 6:54Bir azınlık.
-
6:56 - 6:59Veri bilimcileri, modellerinin ne kadar
-
6:59 - 7:01iyi ve uygulanabilir olduğu konusunda
-
7:01 - 7:03övünürlerdi
ve haklı olurlardı da. -
7:04 - 7:08Şu an gerçeklik bu kadar keskin değil,
ama pek çok bölgede -
7:08 - 7:10taraflı davranıldığını gösteren
-
7:10 - 7:12polis ve hukuk sistemi verisi
-
7:12 - 7:15ayrımcılık yapıldığını gösteriyor.
-
7:16 - 7:18Aslına bakılırsa suçların meydana geleceği
-
7:18 - 7:20sıcak bölgeleri öngörüyoruz.
-
7:20 - 7:24Hatta bireysel suçluluk konusunda da
-
7:24 - 7:26öngörü yapıyoruz.
-
7:27 - 7:30ProPublica isimli organizasyon
-
7:30 - 7:32Florida'da hakimlerce kullanılan,
-
7:32 - 7:34'suçun tekrarlama riski' adı verilen
-
7:34 - 7:37algoritmaya baktılar.
-
7:38 - 7:42Algoritmada Bernard, soldaki siyah kişi,
10 üzerinden 10 puan aldı. -
7:43 - 7:45Dylan, sağdaki kişi,
10 üzerinden 3 puan. -
7:45 - 7:4810 üzerinden 10 yüksek risk.
10 üzerinden 3 düşük risk. -
7:48 - 7:51Her ikisi de uyuşturucu bulundurmaktan
göz altına alındı. -
7:51 - 7:52Her ikisinin de sabıka kaydı var.
-
7:52 - 7:55Ama Dylan'ın ağır suçu varken
-
7:55 - 7:56Bernard'ın yoktu.
-
7:58 - 8:01Bu önemli çünkü puan yükseldikçe
-
8:01 - 8:04uzun süreli ceza alma ihtimali artıyor.
-
8:06 - 8:08Neler oluyor?
-
8:09 - 8:10Veri manipülasyonu.
-
8:11 - 8:15Bu, teknoloji uzmanlarının çirkin
gerçekleri kara kutulu algoritmalarla -
8:15 - 8:17gizledikleri bir süreç.
-
8:17 - 8:19Bunun objektif
-
8:19 - 8:21ve ideal olduğunu söylüyorlar.
-
8:23 - 8:26Gizli, önemli ve yıkıcı sonuçları olan
-
8:26 - 8:28algoritmalar için bir deyim türettim:
-
8:28 - 8:30"Matematiksel yıkım silahları"
-
8:30 - 8:32(Kahkahalar)
-
8:32 - 8:34(Alkışlar)
-
8:34 - 8:38Bunlar her yerdeler
ve her yerde olmaları hata sonucu değil. -
8:38 - 8:41Bunlar özel amaç için
özel algoritmalar üreten -
8:41 - 8:43özel şirketler.
-
8:43 - 8:46Öğretmenler ve polisler ile ilgili
söylediklerim bile -
8:46 - 8:48özel şirketler tarafından üretilip
-
8:48 - 8:51kamu kurumlarına satıldı.
-
8:51 - 8:52Buna onların "özel tarifi" diyorlar
-
8:52 - 8:55ve bu yüzden içeriği ile
ilgili konuşmuyorlar. -
8:55 - 8:57Bu bir tür özel güç.
-
8:58 - 9:03Kamu otoritesini kullanarak kar ediyorlar.
-
9:05 - 9:07Tüm bunların özel sektörde olduğu
-
9:07 - 9:10ve sektörde rekabet olduğu için
serbest piyasanın -
9:10 - 9:12bu sorunu çözeceğini düşünüyorsanız
-
9:12 - 9:13sorunu çözmeyecek.
-
9:13 - 9:16Adaletsizlik ile elde edilen
önemli miktarda para var. -
9:17 - 9:20Ayrıca ekonomik olarak
rasyonel karar alıcılar değiliz. -
9:21 - 9:23Farkında olmadığımız
ön yargılarımız var. -
9:23 - 9:26Farkında olmasak
ve öyle olmayı dilemesek bile -
9:26 - 9:28kafa tasçı ve dar kafalıyız.
-
9:29 - 9:32Bunun böyle olduğunuz biliyoruz,
-
9:32 - 9:36çünkü sosyologlar yaptıkları deneyler ile
-
9:36 - 9:37öyle olduğumuzu gösterdiler.
-
9:37 - 9:40Deneyde aynı yeteneklere sahip insanların
-
9:40 - 9:42çok sayıda iş başvurusu vardı.
Kimi başvurular siyah, -
9:43 - 9:45kimi başvurular beyaz insanı
andıran isimlerle yapıldı. -
9:45 - 9:47Sonuç her zaman hayal kırıklığıydı.
-
9:47 - 9:49Bizler farkında olmasak da taraflıyız
-
9:49 - 9:53ve taraflılığımızı,
seçtiğimiz veriler ile -
9:53 - 9:55algoritmalara dahil ediyoruz.
-
9:55 - 9:57Mesela ben erişteleri es geçtim.
-
9:57 - 9:59Onların yemek olmadığını düşündüm.
-
9:59 - 10:04Ancak geçmiş deneyimleri
-
10:04 - 10:07ve başarı tanımlarını
baz alarak seçtiğimiz veriye -
10:07 - 10:11nasıl güvenebiliriz ve algoritmaların
sağlıklı olacağını nasıl bekleyebiliriz? -
10:11 - 10:13Bunu yapamayız.
Algoritmaları test etmemiz gerekir. -
10:14 - 10:16Algoritmaların doğruluklarını
test etmeliyiz. -
10:16 - 10:19İyi haber şu ki bunu yapabiliriz.
-
10:19 - 10:22Algoritmalar kontrol edilebilir
-
10:22 - 10:24ve kontroller bize gerçeği söyleyebilir.
-
10:24 - 10:27Algoritmaların hatalarını giderebiliriz.
-
10:27 - 10:29Ben buna, 'algoritma denetimi'
adını veriyorum -
10:29 - 10:31ve size bundan bahsedeyim.
-
10:31 - 10:33Öncelikle verinin doğruluğu testi.
-
10:34 - 10:37Bahsettiğim suçun tekrarlama
riski algoritmasında -
10:38 - 10:40verinin doğruluğu testi şu anlama gelir:
-
10:40 - 10:45Amerika'da beyaz ve siyahlar arasında
esrar tüketimi aynı ölçüde yaygın, -
10:45 - 10:47oysa siyahların tutuklanma ihtimalleri
-
10:47 - 10:50bölgeye bağlı olarak
dört veya beş kat fazla. -
10:51 - 10:54Diğer suçlarda
bu tür bir taraflılık nasıldır -
10:54 - 10:56ve bunu nasıl inceleriz?
-
10:56 - 10:59İkincisi başarının tanımı hakkında düşünüp
-
10:59 - 11:01onu gözden geçirmeliyiz.
-
11:01 - 11:03İşe alım algoritmasından
bahsetmiştim, hatırlayın. -
11:03 - 11:07Şirkette 4 yıl kalıp
en az bir kez terfi alan kişi. -
11:07 - 11:08Kendisini başarılı tanımlamıştık
-
11:08 - 11:11ama kendisi ayrıca kültürlerince
desteklenen bir kişi. -
11:12 - 11:14Bu da aslında bir taraflılık olabilir.
-
11:14 - 11:16Bu iki şeyi ayırmamız gerekiyor.
-
11:16 - 11:18Mesela orkestralara yönelik 'kör seçim'
-
11:18 - 11:20adı verilen seçimlere bakalım.
-
11:20 - 11:22Bu uygulamada ses sınavında olan kişiler
-
11:23 - 11:25perdenin arkasında
bulunduğundan görünmüyor. -
11:25 - 11:28Sadece dinlediği konusunda
-
11:28 - 11:30bir sonuca ulaşan insanları düşünün.
-
11:30 - 11:32Herhangi bir şeyden dikkatleri dağılmıyor.
-
11:33 - 11:36Orkestra için 'kör seçim'
başladığından beri -
11:36 - 11:39orkestralardaki kadın sayısı 5 kat arttı.
-
11:40 - 11:43Sonra kesinliği göz önünde
bulundurmalıyız. -
11:43 - 11:47Bu öğretmenlere için katma değer modelinin
anında başarısız olacağı aşama olurdu. -
11:48 - 11:50Elbette hiçbir algoritma mükemmel değil,
-
11:51 - 11:54bu yüzden her algoritmanın
hatalarını dikkate almalıyız. -
11:55 - 11:59Bu hatalar ne sıklıkla oluşuyor,
hangileri modeli başarısız kılıyor? -
12:00 - 12:02Başarısızlığın maliyeti ne?
-
12:02 - 12:05Son aşamada
-
12:06 - 12:08algoritmaların uzun dönemli etkilerini,
-
12:08 - 12:11geri besleme döngülerini
göz önünde bulundurmalıyız. -
12:11 - 12:13Kulağa soyut geliyor
ama Facebook yazılımcıları -
12:13 - 12:16sadece arkadaşlarımızın paylaşımını
görmemize karar vermeden önce -
12:16 - 12:21bunun üzerinde düşünseydi
nasıl olurdu, hayal edin. -
12:22 - 12:25İki mesajım var.
Birincisi veri bilimciler için: -
12:25 - 12:29Bizler neyin doğru olduğuna
karar verenler olmamalıyız. -
12:30 - 12:33Bizler toplumlarda meydana gelen
etik tartışmaların -
12:33 - 12:35tercümanları olmalıyız.
-
12:36 - 12:38(Alkışlar)
-
12:38 - 12:39Ve geri kalanlar,
-
12:40 - 12:41veri bilimci olmayanlar:
-
12:41 - 12:43Bu herhangi bir matematik testi değil.
-
12:44 - 12:45Bu bir politik mücadele.
-
12:47 - 12:50Bizler algoritma amirlerinden
sorumluluk talep etmeliyiz. -
12:52 - 12:54(Alkışlar)
-
12:54 - 12:58Büyük verideki kör inanç dönemi bitmeli.
-
12:58 - 12:59Teşekkür ederim.
-
12:59 - 13:04(Alkışlar)
- Title:
- Büyük verideki kör inanç dönemi bitmeli
- Speaker:
- Cathy O'Neil
- Description:
-
Algoritmalar kimin kredi alabileceğine, kimin mülakata çağrılacağına, kimin sigorta sahibi olacağına ve fazlasına karar veriyor. Oysa algoritmalar otomatik olarak her şeyi adil kılmıyor. Matematikçi ve veri bilimci Cathy O'Neil gizli, önemli ve zararlı algoritmalar için bir terim türetti: "matematiksel yıkım silahları". Formüller arkasına gizlenen konular hakkında fazlasını öğrenin.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Meric Aydonat approved Turkish subtitles for The era of blind faith in big data must end | ||
Meric Aydonat edited Turkish subtitles for The era of blind faith in big data must end | ||
Cihan Ekmekçi accepted Turkish subtitles for The era of blind faith in big data must end | ||
Cihan Ekmekçi edited Turkish subtitles for The era of blind faith in big data must end | ||
Nail Kaplan edited Turkish subtitles for The era of blind faith in big data must end | ||
Nail Kaplan edited Turkish subtitles for The era of blind faith in big data must end | ||
Nail Kaplan edited Turkish subtitles for The era of blind faith in big data must end | ||
Cihan Ekmekçi declined Turkish subtitles for The era of blind faith in big data must end |