Return to Video

Büyük verideki kör inanç dönemi bitmeli

  • 0:01 - 0:03
    Algoritmalar her yerde.
  • 0:04 - 0:07
    Kazananları kaybedenlerden ayırıyor.
  • 0:08 - 0:10
    Kazananlar ya işi alıyor
  • 0:10 - 0:12
    ya da iyi bir kredi kartı teklifi.
  • 0:12 - 0:15
    Kaybedenler iş görüşmesine bile çağrılmaz
  • 0:16 - 0:18
    veya sigorta primi için
    daha fazla ödeme yaparlar.
  • 0:18 - 0:22
    Doğrulama sistemi olmayan,
    anlamadığımız
  • 0:23 - 0:26
    gizli formülasyonlar ile puanlanıyoruz.
  • 0:27 - 0:29
    Burada şu soru akla geliyor:
  • 0:29 - 0:31
    Peki ya algoritmalar hatalıysa?
  • 0:33 - 0:35
    Algoritma oluşturmak için 2 şey gerekli:
  • 0:35 - 0:37
    Geçmişte ne olduğunu gösteren veri,
  • 0:37 - 0:39
    o her zaman aradığınız
  • 0:39 - 0:41
    ve bulmayı umduğunuz başarı tanımına.
  • 0:41 - 0:46
    Sonuca ulaşmak için
    algoritma çalıştırırsınız.
  • 0:46 - 0:50
    Algoritma başarı ile nelerin
    bağlantılı olduğunu keşfeder.

  • 0:50 - 0:52
    Hangi durum başarıya ulaştırır?
  • 0:53 - 0:55
    Aslında herkes algoritma kullanır.
  • 0:55 - 0:57
    Sadece yazılı olarak formüle etmezler.
  • 0:57 - 0:59
    Size bir örnek vereyim.
  • 0:59 - 1:02
    Aileme yemek yapmak için
    her gün algoritma kullanırım.
  • 1:02 - 1:04
    Kullandığım veri
  • 1:04 - 1:06
    mutfağımdaki malzemeler,
  • 1:06 - 1:08
    zaman,
  • 1:08 - 1:09
    tutkudur
  • 1:09 - 1:11
    ve bu verileri düzene koyarım.
  • 1:11 - 1:15
    Bu arada, Japon erişte paketlerini
    yemekten saymıyorum.
  • 1:15 - 1:17
    (Kahkahalar)
  • 1:17 - 1:19
    Başarı tanımım şudur:
  • 1:19 - 1:21
    Çocuklarım sebzeleri yerse
    yemeğim başarılıdır.
  • 1:22 - 1:25
    En küçük oğluma sorulsaydı
    bu tanım farklı olurdu.
  • 1:25 - 1:28
    Onun başarı tanımı
    çok miktarda Nutella yemek.
  • 1:29 - 1:31
    Ama başarıya ben ulaşmalıyım.
  • 1:31 - 1:34
    Bu iş benim sorumluluğumda.
    Görüşüm önemli.
  • 1:34 - 1:37
    Bu, algoritmaların ilk kuralı.
  • 1:37 - 1:40
    Algoritmalar,
    kodların içine gömülmüş fikirlerdir.
  • 1:42 - 1:45
    İnsanların algoritmalar hakkındaki
    görüşlerinden farklı bir şey bu.
  • 1:45 - 1:50
    İnsanlar algoritmaların tarafsız,
    doğru ve bilimsel olduğunu düşünür.
  • 1:50 - 1:52
    Bu bir pazarlama hilesi.
  • 1:53 - 1:55
    Algoritmalara güvenmeniz
  • 1:55 - 1:59
    ve onlardan korkmanız için
  • 1:59 - 2:02
    bir pazarlama hilesidir
    çünkü matematikten de korkarsınız
  • 2:02 - 2:04
    ama sayılara güvenirsiniz.
  • 2:06 - 2:10
    Büyük veriye körü körüne inanırsak
    çok şey yanlış gidebilir.
  • 2:12 - 2:15
    Bu Kiri Soares.
    Brooklyn'de okul müdürü.
  • 2:15 - 2:18
    2011'de öğretmenlerin
    'katma değer modeli' adında
  • 2:18 - 2:20
    gizli, karışık bir algoritma ile
  • 2:20 - 2:22
    puanlandıklarını söyledi.
  • 2:23 - 2:26
    "Formülasyonu bana göster,
    sana içeriğini açıklayayım" dedim.
  • 2:27 - 2:29
    Cevap verdi:
    "Doğrusu formülasyonu almaya çalıştım
  • 2:29 - 2:32
    fakat eğitim birimi bana
    bunun matematiksel olduğunu
  • 2:32 - 2:34
    ve içeriğini anlamayacağımı söyledi".
  • 2:35 - 2:37
    Daha kötüye gidiyor.
  • 2:37 - 2:40
    The New York Post,
    "Bilgiye Özgürlük Hareketi" kapsamındaki
  • 2:40 - 2:43
    talebi sonucu öğretmenlerin
    isim ve puanlarını temin edip
  • 2:43 - 2:46
    adeta öğretmen ayıplama
    eylemi olarak sonuçları yayımladı.
  • 2:47 - 2:51
    Aynı yollarla formül ve kaynak kodunu
    almaya çalıştığımda
  • 2:51 - 2:54
    bunu alamayacağım söylendi.
    Talebim reddedildi.
  • 2:54 - 2:56
    Sonra New York'ta hiç kimsenin
  • 2:56 - 2:58
    bu formüle erişimi olmadığını öğrendim.
  • 2:58 - 3:00
    Kimse içeriğini bilmiyor, anlamıyor.
  • 3:02 - 3:05
    Sonra Gary Rubinstein adında
    zeki biri olaya dâhil oldu.
  • 3:05 - 3:09
    Rubinstein, New York Post verisindeki
    665 öğretmenin aslında iki tane
  • 3:09 - 3:11
    yani mükerrer puanı olduğunu keşfetti.
  • 3:11 - 3:13
    Bu ancak, öğretmenler
    7 ve 8'inci sınıflara
  • 3:13 - 3:15
    ders veriyor olsaydı oluşabilirdi.
  • 3:15 - 3:17
    Rubinstein, sonuçların grafiğini çizdi.
  • 3:17 - 3:19
    Her nokta bir öğretmeni temsil ediyor.
  • 3:19 - 3:21
    (Kahkahalar)
  • 3:22 - 3:23
    Nedir bu?
  • 3:23 - 3:24
    (Kahkahalar)
  • 3:24 - 3:28
    Bu asla kişileri değerlendirmek için
    kullanılmamalıydı.
  • 3:28 - 3:30
    Tıpkı rasgele bir sayı üreticisi gibi.
  • 3:30 - 3:33
    (Alkışlar)
  • 3:33 - 3:34
    Ama kullanıldı.
  • 3:34 - 3:35
    Bu Sarah Wysocki.
  • 3:35 - 3:37
    Diğer 205 öğretmen ile birlikte
  • 3:37 - 3:40
    Washington'ta görevine son verildi.
  • 3:40 - 3:43
    Oysa okul müdürü ve veliler
  • 3:43 - 3:44
    kendisinden çok memnundu.
  • 3:45 - 3:47
    Burada başta yapay zeka uzmanları
  • 3:47 - 3:50
    ve veri bilimciler olmak üzere
    ne düşündüğünüzü biliyorum.
  • 3:50 - 3:54
    Muhtemelen "Böyle tutarsız bir
    algoritma oluşturmazdım" diyorsunuz.
  • 3:55 - 3:57
    Oysa algoritmalar hatalı kurulabilir
  • 3:57 - 4:01
    ve kötü niyetle oluşturulmasalar da
    yıkıcı sonuçları olabilir.
  • 4:03 - 4:05
    Kötü tasarlanmış bir uçak
  • 4:05 - 4:07
    kaza yapar ve herkes hatayı görür,
  • 4:07 - 4:09
    oysa algoritma kötü tasarlandığında
  • 4:10 - 4:14
    zarar vermeye sessizce,
    uzun süre devam edebilir.
  • 4:16 - 4:17
    Bu Roger Ailes.
  • 4:17 - 4:19
    (Kahkahalar)
  • 4:21 - 4:23
    Fox News kanalını 1996'da kurdu.
  • 4:23 - 4:26
    Kanalda 20'den fazla kadın
    taciz iddiasıyla şikayetçi oldu.
  • 4:26 - 4:29
    Haber kanalında başarıya ulaşmalarının
    engellendiğini söylediler.
  • 4:29 - 4:32
    Görevi geçen sene sonlandırıldı
  • 4:32 - 4:35
    ama problemlerin devam ettiğini öğrendik.
  • 4:36 - 4:37
    Bu, şu soruyu akla getiriyor:
  • 4:37 - 4:40
    Fox News, temiz bir sayfa açmak
    için ne yapmalı?
  • 4:40 - 4:44
    İşe alım süreçlerini
    makine öğrenmesine dayalı
  • 4:44 - 4:46
    bir algoritma ile değiştirseler ne olur?
  • 4:46 - 4:48
    Kulağa iyi geliyor, değil mi?
  • 4:48 - 4:49
    Bir düşünün.
  • 4:49 - 4:51
    Veri ne olurdu?
  • 4:51 - 4:56
    Son 21 yılda kanala yapılan
    iş başvuruları veri seçimi için
  • 4:56 - 4:58
    mantıklı olur.
  • 4:58 - 5:00
    Peki ya buradaki 'başarının tanımı' nedir?
  • 5:00 - 5:01
    Makul bir karar şöyle olurdu;
  • 5:01 - 5:03
    Fox News'da kim başarılı?
  • 5:03 - 5:07
    Diyelim ki 4 sene orada kalmış,
  • 5:07 - 5:08
    en az 1 kez terfi almış kişiler.
  • 5:09 - 5:10
    Kulağa mantıklı geliyor.
  • 5:10 - 5:13
    Sonra algoritma oluşturulurdu.
  • 5:13 - 5:17
    Kimlerin başarıya ulaştığını öğrenmek,
  • 5:17 - 5:22
    geçmişte ne tür başvuruların
    başarıya ulaştığını görmek için
  • 5:22 - 5:23
    algoritma oluşturulurdu.
  • 5:23 - 5:25
    Mevcut iş başvurularının bulunduğu havuza
  • 5:26 - 5:29
    bu yöntem uygulansa ne olabilirdi,
    düşünün.
  • 5:29 - 5:31
    Geçmişte başarılı olanlar gibi görünmeyen
  • 5:32 - 5:36
    kadınları filtreleyebilirdi.
  • 5:40 - 5:42
    Eğer sadece umarsızca
  • 5:42 - 5:44
    kör bir şekilde kullanırsanız
  • 5:44 - 5:47
    algoritmalar
    süreçleri daha adil hale getirmez.
  • 5:47 - 5:49
    Geçmişteki uygulamalarımızı,
  • 5:49 - 5:50
    kalıplarımızı tekrarlar durur.
  • 5:50 - 5:52
    Otomatikmen kalıcı hale gelir.
  • 5:53 - 5:55
    Mükemmel bir dünyada yaşasaydık
    bu iyi olurdu
  • 5:56 - 5:57
    fakat dünya mükemmel değil.
  • 5:57 - 6:01
    Şunu da söyleyeyim, pek çok şirketin
    yüz kızartıcı davası yoktur
  • 6:02 - 6:05
    fakat veriyi takip etmeleri
  • 6:05 - 6:07
    ve veriye odaklanmaları söylenen
  • 6:07 - 6:09
    veri bilimcileri vardır.
  • 6:10 - 6:12
    Bunun ne anlama geldiğini düşünün.
  • 6:12 - 6:16
    Çünkü hepimizin ön yargıları var,
    ki bu cinsiyetçiliği veya başka bir
  • 6:16 - 6:18
    ayrımcılığın kodlanabileceği
    anlamına gelebilir.
  • 6:19 - 6:21
    Düşünce deneyi yapalım
  • 6:21 - 6:22
    çünkü bunu seviyorum:
  • 6:24 - 6:27
    Tüm şehirler ve mahallelerinin
    ırk bakımından
  • 6:28 - 6:32
    ötekileştirildiği bir toplumda
  • 6:32 - 6:35
    polisler suç aramak için
  • 6:35 - 6:37
    sadece azınlık mahallelerine gidiyor.
  • 6:37 - 6:39
    Yakalamalar epey taraflı olurdu.
  • 6:39 - 6:42
    Bu sürecin yönetiminde
    gelecek suçların nerede olacağını öngören
  • 6:42 - 6:47
    ve maaş ödenen
    veri bilimcileri olsa ne olurdu?
  • 6:47 - 6:49
    Azınlık mahalleleri.
  • 6:49 - 6:52
    Veya bir sonraki suçlunun kim
    olacağını öngörmek için?
  • 6:53 - 6:54
    Bir azınlık.
  • 6:56 - 6:59
    Veri bilimcileri, modellerinin ne kadar
  • 6:59 - 7:01
    iyi ve uygulanabilir olduğu konusunda
  • 7:01 - 7:03
    övünürlerdi
    ve haklı olurlardı da.
  • 7:04 - 7:08
    Şu an gerçeklik bu kadar keskin değil,
    ama pek çok bölgede
  • 7:08 - 7:10
    taraflı davranıldığını gösteren
  • 7:10 - 7:12
    polis ve hukuk sistemi verisi
  • 7:12 - 7:15
    ayrımcılık yapıldığını gösteriyor.
  • 7:16 - 7:18
    Aslına bakılırsa suçların meydana geleceği
  • 7:18 - 7:20
    sıcak bölgeleri öngörüyoruz.
  • 7:20 - 7:24
    Hatta bireysel suçluluk konusunda da
  • 7:24 - 7:26
    öngörü yapıyoruz.
  • 7:27 - 7:30
    ProPublica isimli organizasyon
  • 7:30 - 7:32
    Florida'da hakimlerce kullanılan,
  • 7:32 - 7:34
    'suçun tekrarlama riski' adı verilen
  • 7:34 - 7:37
    algoritmaya baktılar.
  • 7:38 - 7:42
    Algoritmada Bernard, soldaki siyah kişi,
    10 üzerinden 10 puan aldı.
  • 7:43 - 7:45
    Dylan, sağdaki kişi,
    10 üzerinden 3 puan.
  • 7:45 - 7:48
    10 üzerinden 10 yüksek risk.
    10 üzerinden 3 düşük risk.
  • 7:48 - 7:51
    Her ikisi de uyuşturucu bulundurmaktan
    göz altına alındı.
  • 7:51 - 7:52
    Her ikisinin de sabıka kaydı var.
  • 7:52 - 7:55
    Ama Dylan'ın ağır suçu varken
  • 7:55 - 7:56
    Bernard'ın yoktu.
  • 7:58 - 8:01
    Bu önemli çünkü puan yükseldikçe
  • 8:01 - 8:04
    uzun süreli ceza alma ihtimali artıyor.
  • 8:06 - 8:08
    Neler oluyor?
  • 8:09 - 8:10
    Veri manipülasyonu.
  • 8:11 - 8:15
    Bu, teknoloji uzmanlarının çirkin
    gerçekleri kara kutulu algoritmalarla
  • 8:15 - 8:17
    gizledikleri bir süreç.
  • 8:17 - 8:19
    Bunun objektif
  • 8:19 - 8:21
    ve ideal olduğunu söylüyorlar.
  • 8:23 - 8:26
    Gizli, önemli ve yıkıcı sonuçları olan
  • 8:26 - 8:28
    algoritmalar için bir deyim türettim:
  • 8:28 - 8:30
    "Matematiksel yıkım silahları"
  • 8:30 - 8:32
    (Kahkahalar)
  • 8:32 - 8:34
    (Alkışlar)
  • 8:34 - 8:38
    Bunlar her yerdeler
    ve her yerde olmaları hata sonucu değil.
  • 8:38 - 8:41
    Bunlar özel amaç için
    özel algoritmalar üreten
  • 8:41 - 8:43
    özel şirketler.
  • 8:43 - 8:46
    Öğretmenler ve polisler ile ilgili
    söylediklerim bile
  • 8:46 - 8:48
    özel şirketler tarafından üretilip
  • 8:48 - 8:51
    kamu kurumlarına satıldı.
  • 8:51 - 8:52
    Buna onların "özel tarifi" diyorlar
  • 8:52 - 8:55
    ve bu yüzden içeriği ile
    ilgili konuşmuyorlar.
  • 8:55 - 8:57
    Bu bir tür özel güç.
  • 8:58 - 9:03
    Kamu otoritesini kullanarak kar ediyorlar.
  • 9:05 - 9:07
    Tüm bunların özel sektörde olduğu
  • 9:07 - 9:10
    ve sektörde rekabet olduğu için
    serbest piyasanın
  • 9:10 - 9:12
    bu sorunu çözeceğini düşünüyorsanız
  • 9:12 - 9:13
    sorunu çözmeyecek.
  • 9:13 - 9:16
    Adaletsizlik ile elde edilen
    önemli miktarda para var.
  • 9:17 - 9:20
    Ayrıca ekonomik olarak
    rasyonel karar alıcılar değiliz.
  • 9:21 - 9:23
    Farkında olmadığımız
    ön yargılarımız var.
  • 9:23 - 9:26
    Farkında olmasak
    ve öyle olmayı dilemesek bile
  • 9:26 - 9:28
    kafa tasçı ve dar kafalıyız.
  • 9:29 - 9:32
    Bunun böyle olduğunuz biliyoruz,
  • 9:32 - 9:36
    çünkü sosyologlar yaptıkları deneyler ile
  • 9:36 - 9:37
    öyle olduğumuzu gösterdiler.
  • 9:37 - 9:40
    Deneyde aynı yeteneklere sahip insanların
  • 9:40 - 9:42
    çok sayıda iş başvurusu vardı.
    Kimi başvurular siyah,
  • 9:43 - 9:45
    kimi başvurular beyaz insanı
    andıran isimlerle yapıldı.
  • 9:45 - 9:47
    Sonuç her zaman hayal kırıklığıydı.
  • 9:47 - 9:49
    Bizler farkında olmasak da taraflıyız
  • 9:49 - 9:53
    ve taraflılığımızı,
    seçtiğimiz veriler ile
  • 9:53 - 9:55
    algoritmalara dahil ediyoruz.
  • 9:55 - 9:57
    Mesela ben erişteleri es geçtim.
  • 9:57 - 9:59
    Onların yemek olmadığını düşündüm.
  • 9:59 - 10:04
    Ancak geçmiş deneyimleri
  • 10:04 - 10:07
    ve başarı tanımlarını
    baz alarak seçtiğimiz veriye
  • 10:07 - 10:11
    nasıl güvenebiliriz ve algoritmaların
    sağlıklı olacağını nasıl bekleyebiliriz?
  • 10:11 - 10:13
    Bunu yapamayız.
    Algoritmaları test etmemiz gerekir.
  • 10:14 - 10:16
    Algoritmaların doğruluklarını
    test etmeliyiz.
  • 10:16 - 10:19
    İyi haber şu ki bunu yapabiliriz.
  • 10:19 - 10:22
    Algoritmalar kontrol edilebilir
  • 10:22 - 10:24
    ve kontroller bize gerçeği söyleyebilir.
  • 10:24 - 10:27
    Algoritmaların hatalarını giderebiliriz.
  • 10:27 - 10:29
    Ben buna, 'algoritma denetimi'
    adını veriyorum
  • 10:29 - 10:31
    ve size bundan bahsedeyim.
  • 10:31 - 10:33
    Öncelikle verinin doğruluğu testi.
  • 10:34 - 10:37
    Bahsettiğim suçun tekrarlama
    riski algoritmasında
  • 10:38 - 10:40
    verinin doğruluğu testi şu anlama gelir:
  • 10:40 - 10:45
    Amerika'da beyaz ve siyahlar arasında
    esrar tüketimi aynı ölçüde yaygın,
  • 10:45 - 10:47
    oysa siyahların tutuklanma ihtimalleri
  • 10:47 - 10:50
    bölgeye bağlı olarak
    dört veya beş kat fazla.
  • 10:51 - 10:54
    Diğer suçlarda
    bu tür bir taraflılık nasıldır
  • 10:54 - 10:56
    ve bunu nasıl inceleriz?
  • 10:56 - 10:59
    İkincisi başarının tanımı hakkında düşünüp
  • 10:59 - 11:01
    onu gözden geçirmeliyiz.
  • 11:01 - 11:03
    İşe alım algoritmasından
    bahsetmiştim, hatırlayın.
  • 11:03 - 11:07
    Şirkette 4 yıl kalıp
    en az bir kez terfi alan kişi.
  • 11:07 - 11:08
    Kendisini başarılı tanımlamıştık
  • 11:08 - 11:11
    ama kendisi ayrıca kültürlerince
    desteklenen bir kişi.
  • 11:12 - 11:14
    Bu da aslında bir taraflılık olabilir.
  • 11:14 - 11:16
    Bu iki şeyi ayırmamız gerekiyor.
  • 11:16 - 11:18
    Mesela orkestralara yönelik 'kör seçim'
  • 11:18 - 11:20
    adı verilen seçimlere bakalım.
  • 11:20 - 11:22
    Bu uygulamada ses sınavında olan kişiler
  • 11:23 - 11:25
    perdenin arkasında
    bulunduğundan görünmüyor.
  • 11:25 - 11:28
    Sadece dinlediği konusunda
  • 11:28 - 11:30
    bir sonuca ulaşan insanları düşünün.
  • 11:30 - 11:32
    Herhangi bir şeyden dikkatleri dağılmıyor.
  • 11:33 - 11:36
    Orkestra için 'kör seçim'
    başladığından beri
  • 11:36 - 11:39
    orkestralardaki kadın sayısı 5 kat arttı.
  • 11:40 - 11:43
    Sonra kesinliği göz önünde
    bulundurmalıyız.
  • 11:43 - 11:47
    Bu öğretmenlere için katma değer modelinin
    anında başarısız olacağı aşama olurdu.
  • 11:48 - 11:50
    Elbette hiçbir algoritma mükemmel değil,
  • 11:51 - 11:54
    bu yüzden her algoritmanın
    hatalarını dikkate almalıyız.
  • 11:55 - 11:59
    Bu hatalar ne sıklıkla oluşuyor,
    hangileri modeli başarısız kılıyor?
  • 12:00 - 12:02
    Başarısızlığın maliyeti ne?
  • 12:02 - 12:05
    Son aşamada
  • 12:06 - 12:08
    algoritmaların uzun dönemli etkilerini,
  • 12:08 - 12:11
    geri besleme döngülerini
    göz önünde bulundurmalıyız.
  • 12:11 - 12:13
    Kulağa soyut geliyor
    ama Facebook yazılımcıları
  • 12:13 - 12:16
    sadece arkadaşlarımızın paylaşımını
    görmemize karar vermeden önce
  • 12:16 - 12:21
    bunun üzerinde düşünseydi
    nasıl olurdu, hayal edin.
  • 12:22 - 12:25
    İki mesajım var.
    Birincisi veri bilimciler için:
  • 12:25 - 12:29
    Bizler neyin doğru olduğuna
    karar verenler olmamalıyız.
  • 12:30 - 12:33
    Bizler toplumlarda meydana gelen
    etik tartışmaların
  • 12:33 - 12:35
    tercümanları olmalıyız.
  • 12:36 - 12:38
    (Alkışlar)
  • 12:38 - 12:39
    Ve geri kalanlar,
  • 12:40 - 12:41
    veri bilimci olmayanlar:
  • 12:41 - 12:43
    Bu herhangi bir matematik testi değil.
  • 12:44 - 12:45
    Bu bir politik mücadele.
  • 12:47 - 12:50
    Bizler algoritma amirlerinden
    sorumluluk talep etmeliyiz.
  • 12:52 - 12:54
    (Alkışlar)
  • 12:54 - 12:58
    Büyük verideki kör inanç dönemi bitmeli.
  • 12:58 - 12:59
    Teşekkür ederim.
  • 12:59 - 13:04
    (Alkışlar)
Title:
Büyük verideki kör inanç dönemi bitmeli
Speaker:
Cathy O'Neil
Description:

Algoritmalar kimin kredi alabileceğine, kimin mülakata çağrılacağına, kimin sigorta sahibi olacağına ve fazlasına karar veriyor. Oysa algoritmalar otomatik olarak her şeyi adil kılmıyor. Matematikçi ve veri bilimci Cathy O'Neil gizli, önemli ve zararlı algoritmalar için bir terim türetti: "matematiksel yıkım silahları". Formüller arkasına gizlenen konular hakkında fazlasını öğrenin.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Turkish subtitles

Revisions