Return to Video

Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor

  • 0:01 - 0:05
    Bilgisayar programcısı olarak
    ilk çalışmaya başladığımda
  • 0:05 - 0:07
    üniversite birinci sınıftaydım,
  • 0:07 - 0:08
    yani yeni yetme sayılırdım.
  • 0:09 - 0:11
    Bir şirkette program yazma göreviyle
  • 0:11 - 0:12
    işe girdikten kısa süre sonra
  • 0:13 - 0:16
    şirkette çalışan bir müdür yanıma geldi
  • 0:16 - 0:18
    ve fısıltıyla sordu:
  • 0:18 - 0:21
    "Yalan söylediğimi anlayabilir mi?"
  • 0:22 - 0:24
    Odada başka kimse yoktu.
  • 0:25 - 0:29
    "Yalanı kim anlayabilir mi?
    Ayrıca neden fısıldaşıyoruz?" dedim.
  • 0:30 - 0:33
    Müdür, odada bulunan bilgisayarı gösterdi.
  • 0:33 - 0:36
    "Yalan söyleyip söylemediğimi anlar mı?"
  • 0:38 - 0:42
    Bu müdür danışmada çalışan
    biriyle ilişki yaşıyordu.
  • 0:42 - 0:43
    (Gülüşmeler)
  • 0:43 - 0:45
    Ben de yeni yetmeyim tabii.
  • 0:45 - 0:47
    Fısıltıyla bağırır gibi cevap verdim:
  • 0:47 - 0:51
    "Evet, yalan söylerseniz
    bilgisayar anlar." dedim.
  • 0:51 - 0:53
    (Gülüşmeler)
  • 0:53 - 0:56
    Gülüyordum ama aslında
    gülünmesi gereken bendim.
  • 0:56 - 0:59
    Günümüzde insan yüzlerini
  • 0:59 - 1:03
    işlemden geçirerek ruh hâlini
    ve hatta yalan söylediğini
  • 1:03 - 1:05
    tespit eden bilgisayar programları var.
  • 1:05 - 1:09
    Reklamcılar, hatta devletler de
    çok ilgi duyuyor.
  • 1:10 - 1:12
    Matematik ve fen bilgisini çok seven
  • 1:12 - 1:15
    bir çocuk olduğum için
    bilgisayar programcısı olmuştum.
  • 1:16 - 1:19
    Fakat o sıralarda
    nükleer silahlara dair bilgi edinmiş
  • 1:19 - 1:22
    ve bilim etiğine de
    çok ilgi duymaya başlamıştım.
  • 1:22 - 1:23
    Sorunlarım vardı.
  • 1:23 - 1:26
    Ne yazık ki ailevi durumlar yüzünden
  • 1:26 - 1:29
    mümkün olduğu kadar çabuk
    işe girmem gerekiyordu.
  • 1:29 - 1:33
    Kendi kendime düşündüm;
    kolaylıkla iş bulabileceğim
  • 1:33 - 1:34
    teknik bir alan seçeyim ki
  • 1:34 - 1:38
    sıkıcı etik problemlerle
    uğraşmak zorunda kalmayayım dedim.
  • 1:39 - 1:41
    Böylelikle bilgisayarı seçtim.
  • 1:41 - 1:42
    (Gülüşmeler)
  • 1:42 - 1:45
    Ha, ha, ha!
    Herkes bana gülüyordur.
  • 1:45 - 1:48
    Günümüzde bilgisayar uzmanları
    her gün milyarlarca insanın
  • 1:48 - 1:52
    göreceği şeyleri kontrol eden
    programlar kuruyor.
  • 1:53 - 1:57
    Kime çarpacağına karar verebilecek
    arabalar geliştiriyorlar.
  • 1:58 - 2:01
    Savaşta insanları öldürecek türden
  • 2:01 - 2:03
    makineler, silahlar bile geliştiriyorlar.
  • 2:03 - 2:06
    Etik tamamen ortadan kalkıyor.
  • 2:07 - 2:09
    Makine zekâsı işin içinde.
  • 2:10 - 2:13
    Artık herhangi bir karar verirken
    bilgisayar kullanıyoruz,
  • 2:13 - 2:15
    üstelik yeni kararlar alırken bile.
  • 2:15 - 2:20
    Bilgisayara tek bir doğru
    cevabı olmayan, öznel,
  • 2:20 - 2:22
    açık uçlu ve değer yüklü
  • 2:22 - 2:24
    sorular soruyoruz.
  • 2:24 - 2:26
    Mesela şu gibi sorular:
  • 2:26 - 2:27
    "Şirket kimi işe almalı?"
  • 2:28 - 2:31
    "Hangi arkadaştan
    hangi güncellemeyi görmelisiniz?"
  • 2:31 - 2:33
    "Hangi mahkûm tekrar suç işlemeye yatkın?"
  • 2:34 - 2:37
    "İnsanlara hangi haber ya da film
    tavsiye edilmeli?"
  • 2:37 - 2:40
    Bakın, evet bir süredir bilgisayar
    kullanıyoruz,
  • 2:40 - 2:42
    ama bu farklı bir durum.
  • 2:42 - 2:44
    Bu tarihi bir hata,
  • 2:44 - 2:49
    çünkü böyle öznel kararlarda
    bilgisayara güvenemeyiz,
  • 2:49 - 2:54
    bilgisayara uçak uçurmada,
    köprü inşa etmede, aya gitmede
  • 2:54 - 2:56
    güvendiğimiz gibi güvenemeyiz.
  • 2:56 - 3:00
    Uçaklar daha güvenli mi?
    Köprü sallanıp çöker miydi?
  • 3:00 - 3:04
    Burada üzerinde anlaşılan, açık ölçütler
    ve bize yol gösteren doğa kanunları
  • 3:04 - 3:06
    olduğu konusunda hemfikiriz.
  • 3:07 - 3:10
    Karmaşık insan ilişkilerinde
    karar verirken
  • 3:10 - 3:14
    bu tür dayanak ve ölçütler yok.
  • 3:14 - 3:18
    İşleri daha çetrefilli hâle getirmek için
    yazılımımız gittikçe güçleniyor,
  • 3:18 - 3:22
    fakat aynı zamanda daha az şeffaflaşıp
    daha karmaşık oluyor.
  • 3:23 - 3:25
    Son on yıl içerisinde,
  • 3:25 - 3:27
    kompleks algoritmalar
    büyük aşamalar katetti.
  • 3:27 - 3:29
    İnsan yüzlerini tanıyabiliyorlar.
  • 3:30 - 3:32
    El yazılarını çözebiliyorlar.
  • 3:32 - 3:35
    Kredi kartı dolandırıcılığını
    tespit edip
  • 3:35 - 3:36
    spam postaları engelliyor
  • 3:36 - 3:38
    ve diller arası çeviri yapabiliyorlar.
  • 3:38 - 3:40
    Tıbbi görüntülemelerde tümörleri
    teşhis edebiliyorlar.
  • 3:40 - 3:43
    Go ve satrançta insanları yenebiliyorlar.
  • 3:43 - 3:48
    Bu gelişmelerin çoğu "makine öğrenimi"
    denilen bir yöntemden geliyor.
  • 3:48 - 3:51
    Makine öğrenimi, bilgisayara
    detaylı, doğru ve itinalı
  • 3:51 - 3:55
    talimatlar verdiğiniz
    geleneksel programlamadan farklıdır.
  • 3:55 - 4:00
    Daha çok sistemi kavrayıp onu
    dijital yaşamlarımızda ürettiğimiz türden
  • 4:00 - 4:01
    yapısal olmayan veri dahil
  • 4:01 - 4:04
    bir sürü veriyle desteklemeniz gibidir.
  • 4:04 - 4:06
    Sistem bu bilgileri baştan sona
    karıştırarak öğrenir.
  • 4:07 - 4:08
    Ayrıca en önemlisi
  • 4:08 - 4:13
    bu sistemlerin tek cevaplı
    mantıkla çalışmadığıdır.
  • 4:13 - 4:16
    Tek bir cevap üretmezler,
    daha çok olasılık vardır:
  • 4:16 - 4:19
    "Belki de aradığınız şey bu olabilir."
  • 4:20 - 4:23
    Şimdi avantajı şu:
    Bu yöntem gerçekten çok güçlüdür.
  • 4:23 - 4:25
    Google'ın Yapay Zeka'sının dediği gibi
  • 4:25 - 4:27
    "verinin akıl almaz etkinliği"dir.
  • 4:28 - 4:29
    Dezavantajı ise,
  • 4:30 - 4:33
    sistemin ne öğrendiğini
    tam olarak anlamıyor olmamızdır.
  • 4:33 - 4:34
    Aslında bu onun gücü.
  • 4:35 - 4:39
    Bu, bir bilgisayara
    talimat vermek gibi değildir;
  • 4:39 - 4:43
    nasıl kontrol edeceğimizi bilmediğimiz
    bir içecek sıkma makinesini
  • 4:43 - 4:46
    çalıştırmak gibidir.
  • 4:46 - 4:48
    Yani sorunumuz bu.
  • 4:48 - 4:53
    Yapay zeka sistemi bir şeyleri
    yanlış anladığında problem olur.
  • 4:53 - 4:56
    Aynı zamanda doğru anladığında da
    problem olur,
  • 4:56 - 5:00
    çünkü öznel bir problem olduğunda
    hangisinin hangisi olduğunu bilmiyoruz.
  • 5:00 - 5:02
    Bu şeyin ne düşündüğünü bile bilmiyoruz.
  • 5:03 - 5:07
    Şimdi, insanları işe almak için kullanılan
  • 5:08 - 5:12
    makine öğrenimi sistemlerinden yararlanan
    bir işe alım algoritma sistemi düşünün.
  • 5:13 - 5:17
    Böyle bir sistem önceki
    çalışanların verilerine ayarlı
  • 5:17 - 5:19
    ve şirketteki yüksek performansı olan
  • 5:19 - 5:22
    çalışanlar gibi insanlar bulmaya ve
    işe almaya kurulmuş olmalı.
  • 5:23 - 5:24
    İyi fikir.
  • 5:24 - 5:26
    Bir keresinde bir konferansa katıldım,
  • 5:26 - 5:29
    işe alımda bu sistemi kullanan
    insan kaynakları uzmanları ile
  • 5:29 - 5:30
    yöneticileri,
  • 5:30 - 5:32
    üst düzey insanları buluşturuyordu.
  • 5:32 - 5:34
    Çok heyecanlıydılar.
  • 5:34 - 5:38
    Bu yöntemin işe alımı daha nesnel,
    daha az ön yargılı yapacağını
  • 5:38 - 5:41
    ve kadın ve azınlıkları ön yargılı
    insan kaynakları karşısında
  • 5:41 - 5:44
    daha şanslı hâle getireceğini
    düşünüyorlardı.
  • 5:44 - 5:46
    İşe alımda ön yargılı davranılır.
  • 5:47 - 5:48
    Biliyorum.
  • 5:48 - 5:51
    Yani, programcı olarak çalıştığım ilk
    işlerimden birinde
  • 5:51 - 5:55
    ilk patronum bazen sabah çok erken ya da
  • 5:55 - 5:59
    öğleden sonra çok geç saatlerde
    yanıma gelir
  • 5:59 - 6:02
    ve "Zeynep, hadi yemeğe çıkalım!" derdi.
  • 6:03 - 6:05
    Garip zamanlamasına şaşırırdım.
  • 6:05 - 6:07
    Saat dört. Öğle yemeği mi?
  • 6:07 - 6:10
    Param yoktu, bedava öğle yemeği vardı.
    Her zaman giderdim.
  • 6:11 - 6:13
    Neler olduğunu daha sonraları anladım.
  • 6:13 - 6:17
    Amirlerim kendi üst düzey müdürlerine
    çok ciddi bir iş için
  • 6:17 - 6:20
    işe aldıkları programcının
    kot pantolon ve spor ayakkabı giyen
  • 6:20 - 6:24
    yeni yetme bir kız olduğunu
    söylememişlerdi.
  • 6:25 - 6:27
    İyi iş çıkarıyordum,
    ama yanlış görünüyordum,
  • 6:27 - 6:29
    yanlış yaşta ve cinsiyetteydim.
  • 6:29 - 6:32
    Dolayısıyla cinsiyet ve ırk
    gözetilmeksizin işe alım
  • 6:32 - 6:34
    bence kesinlikle iyi fikir.
  • 6:35 - 6:38
    Ancak bu sistemlerle konu
    daha karmaşık oluyor, nedeni şu:
  • 6:39 - 6:45
    Şimdilerde bilgisayar sistemleri
    paylaşmadığınız şeyler bile olsa
  • 6:45 - 6:47
    dijital kırıntılarınızdan
  • 6:47 - 6:49
    hakkınızda birçok çıkarım yapabilir.
  • 6:50 - 6:52
    Cinsel yöneliminizi,
  • 6:53 - 6:54
    kişilik özelliklerinizi,
  • 6:55 - 6:56
    siyasi görüşünüzü anlayabiliyor.
  • 6:57 - 7:01
    Yüksek doğruluk oranlı öngörü güçleri var.
  • 7:01 - 7:04
    Unutmayın - paylaşmadığınız
    şeyleri bile.
  • 7:04 - 7:06
    Bu, çıkarımda bulunmaktır.
  • 7:06 - 7:09
    Sosyal medya verilerinden
    klinik depresyon veya
  • 7:09 - 7:13
    doğum sonrası depresyon ihtimalini
    öngören sayısal sistemler geliştiren
  • 7:13 - 7:14
    bir arkadaşım var.
  • 7:15 - 7:16
    Sonuçlar etkileyici.
  • 7:16 - 7:20
    Sistem depresyon ihtimalini
    semptomların başlamasından
  • 7:20 - 7:24
    aylar öncesinden öngörebiliyor,
  • 7:24 - 7:25
    aylar öncesinden.
  • 7:25 - 7:27
    Hiçbir semptom yok, ama öngörü var.
  • 7:27 - 7:32
    Erken müdahalede
    kullanılacağını umuyor. Muhteşem!
  • 7:33 - 7:35
    Şimdi de bunu
    işe alım kavramına uygulayın.
  • 7:36 - 7:39
    Bu insan kaynakları
    yöneticileri konferansında
  • 7:39 - 7:44
    büyük bir şirketin
    üst düzey bir yöneticisiyle görüştüm.
  • 7:44 - 7:48
    Ona, "Peki sisteminiz size bildirmeden
  • 7:48 - 7:55
    gelecekte yüksek depresyon ihtimali olan
    insanları ayıklıyorsa?
  • 7:56 - 7:59
    Şu an psikolojik bozuklukları yok,
    ancak belki ileride olabilir.
  • 8:00 - 8:03
    Peki şu an hamile olmayan ancak
    gelecek bir ya da iki yıl içinde
  • 8:03 - 8:06
    hamile kalma ihtimali olan
    kadınları ayıklıyorsa?
  • 8:07 - 8:12
    İş yeri kültürünüz öyle olduğu için
    agresif insanları işe alıyorsa?" dedim.
  • 8:13 - 8:16
    Bunu cinsiyet analizlerine bakarak
    anlayamazsınız.
  • 8:16 - 8:17
    Dengelenmiş olabilirler.
  • 8:17 - 8:21
    Ayrıca bu geleneksel kodlama değil
    makine öğrenimi olduğu için
  • 8:21 - 8:26
    "yüksek depresyon riski",
    "yüksek hamilelik riski",
  • 8:26 - 8:28
    "agresiflik ölçümü" gibi
  • 8:28 - 8:30
    etiket taşıyan değişkenler yok.
  • 8:30 - 8:34
    Sadece sisteminizin neyi seçtiğini değil,
  • 8:34 - 8:36
    nereden bakmaya başlayacağınızı
    bile bilmiyorsunuz.
  • 8:36 - 8:37
    Bir kara kutu.
  • 8:37 - 8:40
    Tahmin gücüne sahip ancak
    onu anlamıyorsunuz.
  • 8:40 - 8:43
    "Ne güvenlikleri var?" diye sordum,
    "kara kutunuzun
  • 8:43 - 8:47
    gizli bir şey yapmadığından
    emin olmak için?"
  • 8:49 - 8:53
    Kuyruğuna basmışım gibi bakakaldı.
  • 8:53 - 8:54
    (Gülüşmeler)
  • 8:54 - 8:56
    Dik dik baktı ve
  • 8:57 - 9:01
    "buna dair başka bir şey
    duymak istemiyorum." dedi.
  • 9:01 - 9:03
    Arkasını dönüp gitti.
  • 9:04 - 9:06
    Gerçi kaba değildi.
  • 9:06 - 9:12
    Açıklaması şu: Bilmediğim şey benim
    sorunum değil, bas git, öldürücü bakış.
  • 9:12 - 9:13
    (Gülüşmeler)
  • 9:14 - 9:18
    Bakın böyle bir sistem bazı açılardan
    insan yöneticilerden
  • 9:18 - 9:20
    daha az ön yargılı olabilir.
  • 9:20 - 9:22
    Parasal anlam taşıyabilir.
  • 9:23 - 9:24
    Ancak depresyon riski
  • 9:24 - 9:29
    yüksek olan insanların iş piyasasına
    istikrarlı ve gizli olarak girmesini
  • 9:29 - 9:31
    engellemeye sebep olabilir.
  • 9:32 - 9:34
    Ne yapmış olduğumuzu bile bilmeden
  • 9:34 - 9:37
    kurmak istediğimiz toplum modeli bu mu?
  • 9:37 - 9:41
    Çünkü karar verme işini tam olarak
    anlamadığımız makinelere bırakıyoruz.
  • 9:41 - 9:43
    Diğer bir problemse şu:
  • 9:43 - 9:48
    Bu sistemler çoğunlukla bizim
    davranışlarımızla; insan izleri tarafından
  • 9:48 - 9:50
    üretilen bilgilerle test edilir.
  • 9:50 - 9:54
    Ön yargılarımızı yansıtıyor olabilirler.
  • 9:54 - 9:58
    Bu sistemler ön yargılarımıza dönüp
  • 9:58 - 9:59
    onları büyütüp
  • 9:59 - 10:01
    bize tekrar gösteriyor olabilir,
  • 10:01 - 10:02
    biz ise bu arada kendimize
  • 10:02 - 10:05
    "Sadece nesnel, tarafsız hesap
    yapıyoruz." diyoruz.
  • 10:06 - 10:09
    Araştırmacılar Google'da
    yüksek maaşlı iş ilanlarını
  • 10:10 - 10:15
    kadınların görme ihtimalinin
    erkeklerden daha az olduğunu tespit etti.
  • 10:16 - 10:19
    Afro-Amerikan isimleri araştırırken
  • 10:19 - 10:24
    alakası olmasa bile
    sabıka geçmişi ile ilgili ilanları
  • 10:24 - 10:25
    öne sürmesi daha muhtemeldir.
  • 10:27 - 10:30
    Araştırmacıların bazen ortaya çıkardığı
    ancak bazen bizim bilmediğimiz
  • 10:30 - 10:34
    bu tür gizli ön yargıların ve
    kara kutu algoritmalarının
  • 10:34 - 10:37
    hayat değiştiren sonuçları var.
  • 10:38 - 10:42
    Wisconsin'de bir sanık,
    altı yıl hapse mahkûm edildi,
  • 10:42 - 10:43
    polisten kaçtığı için.
  • 10:45 - 10:46
    Belki bilmiyorsunuzdur,
  • 10:46 - 10:50
    algoritmaların şartlı tahliye ve ceza
    kararlarında kullanımı giderek artıyor.
  • 10:50 - 10:53
    Şunu öğrenmek istiyordu:
    Bu sonuç nasıl hesaplanmıştı?
  • 10:54 - 10:55
    Ticari bir kara kutu.
  • 10:55 - 11:00
    Şirket, halka açık duruşmada
    işlemlerinin sorgulanmasını reddetmişti.
  • 11:00 - 11:06
    Kâr amacı gütmeyen araştırmacı kurum
    ProPublica, bu algoritmayı
  • 11:06 - 11:08
    bulabildiği kamusal verilerle inceledi
  • 11:08 - 11:10
    ve sonuçlarının ön yargılı olduğunu,
  • 11:10 - 11:14
    öngörü gücününse kötü, olasılıktan
    biraz iyi olduğunu
  • 11:14 - 11:18
    ve siyahi sanıkları haksız yere
    beyaz sanıklardan iki kat fazla bir oranla
  • 11:18 - 11:22
    geleceğin suçluları olarak
    etiketlediğini bulguladı.
  • 11:24 - 11:25
    Şu olayı göz önüne alın:
  • 11:26 - 11:30
    Bu kadın, vaftiz kardeşini Florida'nın
    Broward bölgesindeki bir okuldan
  • 11:30 - 11:32
    almaya geç kalmış,
  • 11:33 - 11:35
    bir arkadaşıyla caddede ilerliyorlar.
  • 11:35 - 11:39
    Verandada duran kilitsiz bir
    çocuk bisikleti ve bir kaydırak görüyor
  • 11:39 - 11:41
    ve düşünmeden biniyorlar.
  • 11:41 - 11:44
    Tam yola koyulacakken
    kadının biri çıkıyor ve
  • 11:44 - 11:46
    "Hey! Bu benim çocuğumun
    bisikleti!" diyor.
  • 11:46 - 11:49
    Bırakıp gidiyorlar, ancak tutuklanıyorlar.
  • 11:49 - 11:53
    Haksızdı, aptalca davranmıştı,
    ama henüz 18 yaşındaydı.
  • 11:53 - 11:55
    Çocukken ciddi olmayan bir iki suç işlemişti.
  • 11:56 - 12:01
    Bu arada, adam da Home Depot'da
    hırsızlık yapmaktan tutuklanmıştı.
  • 12:01 - 12:04
    85 dolar değerinde,
    benzeri bir hafif suç.
  • 12:05 - 12:09
    Ama öncesinde iki silahlı
    soygun sabıkası vardı.
  • 12:10 - 12:13
    Ancak algoritma, adamı değil
    kadını yüksek riskli olarak işaretledi.
  • 12:15 - 12:19
    İki yıl sonra ProPublica kadının
    tekrar suç işlemediğini tespit etti.
  • 12:19 - 12:21
    Sabıka puanıyla iş bulması çok zordu.
  • 12:21 - 12:23
    Öte yandan adam tekrar suç işlemişti
  • 12:23 - 12:27
    ve şimdi daha sonra işlediği bir suç
    yüzünden sekiz yıllık hapis cezasında.
  • 12:28 - 12:31
    Belli ki kara kutularımızı
    kontrol etmemiz
  • 12:31 - 12:34
    ve onlara böyle kontrolsüz güç
    vermememiz gerekiyor.
  • 12:34 - 12:37
    (Alkışlar)
  • 12:38 - 12:42
    Kontroller önemli ve etkili,
    ancak tüm sorunlarımızı çözmüyorlar.
  • 12:42 - 12:45
    Facebook'un muhteşem
    haber akışı algoritmasına bakın,
  • 12:45 - 12:50
    yani takip ettiğiniz tüm arkadaşlarınız
    ve sayfalardan her şeyi sıralayıp
  • 12:50 - 12:52
    size ne göstereceğine
    karar veren algoritma.
  • 12:53 - 12:55
    Başka bir bebek fotoğrafı görmeli misiniz?
  • 12:55 - 12:56
    (Gülüşmeler)
  • 12:56 - 12:59
    Bir tanıdıktan somurtkan bir not?
  • 12:59 - 13:01
    Önemli ama üzücü haberler?
  • 13:01 - 13:03
    Doğru bir cevap yok.
  • 13:03 - 13:05
    Facebook meşgul olacaklarınızı
    en uygun hâle getiriyor:
  • 13:06 - 13:07
    Beğeniler, paylaşımlar, yorumlar.
  • 13:08 - 13:11
    Ağustos 2014'te,
  • 13:11 - 13:14
    Missouri, Ferguson'da
    Afro-Amerikan bir gencin
  • 13:14 - 13:18
    beyaz bir polis tarafından şüpheli
    bir şekilde öldürülmesi sonrası
  • 13:18 - 13:20
    protestolar başladı.
  • 13:20 - 13:22
    Protesto haberleri
  • 13:22 - 13:25
    algoritmik olarak filtrelenmeyen
    Twitter akışımda vardı
  • 13:25 - 13:27
    ancak Facebook'ta hiçbir yerde yoktu.
  • 13:27 - 13:29
    Facebook arkadaşlarım ne hâldeydi?
  • 13:29 - 13:31
    Facebook'un algoritmasını
    devre dışı bıraktım,
  • 13:31 - 13:34
    ki bu çok zordur, çünkü Facebook
    sizi algoritmanın
  • 13:34 - 13:36
    kontrolü altında tutmak ister.
  • 13:36 - 13:39
    Baktım ki arkadaşlarım da
    bunu konuşuyor.
  • 13:39 - 13:41
    Bunu bana göstermeyen
    algoritmanın ta kendisiydi.
  • 13:41 - 13:44
    Bunu araştırdım ve
    yaygın bir problem olduğunu gördüm.
  • 13:44 - 13:48
    Ferguson haberi algoritma dostu değildi.
  • 13:48 - 13:49
    "Beğenilebilir" değildi.
  • 13:49 - 13:51
    Kim "beğen"e tıklayacaktı?
  • 13:52 - 13:54
    Yorum yapılması bile kolay değildi.
  • 13:54 - 13:55
    Beğeniler ve yorumlar olmayınca
  • 13:55 - 13:58
    algoritma bunu daha az insana
    gösteriyor olmalıydı,
  • 13:58 - 14:00
    dolayısıyla görmüyorduk.
  • 14:01 - 14:02
    Onun yerine, o hafta
  • 14:02 - 14:04
    Facebook'un algoritması
    şunu ön plana çıkardı:
  • 14:05 - 14:07
    ALS Buz Kovası Düellosu.
  • 14:07 - 14:11
    İyi bir sebep; buzlu su dök,
    bağış yap, tamam.
  • 14:11 - 14:12
    Fakat süper algoritma dostuydu.
  • 14:13 - 14:16
    Makine bu kararı bizim için almıştı.
  • 14:16 - 14:19
    Facebook tek kanal olsaydı
    çok önemli ancak
  • 14:19 - 14:21
    etkili bir sohbet
  • 14:21 - 14:24
    engellenmiş olabilirdi.
  • 14:24 - 14:28
    Şimdi sonuç olarak bu sistemler
    insan sistemlerine
  • 14:28 - 14:31
    benzememesi bakımından da
    yanlış olabilir.
  • 14:31 - 14:34
    Watson'ı hatırlıyor musunuz?
    IBM'in Riziko'da
  • 14:34 - 14:37
    insan rakiplerini yenilgiye uğratan
    makine zekâsı sistemini?
  • 14:37 - 14:39
    Harika bir oyuncuydu.
  • 14:39 - 14:42
    Ancak o zaman, Riziko'nun finalinde
    Watson'a şu soru soruldu:
  • 14:43 - 14:46
    "En büyük havaalanı adını İkinci
    Dünya Savaşı kahramanından alır,
  • 14:46 - 14:48
    ikincisi İkinci Dünya Savaşı savaşından.
  • 14:48 - 14:49
    (Final Riziko müziği çalar)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:52
    İki insan soruyu doğru anladı.
  • 14:53 - 14:57
    Buna karşın Watson,
    Birleşik Devletler şehri olarak
  • 14:57 - 14:59
    "Toronto" cevabını verdi.
  • 15:00 - 15:02
    Bu etkileyici sistem
  • 15:03 - 15:06
    bir insanın, ikinci sınıfa giden birinin
    asla yapmayacağı bir hata yapmıştı.
  • 15:07 - 15:10
    Makine zekâmız
  • 15:10 - 15:13
    insanların hata şekline
    uymayan şekilde,
  • 15:13 - 15:16
    beklemediğimiz ve hazırlıksız olduğumuz
    şekilde hata yapabilir.
  • 15:16 - 15:20
    Kalifiye biri için işe alınmamak
    kötü olabilirdi,
  • 15:20 - 15:23
    fakat bu, bazı alt programlarda
    bellek dolu dediği için oluyorsa
  • 15:23 - 15:25
    üç kat daha kötü olurdu.
  • 15:25 - 15:27
    (Gülüşmeler)
  • 15:27 - 15:29
    Mayıs 2010'da
  • 15:29 - 15:33
    Wall Steet'te olan Wall Street'in
    "satış" algoritmalarını
  • 15:33 - 15:36
    bir geri bildirim döngüsünün
    körüklediği ani bir düşüş
  • 15:36 - 15:41
    36 dakika içinde trilyon dolarları sildi.
  • 15:42 - 15:44
    Ölümcül otonom silahlar bağlamında
  • 15:44 - 15:48
    "hata yapmak" ne demek bunu
    düşünmek bile istemiyorum.
  • 15:50 - 15:54
    Evet, insanlar her zaman
    ön yargıda bulunur.
  • 15:54 - 15:56
    Karar vericiler ve geçit deneticiler
  • 15:56 - 15:59
    mahkemelerde, haberlerde, savaşlarda...
  • 15:59 - 16:02
    Hata yaparlar; işte benim
    asıl dikkat çekmek istediğim bu.
  • 16:02 - 16:06
    Bu zor sorulardan kaçamayız.
  • 16:07 - 16:10
    Kendi sorumluluklarımızı
    makinelere yaptıramayız.
  • 16:11 - 16:15
    (Alkışlar)
  • 16:17 - 16:22
    Yapay zekâ bize "etikten kurtul geç"
    kartı vermiyor.
  • 16:23 - 16:26
    Veri uzmanı Fred Benenson
    buna matematiksel yıkama diyor.
  • 16:26 - 16:28
    Tam tersine ihtiyacımız var.
  • 16:28 - 16:33
    Algoritmayı şüphe, gözlem ve
    inceleme ile desteklemeliyiz.
  • 16:33 - 16:37
    Algoritmik izlenebilirlik, denetim ve
  • 16:37 - 16:39
    anlamlı şeffaflığımız olduğundan
    emin olmamız gerek.
  • 16:39 - 16:43
    Matematik ve programlamayı
    karmaşık, değer yüklü
  • 16:43 - 16:46
    insani ilişkilere uygulamanın
  • 16:46 - 16:48
    nesnellik getirmeyeceğini
    kabul etmemiz gerekiyor;
  • 16:48 - 16:52
    aksine, insan ilişkilerinin karmaşıklığı
    algoritmaları ele geçiriyor.
  • 16:52 - 16:56
    Tabii ki daha iyi kararlar almamız için
    bilgisayar kullanabiliriz,
  • 16:56 - 16:58
    kullanmalıyız da.
  • 16:58 - 17:03
    Ancak doğru karar vermek için,
    ahlaki sorumluluk alıp
  • 17:03 - 17:06
    algoritmaları bu çerçevede
    kullanmak zorundayız,
  • 17:06 - 17:11
    insan olarak birbirimize karşı olan
    sorumluluklarımızı üstümüzden atıp
  • 17:11 - 17:14
    dış kaynaktan temin etmenin
    bir yolu gibi görmemeliyiz.
  • 17:14 - 17:16
    Makine zekâsı işte böyledir.
  • 17:16 - 17:20
    Bu demektir ki, insani değerlere ve etiğe
  • 17:20 - 17:22
    hiç olmadığı kadar
    sıkı sarılmamız gerekiyor.
  • 17:22 - 17:23
    Teşekkür ederim.
  • 17:23 - 17:28
    (Alkışlar)
Title:
Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
Speaker:
Zeynep Tüfekçi
Description:

Makine zekâsı devrede ve bunu çoktandır öznel kararlar verirken bile kullanıyoruz. Fakat Yapay Zekâ'nın kompleks yapısı ve gelişimi, onu anlamayı hatta kontrol etmeyi bile zorlaştırıyor. Bu uyarı niteliğindeki konuşmasında tekno-sosyolojist Zeynep Tüfekçi, zeki makinelerin insanın yapmayacağı, ummadığımız ve hazırlıksız olduğumuz hatalara nasıl düşebildiğini açıklıyor. Tüfekçi, "Kendi sorumluluklarımızı makinelere atamayız, insani değerlere ve etiğe hiç olmadığı kadar bağlı kalmalıyız." diyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Turkish subtitles

Revisions