Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
-
0:01 - 0:05Bilgisayar programcısı olarak
ilk çalışmaya başladığımda -
0:05 - 0:07üniversite birinci sınıftaydım,
-
0:07 - 0:08yani yeni yetme sayılırdım.
-
0:09 - 0:11Bir şirkette program yazma göreviyle
-
0:11 - 0:12işe girdikten kısa süre sonra
-
0:13 - 0:16şirkette çalışan bir müdür yanıma geldi
-
0:16 - 0:18ve fısıltıyla sordu:
-
0:18 - 0:21"Yalan söylediğimi anlayabilir mi?"
-
0:22 - 0:24Odada başka kimse yoktu.
-
0:25 - 0:29"Yalanı kim anlayabilir mi?
Ayrıca neden fısıldaşıyoruz?" dedim. -
0:30 - 0:33Müdür, odada bulunan bilgisayarı gösterdi.
-
0:33 - 0:36"Yalan söyleyip söylemediğimi anlar mı?"
-
0:38 - 0:42Bu müdür danışmada çalışan
biriyle ilişki yaşıyordu. -
0:42 - 0:43(Gülüşmeler)
-
0:43 - 0:45Ben de yeni yetmeyim tabii.
-
0:45 - 0:47Fısıltıyla bağırır gibi cevap verdim:
-
0:47 - 0:51"Evet, yalan söylerseniz
bilgisayar anlar." dedim. -
0:51 - 0:53(Gülüşmeler)
-
0:53 - 0:56Gülüyordum ama aslında
gülünmesi gereken bendim. -
0:56 - 0:59Günümüzde insan yüzlerini
-
0:59 - 1:03işlemden geçirerek ruh hâlini
ve hatta yalan söylediğini -
1:03 - 1:05tespit eden bilgisayar programları var.
-
1:05 - 1:09Reklamcılar, hatta devletler de
çok ilgi duyuyor. -
1:10 - 1:12Matematik ve fen bilgisini çok seven
-
1:12 - 1:15bir çocuk olduğum için
bilgisayar programcısı olmuştum. -
1:16 - 1:19Fakat o sıralarda
nükleer silahlara dair bilgi edinmiş -
1:19 - 1:22ve bilim etiğine de
çok ilgi duymaya başlamıştım. -
1:22 - 1:23Sorunlarım vardı.
-
1:23 - 1:26Ne yazık ki ailevi durumlar yüzünden
-
1:26 - 1:29mümkün olduğu kadar çabuk
işe girmem gerekiyordu. -
1:29 - 1:33Kendi kendime düşündüm;
kolaylıkla iş bulabileceğim -
1:33 - 1:34teknik bir alan seçeyim ki
-
1:34 - 1:38sıkıcı etik problemlerle
uğraşmak zorunda kalmayayım dedim. -
1:39 - 1:41Böylelikle bilgisayarı seçtim.
-
1:41 - 1:42(Gülüşmeler)
-
1:42 - 1:45Ha, ha, ha!
Herkes bana gülüyordur. -
1:45 - 1:48Günümüzde bilgisayar uzmanları
her gün milyarlarca insanın -
1:48 - 1:52göreceği şeyleri kontrol eden
programlar kuruyor. -
1:53 - 1:57Kime çarpacağına karar verebilecek
arabalar geliştiriyorlar. -
1:58 - 2:01Savaşta insanları öldürecek türden
-
2:01 - 2:03makineler, silahlar bile geliştiriyorlar.
-
2:03 - 2:06Etik tamamen ortadan kalkıyor.
-
2:07 - 2:09Makine zekâsı işin içinde.
-
2:10 - 2:13Artık herhangi bir karar verirken
bilgisayar kullanıyoruz, -
2:13 - 2:15üstelik yeni kararlar alırken bile.
-
2:15 - 2:20Bilgisayara tek bir doğru
cevabı olmayan, öznel, -
2:20 - 2:22açık uçlu ve değer yüklü
-
2:22 - 2:24sorular soruyoruz.
-
2:24 - 2:26Mesela şu gibi sorular:
-
2:26 - 2:27"Şirket kimi işe almalı?"
-
2:28 - 2:31"Hangi arkadaştan
hangi güncellemeyi görmelisiniz?" -
2:31 - 2:33"Hangi mahkûm tekrar suç işlemeye yatkın?"
-
2:34 - 2:37"İnsanlara hangi haber ya da film
tavsiye edilmeli?" -
2:37 - 2:40Bakın, evet bir süredir bilgisayar
kullanıyoruz, -
2:40 - 2:42ama bu farklı bir durum.
-
2:42 - 2:44Bu tarihi bir hata,
-
2:44 - 2:49çünkü böyle öznel kararlarda
bilgisayara güvenemeyiz, -
2:49 - 2:54bilgisayara uçak uçurmada,
köprü inşa etmede, aya gitmede -
2:54 - 2:56güvendiğimiz gibi güvenemeyiz.
-
2:56 - 3:00Uçaklar daha güvenli mi?
Köprü sallanıp çöker miydi? -
3:00 - 3:04Burada üzerinde anlaşılan, açık ölçütler
ve bize yol gösteren doğa kanunları -
3:04 - 3:06olduğu konusunda hemfikiriz.
-
3:07 - 3:10Karmaşık insan ilişkilerinde
karar verirken -
3:10 - 3:14bu tür dayanak ve ölçütler yok.
-
3:14 - 3:18İşleri daha çetrefilli hâle getirmek için
yazılımımız gittikçe güçleniyor, -
3:18 - 3:22fakat aynı zamanda daha az şeffaflaşıp
daha karmaşık oluyor. -
3:23 - 3:25Son on yıl içerisinde,
-
3:25 - 3:27kompleks algoritmalar
büyük aşamalar katetti. -
3:27 - 3:29İnsan yüzlerini tanıyabiliyorlar.
-
3:30 - 3:32El yazılarını çözebiliyorlar.
-
3:32 - 3:35Kredi kartı dolandırıcılığını
tespit edip -
3:35 - 3:36spam postaları engelliyor
-
3:36 - 3:38ve diller arası çeviri yapabiliyorlar.
-
3:38 - 3:40Tıbbi görüntülemelerde tümörleri
teşhis edebiliyorlar. -
3:40 - 3:43Go ve satrançta insanları yenebiliyorlar.
-
3:43 - 3:48Bu gelişmelerin çoğu "makine öğrenimi"
denilen bir yöntemden geliyor. -
3:48 - 3:51Makine öğrenimi, bilgisayara
detaylı, doğru ve itinalı -
3:51 - 3:55talimatlar verdiğiniz
geleneksel programlamadan farklıdır. -
3:55 - 4:00Daha çok sistemi kavrayıp onu
dijital yaşamlarımızda ürettiğimiz türden -
4:00 - 4:01yapısal olmayan veri dahil
-
4:01 - 4:04bir sürü veriyle desteklemeniz gibidir.
-
4:04 - 4:06Sistem bu bilgileri baştan sona
karıştırarak öğrenir. -
4:07 - 4:08Ayrıca en önemlisi
-
4:08 - 4:13bu sistemlerin tek cevaplı
mantıkla çalışmadığıdır. -
4:13 - 4:16Tek bir cevap üretmezler,
daha çok olasılık vardır: -
4:16 - 4:19"Belki de aradığınız şey bu olabilir."
-
4:20 - 4:23Şimdi avantajı şu:
Bu yöntem gerçekten çok güçlüdür. -
4:23 - 4:25Google'ın Yapay Zeka'sının dediği gibi
-
4:25 - 4:27"verinin akıl almaz etkinliği"dir.
-
4:28 - 4:29Dezavantajı ise,
-
4:30 - 4:33sistemin ne öğrendiğini
tam olarak anlamıyor olmamızdır. -
4:33 - 4:34Aslında bu onun gücü.
-
4:35 - 4:39Bu, bir bilgisayara
talimat vermek gibi değildir; -
4:39 - 4:43nasıl kontrol edeceğimizi bilmediğimiz
bir içecek sıkma makinesini -
4:43 - 4:46çalıştırmak gibidir.
-
4:46 - 4:48Yani sorunumuz bu.
-
4:48 - 4:53Yapay zeka sistemi bir şeyleri
yanlış anladığında problem olur. -
4:53 - 4:56Aynı zamanda doğru anladığında da
problem olur, -
4:56 - 5:00çünkü öznel bir problem olduğunda
hangisinin hangisi olduğunu bilmiyoruz. -
5:00 - 5:02Bu şeyin ne düşündüğünü bile bilmiyoruz.
-
5:03 - 5:07Şimdi, insanları işe almak için kullanılan
-
5:08 - 5:12makine öğrenimi sistemlerinden yararlanan
bir işe alım algoritma sistemi düşünün. -
5:13 - 5:17Böyle bir sistem önceki
çalışanların verilerine ayarlı -
5:17 - 5:19ve şirketteki yüksek performansı olan
-
5:19 - 5:22çalışanlar gibi insanlar bulmaya ve
işe almaya kurulmuş olmalı. -
5:23 - 5:24İyi fikir.
-
5:24 - 5:26Bir keresinde bir konferansa katıldım,
-
5:26 - 5:29işe alımda bu sistemi kullanan
insan kaynakları uzmanları ile -
5:29 - 5:30yöneticileri,
-
5:30 - 5:32üst düzey insanları buluşturuyordu.
-
5:32 - 5:34Çok heyecanlıydılar.
-
5:34 - 5:38Bu yöntemin işe alımı daha nesnel,
daha az ön yargılı yapacağını -
5:38 - 5:41ve kadın ve azınlıkları ön yargılı
insan kaynakları karşısında -
5:41 - 5:44daha şanslı hâle getireceğini
düşünüyorlardı. -
5:44 - 5:46İşe alımda ön yargılı davranılır.
-
5:47 - 5:48Biliyorum.
-
5:48 - 5:51Yani, programcı olarak çalıştığım ilk
işlerimden birinde -
5:51 - 5:55ilk patronum bazen sabah çok erken ya da
-
5:55 - 5:59öğleden sonra çok geç saatlerde
yanıma gelir -
5:59 - 6:02ve "Zeynep, hadi yemeğe çıkalım!" derdi.
-
6:03 - 6:05Garip zamanlamasına şaşırırdım.
-
6:05 - 6:07Saat dört. Öğle yemeği mi?
-
6:07 - 6:10Param yoktu, bedava öğle yemeği vardı.
Her zaman giderdim. -
6:11 - 6:13Neler olduğunu daha sonraları anladım.
-
6:13 - 6:17Amirlerim kendi üst düzey müdürlerine
çok ciddi bir iş için -
6:17 - 6:20işe aldıkları programcının
kot pantolon ve spor ayakkabı giyen -
6:20 - 6:24yeni yetme bir kız olduğunu
söylememişlerdi. -
6:25 - 6:27İyi iş çıkarıyordum,
ama yanlış görünüyordum, -
6:27 - 6:29yanlış yaşta ve cinsiyetteydim.
-
6:29 - 6:32Dolayısıyla cinsiyet ve ırk
gözetilmeksizin işe alım -
6:32 - 6:34bence kesinlikle iyi fikir.
-
6:35 - 6:38Ancak bu sistemlerle konu
daha karmaşık oluyor, nedeni şu: -
6:39 - 6:45Şimdilerde bilgisayar sistemleri
paylaşmadığınız şeyler bile olsa -
6:45 - 6:47dijital kırıntılarınızdan
-
6:47 - 6:49hakkınızda birçok çıkarım yapabilir.
-
6:50 - 6:52Cinsel yöneliminizi,
-
6:53 - 6:54kişilik özelliklerinizi,
-
6:55 - 6:56siyasi görüşünüzü anlayabiliyor.
-
6:57 - 7:01Yüksek doğruluk oranlı öngörü güçleri var.
-
7:01 - 7:04Unutmayın - paylaşmadığınız
şeyleri bile. -
7:04 - 7:06Bu, çıkarımda bulunmaktır.
-
7:06 - 7:09Sosyal medya verilerinden
klinik depresyon veya -
7:09 - 7:13doğum sonrası depresyon ihtimalini
öngören sayısal sistemler geliştiren -
7:13 - 7:14bir arkadaşım var.
-
7:15 - 7:16Sonuçlar etkileyici.
-
7:16 - 7:20Sistem depresyon ihtimalini
semptomların başlamasından -
7:20 - 7:24aylar öncesinden öngörebiliyor,
-
7:24 - 7:25aylar öncesinden.
-
7:25 - 7:27Hiçbir semptom yok, ama öngörü var.
-
7:27 - 7:32Erken müdahalede
kullanılacağını umuyor. Muhteşem! -
7:33 - 7:35Şimdi de bunu
işe alım kavramına uygulayın. -
7:36 - 7:39Bu insan kaynakları
yöneticileri konferansında -
7:39 - 7:44büyük bir şirketin
üst düzey bir yöneticisiyle görüştüm. -
7:44 - 7:48Ona, "Peki sisteminiz size bildirmeden
-
7:48 - 7:55gelecekte yüksek depresyon ihtimali olan
insanları ayıklıyorsa? -
7:56 - 7:59Şu an psikolojik bozuklukları yok,
ancak belki ileride olabilir. -
8:00 - 8:03Peki şu an hamile olmayan ancak
gelecek bir ya da iki yıl içinde -
8:03 - 8:06hamile kalma ihtimali olan
kadınları ayıklıyorsa? -
8:07 - 8:12İş yeri kültürünüz öyle olduğu için
agresif insanları işe alıyorsa?" dedim. -
8:13 - 8:16Bunu cinsiyet analizlerine bakarak
anlayamazsınız. -
8:16 - 8:17Dengelenmiş olabilirler.
-
8:17 - 8:21Ayrıca bu geleneksel kodlama değil
makine öğrenimi olduğu için -
8:21 - 8:26"yüksek depresyon riski",
"yüksek hamilelik riski", -
8:26 - 8:28"agresiflik ölçümü" gibi
-
8:28 - 8:30etiket taşıyan değişkenler yok.
-
8:30 - 8:34Sadece sisteminizin neyi seçtiğini değil,
-
8:34 - 8:36nereden bakmaya başlayacağınızı
bile bilmiyorsunuz. -
8:36 - 8:37Bir kara kutu.
-
8:37 - 8:40Tahmin gücüne sahip ancak
onu anlamıyorsunuz. -
8:40 - 8:43"Ne güvenlikleri var?" diye sordum,
"kara kutunuzun -
8:43 - 8:47gizli bir şey yapmadığından
emin olmak için?" -
8:49 - 8:53Kuyruğuna basmışım gibi bakakaldı.
-
8:53 - 8:54(Gülüşmeler)
-
8:54 - 8:56Dik dik baktı ve
-
8:57 - 9:01"buna dair başka bir şey
duymak istemiyorum." dedi. -
9:01 - 9:03Arkasını dönüp gitti.
-
9:04 - 9:06Gerçi kaba değildi.
-
9:06 - 9:12Açıklaması şu: Bilmediğim şey benim
sorunum değil, bas git, öldürücü bakış. -
9:12 - 9:13(Gülüşmeler)
-
9:14 - 9:18Bakın böyle bir sistem bazı açılardan
insan yöneticilerden -
9:18 - 9:20daha az ön yargılı olabilir.
-
9:20 - 9:22Parasal anlam taşıyabilir.
-
9:23 - 9:24Ancak depresyon riski
-
9:24 - 9:29yüksek olan insanların iş piyasasına
istikrarlı ve gizli olarak girmesini -
9:29 - 9:31engellemeye sebep olabilir.
-
9:32 - 9:34Ne yapmış olduğumuzu bile bilmeden
-
9:34 - 9:37kurmak istediğimiz toplum modeli bu mu?
-
9:37 - 9:41Çünkü karar verme işini tam olarak
anlamadığımız makinelere bırakıyoruz. -
9:41 - 9:43Diğer bir problemse şu:
-
9:43 - 9:48Bu sistemler çoğunlukla bizim
davranışlarımızla; insan izleri tarafından -
9:48 - 9:50üretilen bilgilerle test edilir.
-
9:50 - 9:54Ön yargılarımızı yansıtıyor olabilirler.
-
9:54 - 9:58Bu sistemler ön yargılarımıza dönüp
-
9:58 - 9:59onları büyütüp
-
9:59 - 10:01bize tekrar gösteriyor olabilir,
-
10:01 - 10:02biz ise bu arada kendimize
-
10:02 - 10:05"Sadece nesnel, tarafsız hesap
yapıyoruz." diyoruz. -
10:06 - 10:09Araştırmacılar Google'da
yüksek maaşlı iş ilanlarını -
10:10 - 10:15kadınların görme ihtimalinin
erkeklerden daha az olduğunu tespit etti. -
10:16 - 10:19Afro-Amerikan isimleri araştırırken
-
10:19 - 10:24alakası olmasa bile
sabıka geçmişi ile ilgili ilanları -
10:24 - 10:25öne sürmesi daha muhtemeldir.
-
10:27 - 10:30Araştırmacıların bazen ortaya çıkardığı
ancak bazen bizim bilmediğimiz -
10:30 - 10:34bu tür gizli ön yargıların ve
kara kutu algoritmalarının -
10:34 - 10:37hayat değiştiren sonuçları var.
-
10:38 - 10:42Wisconsin'de bir sanık,
altı yıl hapse mahkûm edildi, -
10:42 - 10:43polisten kaçtığı için.
-
10:45 - 10:46Belki bilmiyorsunuzdur,
-
10:46 - 10:50algoritmaların şartlı tahliye ve ceza
kararlarında kullanımı giderek artıyor. -
10:50 - 10:53Şunu öğrenmek istiyordu:
Bu sonuç nasıl hesaplanmıştı? -
10:54 - 10:55Ticari bir kara kutu.
-
10:55 - 11:00Şirket, halka açık duruşmada
işlemlerinin sorgulanmasını reddetmişti. -
11:00 - 11:06Kâr amacı gütmeyen araştırmacı kurum
ProPublica, bu algoritmayı -
11:06 - 11:08bulabildiği kamusal verilerle inceledi
-
11:08 - 11:10ve sonuçlarının ön yargılı olduğunu,
-
11:10 - 11:14öngörü gücününse kötü, olasılıktan
biraz iyi olduğunu -
11:14 - 11:18ve siyahi sanıkları haksız yere
beyaz sanıklardan iki kat fazla bir oranla -
11:18 - 11:22geleceğin suçluları olarak
etiketlediğini bulguladı. -
11:24 - 11:25Şu olayı göz önüne alın:
-
11:26 - 11:30Bu kadın, vaftiz kardeşini Florida'nın
Broward bölgesindeki bir okuldan -
11:30 - 11:32almaya geç kalmış,
-
11:33 - 11:35bir arkadaşıyla caddede ilerliyorlar.
-
11:35 - 11:39Verandada duran kilitsiz bir
çocuk bisikleti ve bir kaydırak görüyor -
11:39 - 11:41ve düşünmeden biniyorlar.
-
11:41 - 11:44Tam yola koyulacakken
kadının biri çıkıyor ve -
11:44 - 11:46"Hey! Bu benim çocuğumun
bisikleti!" diyor. -
11:46 - 11:49Bırakıp gidiyorlar, ancak tutuklanıyorlar.
-
11:49 - 11:53Haksızdı, aptalca davranmıştı,
ama henüz 18 yaşındaydı. -
11:53 - 11:55Çocukken ciddi olmayan bir iki suç işlemişti.
-
11:56 - 12:01Bu arada, adam da Home Depot'da
hırsızlık yapmaktan tutuklanmıştı. -
12:01 - 12:0485 dolar değerinde,
benzeri bir hafif suç. -
12:05 - 12:09Ama öncesinde iki silahlı
soygun sabıkası vardı. -
12:10 - 12:13Ancak algoritma, adamı değil
kadını yüksek riskli olarak işaretledi. -
12:15 - 12:19İki yıl sonra ProPublica kadının
tekrar suç işlemediğini tespit etti. -
12:19 - 12:21Sabıka puanıyla iş bulması çok zordu.
-
12:21 - 12:23Öte yandan adam tekrar suç işlemişti
-
12:23 - 12:27ve şimdi daha sonra işlediği bir suç
yüzünden sekiz yıllık hapis cezasında. -
12:28 - 12:31Belli ki kara kutularımızı
kontrol etmemiz -
12:31 - 12:34ve onlara böyle kontrolsüz güç
vermememiz gerekiyor. -
12:34 - 12:37(Alkışlar)
-
12:38 - 12:42Kontroller önemli ve etkili,
ancak tüm sorunlarımızı çözmüyorlar. -
12:42 - 12:45Facebook'un muhteşem
haber akışı algoritmasına bakın, -
12:45 - 12:50yani takip ettiğiniz tüm arkadaşlarınız
ve sayfalardan her şeyi sıralayıp -
12:50 - 12:52size ne göstereceğine
karar veren algoritma. -
12:53 - 12:55Başka bir bebek fotoğrafı görmeli misiniz?
-
12:55 - 12:56(Gülüşmeler)
-
12:56 - 12:59Bir tanıdıktan somurtkan bir not?
-
12:59 - 13:01Önemli ama üzücü haberler?
-
13:01 - 13:03Doğru bir cevap yok.
-
13:03 - 13:05Facebook meşgul olacaklarınızı
en uygun hâle getiriyor: -
13:06 - 13:07Beğeniler, paylaşımlar, yorumlar.
-
13:08 - 13:11Ağustos 2014'te,
-
13:11 - 13:14Missouri, Ferguson'da
Afro-Amerikan bir gencin -
13:14 - 13:18beyaz bir polis tarafından şüpheli
bir şekilde öldürülmesi sonrası -
13:18 - 13:20protestolar başladı.
-
13:20 - 13:22Protesto haberleri
-
13:22 - 13:25algoritmik olarak filtrelenmeyen
Twitter akışımda vardı -
13:25 - 13:27ancak Facebook'ta hiçbir yerde yoktu.
-
13:27 - 13:29Facebook arkadaşlarım ne hâldeydi?
-
13:29 - 13:31Facebook'un algoritmasını
devre dışı bıraktım, -
13:31 - 13:34ki bu çok zordur, çünkü Facebook
sizi algoritmanın -
13:34 - 13:36kontrolü altında tutmak ister.
-
13:36 - 13:39Baktım ki arkadaşlarım da
bunu konuşuyor. -
13:39 - 13:41Bunu bana göstermeyen
algoritmanın ta kendisiydi. -
13:41 - 13:44Bunu araştırdım ve
yaygın bir problem olduğunu gördüm. -
13:44 - 13:48Ferguson haberi algoritma dostu değildi.
-
13:48 - 13:49"Beğenilebilir" değildi.
-
13:49 - 13:51Kim "beğen"e tıklayacaktı?
-
13:52 - 13:54Yorum yapılması bile kolay değildi.
-
13:54 - 13:55Beğeniler ve yorumlar olmayınca
-
13:55 - 13:58algoritma bunu daha az insana
gösteriyor olmalıydı, -
13:58 - 14:00dolayısıyla görmüyorduk.
-
14:01 - 14:02Onun yerine, o hafta
-
14:02 - 14:04Facebook'un algoritması
şunu ön plana çıkardı: -
14:05 - 14:07ALS Buz Kovası Düellosu.
-
14:07 - 14:11İyi bir sebep; buzlu su dök,
bağış yap, tamam. -
14:11 - 14:12Fakat süper algoritma dostuydu.
-
14:13 - 14:16Makine bu kararı bizim için almıştı.
-
14:16 - 14:19Facebook tek kanal olsaydı
çok önemli ancak -
14:19 - 14:21etkili bir sohbet
-
14:21 - 14:24engellenmiş olabilirdi.
-
14:24 - 14:28Şimdi sonuç olarak bu sistemler
insan sistemlerine -
14:28 - 14:31benzememesi bakımından da
yanlış olabilir. -
14:31 - 14:34Watson'ı hatırlıyor musunuz?
IBM'in Riziko'da -
14:34 - 14:37insan rakiplerini yenilgiye uğratan
makine zekâsı sistemini? -
14:37 - 14:39Harika bir oyuncuydu.
-
14:39 - 14:42Ancak o zaman, Riziko'nun finalinde
Watson'a şu soru soruldu: -
14:43 - 14:46"En büyük havaalanı adını İkinci
Dünya Savaşı kahramanından alır, -
14:46 - 14:48ikincisi İkinci Dünya Savaşı savaşından.
-
14:48 - 14:49(Final Riziko müziği çalar)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52İki insan soruyu doğru anladı.
-
14:53 - 14:57Buna karşın Watson,
Birleşik Devletler şehri olarak -
14:57 - 14:59"Toronto" cevabını verdi.
-
15:00 - 15:02Bu etkileyici sistem
-
15:03 - 15:06bir insanın, ikinci sınıfa giden birinin
asla yapmayacağı bir hata yapmıştı. -
15:07 - 15:10Makine zekâmız
-
15:10 - 15:13insanların hata şekline
uymayan şekilde, -
15:13 - 15:16beklemediğimiz ve hazırlıksız olduğumuz
şekilde hata yapabilir. -
15:16 - 15:20Kalifiye biri için işe alınmamak
kötü olabilirdi, -
15:20 - 15:23fakat bu, bazı alt programlarda
bellek dolu dediği için oluyorsa -
15:23 - 15:25üç kat daha kötü olurdu.
-
15:25 - 15:27(Gülüşmeler)
-
15:27 - 15:29Mayıs 2010'da
-
15:29 - 15:33Wall Steet'te olan Wall Street'in
"satış" algoritmalarını -
15:33 - 15:36bir geri bildirim döngüsünün
körüklediği ani bir düşüş -
15:36 - 15:4136 dakika içinde trilyon dolarları sildi.
-
15:42 - 15:44Ölümcül otonom silahlar bağlamında
-
15:44 - 15:48"hata yapmak" ne demek bunu
düşünmek bile istemiyorum. -
15:50 - 15:54Evet, insanlar her zaman
ön yargıda bulunur. -
15:54 - 15:56Karar vericiler ve geçit deneticiler
-
15:56 - 15:59mahkemelerde, haberlerde, savaşlarda...
-
15:59 - 16:02Hata yaparlar; işte benim
asıl dikkat çekmek istediğim bu. -
16:02 - 16:06Bu zor sorulardan kaçamayız.
-
16:07 - 16:10Kendi sorumluluklarımızı
makinelere yaptıramayız. -
16:11 - 16:15(Alkışlar)
-
16:17 - 16:22Yapay zekâ bize "etikten kurtul geç"
kartı vermiyor. -
16:23 - 16:26Veri uzmanı Fred Benenson
buna matematiksel yıkama diyor. -
16:26 - 16:28Tam tersine ihtiyacımız var.
-
16:28 - 16:33Algoritmayı şüphe, gözlem ve
inceleme ile desteklemeliyiz. -
16:33 - 16:37Algoritmik izlenebilirlik, denetim ve
-
16:37 - 16:39anlamlı şeffaflığımız olduğundan
emin olmamız gerek. -
16:39 - 16:43Matematik ve programlamayı
karmaşık, değer yüklü -
16:43 - 16:46insani ilişkilere uygulamanın
-
16:46 - 16:48nesnellik getirmeyeceğini
kabul etmemiz gerekiyor; -
16:48 - 16:52aksine, insan ilişkilerinin karmaşıklığı
algoritmaları ele geçiriyor. -
16:52 - 16:56Tabii ki daha iyi kararlar almamız için
bilgisayar kullanabiliriz, -
16:56 - 16:58kullanmalıyız da.
-
16:58 - 17:03Ancak doğru karar vermek için,
ahlaki sorumluluk alıp -
17:03 - 17:06algoritmaları bu çerçevede
kullanmak zorundayız, -
17:06 - 17:11insan olarak birbirimize karşı olan
sorumluluklarımızı üstümüzden atıp -
17:11 - 17:14dış kaynaktan temin etmenin
bir yolu gibi görmemeliyiz. -
17:14 - 17:16Makine zekâsı işte böyledir.
-
17:16 - 17:20Bu demektir ki, insani değerlere ve etiğe
-
17:20 - 17:22hiç olmadığı kadar
sıkı sarılmamız gerekiyor. -
17:22 - 17:23Teşekkür ederim.
-
17:23 - 17:28(Alkışlar)
- Title:
- Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor
- Speaker:
- Zeynep Tüfekçi
- Description:
-
Makine zekâsı devrede ve bunu çoktandır öznel kararlar verirken bile kullanıyoruz. Fakat Yapay Zekâ'nın kompleks yapısı ve gelişimi, onu anlamayı hatta kontrol etmeyi bile zorlaştırıyor. Bu uyarı niteliğindeki konuşmasında tekno-sosyolojist Zeynep Tüfekçi, zeki makinelerin insanın yapmayacağı, ummadığımız ve hazırlıksız olduğumuz hatalara nasıl düşebildiğini açıklıyor. Tüfekçi, "Kendi sorumluluklarımızı makinelere atamayız, insani değerlere ve etiğe hiç olmadığı kadar bağlı kalmalıyız." diyor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Eren Gokce approved Turkish subtitles for Machine intelligence makes human morals more important | ||
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | ||
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | ||
Eren Gokce edited Turkish subtitles for Machine intelligence makes human morals more important | ||
Cihan Ekmekçi accepted Turkish subtitles for Machine intelligence makes human morals more important | ||
Cihan Ekmekçi edited Turkish subtitles for Machine intelligence makes human morals more important | ||
Cihan Ekmekçi edited Turkish subtitles for Machine intelligence makes human morals more important | ||
Selda Yener edited Turkish subtitles for Machine intelligence makes human morals more important |