Return to Video

Resimleri anlamaları için bilgisayarları nasıl eğitiyoruz

  • 0:02 - 0:05
    Müsadenizle size bazı şeyler göstermek
    istiyorum.
  • 0:06 - 0:10
    (Video) Kız: Tamam, burada yatağın üzerinde
    oturan bir kedi var.
  • 0:10 - 0:13
    Çocuk fili okşuyor.
  • 0:14 - 0:18
    Buradaki insanlar uçağa gidiyorlar.
  • 0:18 - 0:20
    Bu büyük bir uçak.
  • 0:21 - 0:23
    Fei-Fei Li: Üç yaşında
    küçük bir kız çocuğu
  • 0:23 - 0:27
    fotoğraflarda ne gördüğünü
    anlatıyor.
  • 0:27 - 0:30
    Henüz, dünya hakkında öğrenmesi
    gereken çok şey var
  • 0:30 - 0:35
    fakat çok önemli bir alanda
    uzman olmuş bile:
  • 0:35 - 0:38
    gördüklerini anlamlandırma.
  • 0:38 - 0:42
    Toplumumuz teknolojik olarak her
    zamankinden daha fazla ilerlemiş durumda.
  • 0:42 - 0:46
    İnsanları aya gönderiyoruz, bizimle
    konuşabilen ya da radyo kanallarını
  • 0:46 - 0:51
    sadece sevdiğimiz müzikleri çalması
    için düzenleyebilen telefonlar yapıyoruz.
  • 0:51 - 0:55
    En gelişmiş makinelerimiz
    ve bilgisayarlarımız
  • 0:55 - 0:58
    hâlâ bu özelliği elde etmeye çalışıyorlar.
  • 0:58 - 1:01
    Bugün, bilgisayar görme yetisi üzerine
    yapılan ileri düzeydeki
  • 1:01 - 1:05
    araştırmalarımızın işleyişi hakkında size
    bilgi vermek için buradayım.
  • 1:05 - 1:10
    Bilgisayar biliminde, en önde ve devrim niteliğinde
  • 1:10 - 1:13
    olan teknolojik gelişmelerden biri.
  • 1:13 - 1:17
    Evet, kendini sürebilen araçların
    prototiplerine sahibiz,
  • 1:17 - 1:21
    fakat akıllı görme yetisine sahip olmadan,
    üzerinden geçilebilecek buruşmuş bir
  • 1:21 - 1:25
    kağıt torba ile sakınılması gereken aynı
    boyuttaki bir kaya
  • 1:25 - 1:29
    arasındaki farkı söyleyebilmeleri
    mümkün değil.
  • 1:29 - 1:33
    Mükemmel çözünürlükte kameralar
    yapmamıza rağmen,
  • 1:33 - 1:36
    görebilmelerini sağlayamamıştık.
  • 1:36 - 1:40
    İnsansız hava araçları koca bir araziyi
    uçabilirler,
  • 1:40 - 1:42
    ama yağmur ormanlarındaki değişimleri
    izlememize yardımcı olabilecek
  • 1:42 - 1:45
    düzeyde yeterli bir görüş kabiliyetine
    sahip değiller.
  • 1:45 - 1:48
    Güvenlik kameraları her yerde,
  • 1:48 - 1:53
    fakat bir çocuk havuzda boğuluyorken
    bizi uyaramıyorlar.
  • 1:54 - 2:00
    Fotoğraf ve videolar gündelik hayatın
    bir parçası haline geliyorlar.
  • 2:00 - 2:04
    Herhangi bir insan veya bazı
    grupların görme umuduyla
  • 2:04 - 2:07
    hızlı bir şekilde çoğalıyorlar,
  • 2:07 - 2:11
    buradaki TED konuşmaları ile
    sizler ve ben de buna katkı sağlıyoruz.
  • 2:11 - 2:14
    En iyi yazılımımız hala bu devasa içeriği
  • 2:15 - 2:19
    anlamaya ve yönetmeye çabalıyor.
  • 2:20 - 2:24
    Başka bir anlamda,
    toplumun tamamı olarak
  • 2:25 - 2:27
    büyük bir görme kaybına sahibiz
  • 2:27 - 2:30
    çünkü en iyi makinelerimiz hala
    göremiyorlar.
  • 2:32 - 2:34
    "Neden bu kadar zor ki bu?"
    diye soracaksınız.
  • 2:34 - 2:37
    Kameralar burada da olduğu gibi
    fotoğraf çekebilirler,
  • 2:37 - 2:41
    ışığın iki boyutlu sayı dizilerine
    çevrilmiş hali ile,
  • 2:41 - 2:43
    ki bunlara pikseller diyoruz.
  • 2:43 - 2:45
    Fakat burada sadece ölü sayılar
    bulunmakta.
  • 2:45 - 2:48
    Kendi içlerinde herhangi bir anlam
    taşımıyorlar.
  • 2:48 - 2:52
    Nasıl ki duymak ile dinlemek aynı
    anlama gelmiyorsa
  • 2:52 - 2:57
    fotoğraf çekmek ile görmek de
    aynı şeyi ifade etmiyor.
  • 2:57 - 3:00
    Görmek derken ciddi manada "anlamayı"
    kastediyoruz.
  • 3:01 - 3:05
    Aslında, bu yetiye sahip olabilmemiz
  • 3:05 - 3:09
    tabiat ananın 540 milyon yılını aldı.
  • 3:09 - 3:11
    Bu çabanın çoğu, beynin görsel
  • 3:11 - 3:17
    işleme bölümünün gelişimine gitti
  • 3:17 - 3:19
    sadece gözlerin kendisine değil.
  • 3:19 - 3:22
    Yani görmek gözlerde başlıyor,
  • 3:22 - 3:26
    ama asıl olarak beynin bir bölümünde
    anlam kazanıyor.
  • 3:26 - 3:31
    15 sene önce, Caltech'deki doktorama
    başladığımda
  • 3:31 - 3:34
    ve sonra Stanford Görsel Laboratuvarını
    yönlendirdiğimde
  • 3:34 - 3:39
    mentorlerim, iş ortaklarım ve
    öğrencilerimle birlikte
  • 3:39 - 3:42
    bilgisayarlara görmeyi öğretmek için
    çalışıyorduk.
  • 3:42 - 3:46
    Araştırma alanımız bilgisayar görme yetisi
    ve makine öğrenimi olarak anılıyordu.
  • 3:46 - 3:50
    Yapay zeka bölümünün genel bir dalı
    olarak geçiyordu.
  • 3:51 - 3:56
    Nihayetinde, makinelere tıpkı bizim gibi
    görebilmelerini öğretmek istedik,
  • 3:56 - 4:02
    nesnelerin isimlendirilmesi, insanların
    tanımlanması, 3B geometrileri tahmin
  • 4:02 - 4:08
    ilişkileri anlama, duygular, olaylar
    ve şiddet.
  • 4:08 - 4:14
    Şu anda insanların, yerlerin ve
    eşyaların bütün hikayesini
  • 4:14 - 4:16
    gözler önüne serip beraber dokuyalım.
  • 4:17 - 4:23
    Bu amaca doğru atılacak ilk adım
    bilgisayara gördüğü şeyleri öğretmek,
  • 4:23 - 4:26
    sanal dünyanın yapı taşı bu.
  • 4:26 - 4:30
    Basit anlamda bu öğretme
    sürecini bi hayal edin,
  • 4:30 - 4:33
    bilgisayara belirli bir nesnenin
    ya da bir kedinin diyelim
  • 4:33 - 4:37
    deneme amaçlı resimlerini göstermek
    gibi
  • 4:37 - 4:41
    ve bu resimlerden öğrenilmiş bir model
    tasarlamayı.
  • 4:41 - 4:43
    Bu ne kadar zor olabilir ki?
  • 4:43 - 4:47
    Sonuç olarak, bir kedi sadece
    şekillerin ve renklerin bir derlemesi
  • 4:47 - 4:52
    ve bu ilk zamanlarda yaptığımız
    nesne modellemesi.
  • 4:52 - 4:55
    Algoritmasını sayısal bir dille
    bilgisayara öğretmemiz gerekiyordu
  • 4:55 - 4:59
    bu kedi yuvarak bir yüze,
    dolgun bir vücuda
  • 4:59 - 5:01
    iki noktada kulaklara ve uzun bir kuyruğa
    sahip
  • 5:01 - 5:02
    her şey yolunda gibi.
  • 5:03 - 5:05
    Peki, ya bu kedi?
  • 5:05 - 5:06
    (Gülüşmeler)
  • 5:06 - 5:08
    Hepsi iç içe.
  • 5:08 - 5:12
    Bu nesne için için farklı bir şekil
    ve farklı bir bakış açısı eklemeniz gerek.
  • 5:12 - 5:14
    Peki ya kediler gizlenirse?
  • 5:15 - 5:17
    Bu absürd kedilere ne demeli?
  • 5:19 - 5:22
    Şimdi ne demek istediğimi anladınız.
  • 5:22 - 5:25
    Evdeki kedi gibi basit bir şey için bile
  • 5:25 - 5:29
    sonsuz çeşitlilikte nesne modellemesi
    yapmak mümkün
  • 5:29 - 5:32
    ve bu sadece bir nesne.
  • 5:33 - 5:35
    Yaklaşık sekiz yıl önce,
  • 5:35 - 5:40
    oldukça basit ama yoğun bir gözlem
    fikrimi değiştirdi.
  • 5:41 - 5:44
    Hiç kimse bir çocuğa nasıl görebileceğini
    öğretmez,
  • 5:44 - 5:46
    özellikle de erken yaşlarda.
  • 5:46 - 5:51
    Gerçek dünya tecrübeleri ve örnekleriyle
    öğrenirler bunu.
  • 5:51 - 5:54
    Bir çocuğun gözlerini düşünecek olursanız
  • 5:54 - 5:57
    sanki bir çift biyolojik kameraymış gibi,
  • 5:57 - 6:01
    yaklaşık her 200 milisaniyede
    bir fotoğraf çekerler,
  • 6:01 - 6:04
    göz hareketinden oluşmuş ortalama
    bir zaman dilimi.
  • 6:04 - 6:10
    Yani üç yaşında bir çocuk, gerçek hayatta
    yüz milyonlarca
  • 6:10 - 6:11
    fotoğraf görmüş olacak.
  • 6:11 - 6:14
    Bu oldukça fazla deneme örneği.
  • 6:14 - 6:20
    Sadece daha iyi algoritmalara
    odaklanmak yerine,
  • 6:20 - 6:26
    sezilerim algoritmalara bir tür
    eğitici veri vermek üzerineydi,
  • 6:26 - 6:29
    tıpkı bir çocuğa sayıca ve kalitece
  • 6:29 - 6:33
    deneyimleri yoluyla verilmiş gibi.
  • 6:33 - 6:35
    Bunu anlayınca,
  • 6:35 - 6:38
    bir tür veri havuzuna
  • 6:38 - 6:42
    sahip olduğumuz resimlerden daha
    fazla, hatta binlerce kat daha fazla
  • 6:42 - 6:45
    ihtiyacımız olduğunu biliyorduk.
  • 6:45 - 6:49
    Princeton Üniversitesinden Prof. Kai Li
    ile birlikte
  • 6:49 - 6:54
    2007 senesinde ImageNet projesini
    başlattık.
  • 6:54 - 6:57
    Şanslıyız ki başımızın üzerine bir
    kamera alıp
  • 6:57 - 6:59
    yıllarca beklememize gerek kalmadı.
  • 6:59 - 7:01
    İnternete başvurduk.
  • 7:01 - 7:05
    İnsanların oluşturduğu en büyük
    resim definesi.
  • 7:05 - 7:08
    Yaklaşık bir milyar resim indirdik
  • 7:08 - 7:14
    ve crowdsourcing teknolojisini kullandık.
    Resimleri tanımlamada bize yardımcı olmada
  • 7:14 - 7:16
    Amazon Mechanical Turk platformu gibi.
  • 7:16 - 7:21
    ImageNet, Amazon Mechanical Turk
    çalışanlarına işveren en büyük
  • 7:21 - 7:24
    kurumlardan biri oldu.
  • 7:24 - 7:28
    Dünya genelinde 167 ülkeden
  • 7:28 - 7:32
    neredeyse 50,000 çalışan
  • 7:32 - 7:35
    yaklaşık bir milyar resmi
  • 7:36 - 7:40
    eleyip, sınıflandırma ve tanımlamada bize
    yardımcı oldu.
  • 7:41 - 7:43
    Bu çaba, erken gelişim dönemindeki
  • 7:43 - 7:47
    bir çocuğun algıladığı görüntülerin
    sadece belli bir bölümünü
  • 7:47 - 7:51
    elde edebilmemiz içindi.
  • 7:52 - 7:56
    Nihayet, bilgisayar algoritmalarını
    eğitmek için
  • 7:56 - 8:01
    big datanın kullanılması fikri
    şu anda mümkün hale geldi,
  • 8:01 - 8:05
    fakat 2007 senesine dönersek,
    bu mümkün değildi.
  • 8:05 - 8:09
    Bu yolculukta uzun bir süre tam
    anlamıyla kendi başımızaydık.
  • 8:09 - 8:14
    Samimi bazı arkadaşlarım kadrom için daha
    kullanışlı şeyler yapmamı tavsiye ettiler,
  • 8:14 - 8:18
    ve aynı zamanda araştırma fonu oluşturmak
    için durmaksızın çabalıyorduk.
  • 8:18 - 8:20
    Hatta, master öğrencilerime ImageNet fonu
  • 8:20 - 8:24
    için kuru temizleme mağazamı tekrar açma
    konusunda şaka yapıyordum.
  • 8:24 - 8:29
    Üniversite yıllarımda bu şekilde
    geçiniyordum.
  • 8:29 - 8:31
    Sonra devam ettik.
  • 8:31 - 8:35
    2009 senesinde, ImageNet projesi
  • 8:35 - 8:39
    her gün ingilizce kelimelerle 22,000
  • 8:39 - 8:44
    nesne ve eşya sınıfı ile
  • 8:44 - 8:47
    15 milyonluk bir resim veritabanına
    ulaştı.
  • 8:47 - 8:50
    Sayı ve kalite olarak,
  • 8:50 - 8:53
    emsalsiz bir ölçekti bu.
  • 8:53 - 8:56
    Örneğin, kedi kategorisinde,
  • 8:56 - 8:59
    görünüş ve poz
  • 8:59 - 9:03
    ile evcil ve yaban türlerinin tümüyle
  • 9:03 - 9:08
    62 binden fazla kedi bulunmakta.
  • 9:08 - 9:12
    Bunları ImageNet olarak toparladığımızdan
    heyecanlıydık
  • 9:12 - 9:16
    ve sonra bütün dünya araştırmalarında
    bunlardan faydalanılsın istedik,
  • 9:16 - 9:20
    bu yüzden TED fashion'da bütün veri
    havuzumuzu
  • 9:20 - 9:23
    global araştırma topluluklarına ücretsiz
    bir şekilde açtık.
  • 9:25 - 9:29
    (Alkış)
  • 9:29 - 9:34
    Artık, bilgisayarımızın beynini besleyecek
    veriye sahibiz,
  • 9:34 - 9:38
    algoritmaların kendilerine
    dönecek kadar da hazırız.
  • 9:38 - 9:43
    ImageNet projesinin sağladığı
    bilgi zenginliği, sonunda
  • 9:43 - 9:48
    "evrişimli sinirsel ağ" olarak ifade
    edilen makine öğrenme algoritmalarının
  • 9:48 - 9:50
    özel bir sınıfıyla mükemmel bir şekilde
    eşleşmişti,
  • 9:50 - 9:55
    öncülüğünü Kunihiko Fukushima,
    Geoff Hinton ve Yann LeCun'un yaptığı
  • 9:55 - 9:59
    1970 ve 80'lerin öncesindeki bir alan.
  • 9:59 - 10:05
    Beyinde meydana gelen milyarlarca
    yüksek bağlantılı sinirler gibi,
  • 10:05 - 10:08
    sinir ağının basit bir çalışma birimine
  • 10:08 - 10:11
    "nöron benzeri" düğümü deniyor.
  • 10:11 - 10:13
    Başka düğümlerden girdi alıyorlar
  • 10:13 - 10:16
    ve diğer düğümlere gönderiyorlar.
  • 10:16 - 10:21
    Dahası, bu yüzbinlerce hatta milyonlarca
    düğüm
  • 10:21 - 10:24
    hiyerarşik tabakalarla düzenleniyorlar
  • 10:24 - 10:27
    tıpkı beyin gibi.
  • 10:27 - 10:31
    Normal bir sinir ağında nesne tanıma
    modelimizi eğitmek için,
  • 10:31 - 10:35
    24 milyon düğüm,
  • 10:35 - 10:38
    140 milyon değişken,
  • 10:38 - 10:41
    ve 15 milyar bağlantı kullandık.
  • 10:41 - 10:43
    Bu muazzam bir modeldi.
  • 10:43 - 10:47
    ImageNet'den elde edilen büyük veri ile
  • 10:47 - 10:52
    oldukça muazzam bir modeli eğitmek için
    kullanılan modern CPU ve GPU'lar sayesinde
  • 10:52 - 10:55
    evrişimli sinirsel ağ
  • 10:55 - 10:58
    hiçbirimizin hayal edemeyeceği bir şekilde
    gelişti.
  • 10:58 - 11:01
    Nesne tanımlamada etkileyeci
    yeni sonuçlar üretmek için
  • 11:01 - 11:06
    başarılı bir mimari olmaya başladı.
  • 11:06 - 11:09
    Bu bilgisayarın bize söylediği,
  • 11:09 - 11:11
    bu fotoğrafta bir kedinin olduğu
  • 11:11 - 11:13
    ve kedinin nerede olduğu.
  • 11:13 - 11:15
    Elbette orada kedilerden daha fazlası var,
  • 11:15 - 11:18
    burada ise bilgisayar algoritmasının
    bize söylediği
  • 11:18 - 11:21
    resimde bir çocuk ile oyuncak bir ayının;
  • 11:21 - 11:25
    bir köpeğin, bir kişinin ve arkaplanda
    küçük bir uçurtmanın;
  • 11:25 - 11:28
    ya da çok karışık bir resimin
  • 11:28 - 11:33
    bir adam, bir kaykay, korkuluklar, lamba
    direği v.b. gibi şeyler olduğu.
  • 11:33 - 11:38
    Bazen, bilgisayar ne gördüğü hakkında emin
    olamayınca
  • 11:39 - 11:42
    çok fazla düşünmek yerine yeterince
  • 11:43 - 11:46
    mantıklı bir cevap vermesini öğrettik,
  • 11:46 - 11:48
    tıpkı bizim yapacağımız gibi
  • 11:48 - 11:53
    fakat başka zamanlarda bilgisayar
    algoritmamız bize dikkate değer şeyler
  • 11:53 - 11:55
    tam olarak nesnelerin ne olduğunu
  • 11:55 - 11:59
    marka, model ve üretim yılı gibi şeyleri
    söylüyor.
  • 11:59 - 12:04
    Bu algoritmayı Google Sokak Görüntüleme
    ile yüzlerce Amerika şehrinden
  • 12:04 - 12:07
    alınmış resimlere uyguladık
  • 12:07 - 12:10
    ve gerçekten ilginç şeyler öğrendik:
  • 12:10 - 12:14
    öncelikle, hepimizin bildiği gibi araç
  • 12:14 - 12:17
    fiyatlarının aile gelir düzeyiyle
  • 12:17 - 12:19
    doğrudan ilişkili olduğunu teyit etti
  • 12:19 - 12:24
    fakat ilginçtir ki, araç fiyatları aynı
    zamanda
  • 12:24 - 12:26
    şehirdeki suç oranları
  • 12:27 - 12:31
    ya da posta kodlarından oy verme alanları
    ile de bağlantılı.
  • 12:32 - 12:34
    Peki biraz düşünün, bu oldu mu?
  • 12:34 - 12:39
    Bilgisayar henüz insan kabiliyetlerine
    erişebildi mi hatta daha üstün geldi mi ?
  • 12:39 - 12:42
    Hayır, o kadar hızlı değil.
  • 12:42 - 12:46
    Şu ana dek, sadece bilgisayara nesneleri
    görmesini öğrettik.
  • 12:46 - 12:51
    Bu küçük bir çocuğun bir kaç kelime
    söylemesini öğrenmesi gibi bir sey.
  • 12:51 - 12:54
    İnanılmaz bir başarıdır bu,
  • 12:54 - 12:56
    fakat bu sadece ilk adımdır.
  • 12:56 - 13:00
    Sonrasında, başka bir gelişimsel dönüm
    noktası açığa çıkar,
  • 13:00 - 13:03
    ve çocuk cümlelerle iletişim kurmaya
    başlar.
  • 13:03 - 13:08
    Yani, "bu resimdeki bir kedidir"
    demek yerine
  • 13:08 - 13:13
    dinlediğiniz gibi küçük kız bize "bu
    yatağın üzerinde uzanan bir kedidir" diyor
  • 13:13 - 13:18
    Bilgisayarı resimleri görmek ve cümle
    kurmak için eğitmek,
  • 13:18 - 13:22
    big data ile makine öğrenim algoritmasının
    beraberliği için
  • 13:22 - 13:25
    bir adım daha atılmalı.
  • 13:25 - 13:29
    Şimdilik, bilgisayarın her resimden
  • 13:29 - 13:32
    insanlar tarafından oluşturulmuş kadar
  • 13:32 - 13:35
    iyi cümleler öğrenmesi gerek.
  • 13:35 - 13:39
    Beynin görsellik ve dili bütünleştirdiği
    gibi,
  • 13:39 - 13:44
    biz de ufak görsel parçacıklar
    gibi görsel şeylerle
  • 13:44 - 13:46
    cümlelerdeki kelime ve ifadeleri
  • 13:47 - 13:50
    birleştirecek bir model geliştirdik.
  • 13:50 - 13:53
    Yaklaşık dört ay önce,
  • 13:53 - 13:56
    sonunda bütün bunları bağladık
  • 13:56 - 13:59
    ve bir fotoğrafı ilk kez gördüğünde
  • 13:59 - 14:03
    bir insan gibi cümle kurabilme
    yeteneğine sahip
  • 14:03 - 14:07
    ilk bilgisayar görme modelinden
    bir tane yaptık.
  • 14:07 - 14:12
    Şu anda, bilgisayarın konuşmamızın başında
  • 14:12 - 14:14
    küçük kızın gördüğü resimleri gördüğünde
  • 14:14 - 14:17
    neler söylediğini size göstermeye hazırım.
  • 14:20 - 14:23
    (Video) Bilgisayar:
    Bir adam filin yanında duruyor.
  • 14:24 - 14:28
    Geniş bir uçak, uçak pistinin üstünde
    oturuyor.
  • 14:29 - 14:33
    FFL: Tabii, hala sıkı bir şekilde
    algoritmamızı geliştirmek için çalışıyoruz
  • 14:33 - 14:36
    ve henüz öğreneceği çok sey var.
  • 14:36 - 14:38
    (Alkış)
  • 14:40 - 14:43
    Bilgisayar henüz hatalar yapmakta.
  • 14:43 - 14:46
    Bilgisayar: Bir kedi battaniyenin içinde
    yatakta uzanıyor.
  • 14:46 - 14:49
    FFL: Tabii, oldukça fazla kedi
    gördüğünden
  • 14:49 - 14:52
    herşeyin kediye benzeyebileceğini
    düşünüyor.
  • 14:53 - 14:56
    Bilgisayar: Genç erkek bir beysbol
    sopasını tutuyor.
  • 14:56 - 14:58
    (Gülüşmeler)
  • 14:58 - 15:03
    FFL: Ya da, henüz bir diş fırçası
    görmemişse, beysbol sopasıyla karıştırıyor
  • 15:03 - 15:07
    Bilgisayar: Bir adam binanın kenarından
    atını sokak aşağı sürüyor.
  • 15:07 - 15:09
    (Gülüşmeler)
  • 15:09 - 15:12
    FFL: Henüz bilgisayarlara Sanat 101
    dersini öğretmedik.
  • 15:14 - 15:17
    Bilgisayar: Bir zebra otlukların içinde
    duruyor.
  • 15:17 - 15:20
    FFL: Ve henüz doğanın büyüleci güzelliğini
  • 15:20 - 15:22
    takdir etmeyi bizim gibi öğrenmedi.
  • 15:22 - 15:25
    Uzun bir yolculuktu.
  • 15:25 - 15:30
    Sıfırdan üç yaşına getirmek oldukça zordu.
  • 15:30 - 15:35
    Asıl zor olan üç yaşından on üç yaş ve
    daha ötesine götürebilmek.
  • 15:35 - 15:39
    Size bu resmi tekrar hatırlatmak istiyorum,
    çocuk ve kekin olduğu.
  • 15:39 - 15:44
    Şu ana dek, bilgisayara nesneleri
    görebilmesini
  • 15:44 - 15:48
    hatta gördüğü resimden küçük bir hikaye
    anlatmasını bile öğrettik.
  • 15:48 - 15:52
    Bilgisayar: Biri yaş pastanın olduğu
    masada oturuyor.
  • 15:52 - 15:55
    FFL: Fakat bu resimde sadece bir kişi ve
    pastadan
  • 15:55 - 15:56
    daha fazlası var.
  • 15:56 - 16:01
    Bilgisayarın göremediği şey,
    onun sadece Paskalya süresince
  • 16:01 - 16:04
    servis edilen özel bir İtalyan pastası
    olduğu.
  • 16:04 - 16:08
    Çocuk, babası tarafından Sidney gezisinden
    sonra kendisine hediye edilen
  • 16:08 - 16:11
    en sevdiği tişörtünü giyiyor,
  • 16:11 - 16:15
    hepimiz onun nasıl mutlu olduğunu
  • 16:15 - 16:18
    ve şu anda kafasından geçenleri
    söyleyebiliriz.
  • 16:19 - 16:22
    Bu benim oğlum Leo.
  • 16:22 - 16:25
    Görsel zeka araştırmalarımda,
  • 16:25 - 16:27
    durmaksızın Leo'yu
  • 16:27 - 16:30
    ve içinde yaşayacağı geleceği düşünüyorum.
  • 16:30 - 16:32
    Makineler görebildiğinde,
  • 16:32 - 16:37
    doktor ve hemşireler, tanı koymak ve
    hastalarla ilgilenmek için
  • 16:37 - 16:41
    ek olarak yorulmayan
    göz çiftlerine sahip olacaklar.
  • 16:41 - 16:45
    Arabalar yollarda daha güvenli
    daha akıllı bir şekilde gidecek.
  • 16:45 - 16:48
    Robotlar, sadece insanlar değil,
  • 16:48 - 16:53
    enkaz bölgelerinde tutsak ve yaralıları
    kurtarmada bizimle göğüs gerecekler.
  • 16:54 - 16:58
    Yeni tür, daha iyi malzemeler bulacak
  • 16:58 - 17:02
    ve makinelerin yardımıyla, görünmeyen
    sınırları keşfedeceğiz.
  • 17:03 - 17:07
    Azar azar, makinelere görme yetisini
    veriyoruz.
  • 17:07 - 17:10
    Önce, biz onlara görmeyi öğretiyoruz.
  • 17:10 - 17:13
    Sonra, onlar daha iyi görebilmemiz için
    bize yardım ediyor.
  • 17:13 - 17:17
    Öncelikle, dünyamızı keşfetmek
    ve düşünmek için gözlerimiz
  • 17:17 - 17:20
    sadece insan gözleri olmayacak.
  • 17:20 - 17:23
    Makineleri sadece zekaları için
    kullanmıyor,
  • 17:23 - 17:30
    aynı zamanda hayal bile edemeyeceğimiz bir
    şekilde onlarla iş birliği yapıyoruz.
  • 17:30 - 17:32
    Benim araştırmam bu:
  • 17:32 - 17:34
    bilgisayarlara görsel zekayı vermek
  • 17:34 - 17:40
    ve Leo için, dünya için daha iyi bir
    gelecek oluşturmak.
  • 17:40 - 17:41
    Teşekkürler.
  • 17:41 - 17:45
    (Alkış)
Title:
Resimleri anlamaları için bilgisayarları nasıl eğitiyoruz
Speaker:
Fei-Fei Li
Description:

Küçük bir çocuk resimlere baktığında, onları kolaylıkla tanımlayabilir : " Kedi", "kitap", "sandalye". Bugün, bilgisayarlar da bunu yapacak kadar akıllı hale geliyor. Peki ya sonrasında? Bu heyecan verici konuşmada, bilgisayar algılama uzmanı Fei-Fei Li teknolojinin geldiği bu başarılı aşamayı - 15 milyonluk bir fotoğraf veri tabanı ile çalışma ekibinin bir bilgisayarı resimleri algılaması için nasıl "eğittiğini" - açıklıyor ve ileriye dönük bazı sezilerinden bahsediyor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:58

Turkish subtitles

Revisions