Return to Video

De wonderbaarlijke en schrikwekkende implicaties van computers die kunnen leren | Jeremy Howard | TEDxBrussels

  • 0:09 - 0:13
    Als je vroeger een computer
    iets nieuws wilde laten doen,
  • 0:13 - 0:15
    moest je hem programmeren.
  • 0:15 - 0:19
    Voor wie het nooit zelf heeft gedaan:
  • 0:19 - 0:22
    programmeren vereist dat je
    tot in het allerpijnlijkste detail
  • 0:22 - 0:25
    elke stap uitschrijft
    die je wilt dat de computer doet
  • 0:25 - 0:27
    om je doel te bereiken.
  • 0:28 - 0:31
    Als je iets wil doen, waarvan
    je zelf niet weet hoe je het moet doen,
  • 0:31 - 0:33
    dan is dit een grote uitdaging.
  • 0:33 - 0:36
    Dat was de uitdaging
    voor deze man, Arthur Samuel.
  • 0:36 - 0:41
    In 1956 wilde hij
    deze computer zover krijgen
  • 0:41 - 0:43
    dat hij Samuel kon verslaan
    bij het dammen.
  • 0:43 - 0:46
    Kun je in een programma
    tot in het kleinste detail beschrijven
  • 0:46 - 0:49
    hoe het beter moet dammen dan jijzelf?
  • 0:49 - 0:50
    Hij kwam met een idee:
  • 0:50 - 0:54
    hij liet de computer
    duizenden keren tegen zichzelf spelen
  • 0:54 - 0:57
    en daarbij leren hoe te dammen.
  • 0:57 - 1:01
    Het werkte en in 1962
    versloeg deze computer
  • 1:01 - 1:03
    de kampioen van de staat Connecticut.
  • 1:04 - 1:08
    Zo werd Arthur Samuel
    de vader van het ‘machinaal leren’.
  • 1:08 - 1:09
    Ik heb veel aan hem te danken,
  • 1:09 - 1:11
    want ik doe aan machinaal leren.
  • 1:11 - 1:13
    Ik was voorzitter van Kaggle,
  • 1:13 - 1:16
    een gemeenschap van meer dan
    200.000 machinaal-lerenbeoefenaars.
  • 1:16 - 1:19
    Kaggle organiseert wedstrijden
  • 1:19 - 1:23
    om eerder onopgeloste problemen
    op te lossen.
  • 1:23 - 1:25
    Dat lukte al honderden keren.
  • 1:26 - 1:29
    Daardoor kon ik heel wat te weten komen
  • 1:29 - 1:32
    over wat machinaal leren kon doen
    in het verleden, vandaag,
  • 1:32 - 1:35
    en wat het zou kunnen doen in de toekomst.
  • 1:35 - 1:40
    Misschien is Google het eerste grote
    commerciële succes van machinaal leren.
  • 1:40 - 1:43
    Google liet zien dat het mogelijk is
    om informatie te vinden
  • 1:43 - 1:45
    met een computeralgoritme.
  • 1:45 - 1:47
    Dit algoritme is gebaseerd
    op machinaal leren.
  • 1:47 - 1:51
    Sinds die tijd heeft machinaal leren
    heel wat commerciële successen geboekt.
  • 1:51 - 1:54
    Bedrijven als Amazon en Netflix
    gebruiken machinaal leren
  • 1:54 - 1:57
    om producten te suggereren
    die je misschien wilt kopen,
  • 1:57 - 1:58
    of films die je wilt zien.
  • 1:58 - 2:00
    Soms is het bijna griezelig.
  • 2:00 - 2:02
    Bedrijven zoals LinkedIn en Facebook
  • 2:02 - 2:04
    kunnen je soms vertellen
    wie je vrienden kunnen zijn
  • 2:04 - 2:07
    en je hebt geen idee
    hoe dat in zijn werk ging.
  • 2:07 - 2:09
    Dat is de kracht van machinaal leren.
  • 2:09 - 2:13
    Deze algoritmen hebben dit geleerd
    door gegevens
  • 2:13 - 2:16
    in plaats van door handmatig programmeren.
  • 2:16 - 2:19
    Daarom kon ook Watson van IBM
  • 2:19 - 2:22
    de twee wereldkampioenen
    bij "Jeopardy" verslaan
  • 2:22 - 2:25
    door heel subtiele en complexe vragen
    als deze te beantwoorden.
  • 2:25 - 2:28
    ["De Leeuw van Nimrod
    verdween uit dit museum."]
  • 2:28 - 2:32
    Ook daarom kunnen we nu
    de eerste zelfsturende auto's zien.
  • 2:32 - 2:36
    Het verschil zien
    tussen een boom en een voetganger
  • 2:36 - 2:37
    is dan nogal belangrijk.
  • 2:37 - 2:40
    We weten niet hoe we zulke programma's
    handmatig moeten schrijven,
  • 2:40 - 2:43
    maar met machinaal leren kan het.
  • 2:43 - 2:46
    Deze auto heeft er al meer
    dan een miljoen kilometer opzitten
  • 2:46 - 2:49
    zonder ongelukken op gewone wegen.
  • 2:49 - 2:53
    We weten nu dat computers kunnen leren,
  • 2:53 - 2:55
    en dat computers dingen leren doen
  • 2:55 - 2:59
    waarvan we eigenlijk soms niet weten
    hoe we ze zelf moeten doen,
  • 2:59 - 3:01
    of kunnen ze misschien beter doen dan wij.
  • 3:01 - 3:03
    Een van de meest
    verbazingwekkende voorbeelden
  • 3:03 - 3:05
    van machinaal leren die ik heb gezien,
  • 3:05 - 3:08
    zag ik bij een project
    dat ik op Kaggle leidde.
  • 3:08 - 3:12
    Een team geleid door Geoffrey Hinton
    van de Universiteit van Toronto
  • 3:12 - 3:16
    won een wedstrijd in het geautomatiseerd
    ontdekken van geneesmiddelen.
  • 3:16 - 3:19
    Het was al buitengewoon dat ze
    alle algoritmen van Merck
  • 3:19 - 3:22
    en de internationale academische
    gemeenschap versloegen,
  • 3:22 - 3:25
    maar daarbij had niemand in het team
    een achtergrond
  • 3:25 - 3:27
    in scheikunde, biologie
    of levenswetenschappen,
  • 3:27 - 3:29
    en ze deden het in twee weken.
  • 3:29 - 3:31
    Hoe deden ze het?
  • 3:31 - 3:34
    Ze gebruikten een buitengewoon algoritme:
    ‘deep learning’.
  • 3:34 - 3:37
    Het was zo belangrijk,
    dat het succes een paar weken later
  • 3:37 - 3:40
    in The New York Times
    als voorpagina-artikel verscheen.
  • 3:40 - 3:43
    Dit is Geoffrey Hinton hier links.
  • 3:43 - 3:47
    Deep learning is een algoritme
    geïnspireerd op het menselijk brein.
  • 3:47 - 3:49
    Daardoor is het een algoritme
  • 3:49 - 3:52
    zonder theoretische beperkingen
    op wat het kan doen.
  • 3:52 - 3:55
    Hoe meer gegevens
    en rekentijd je het geeft,
  • 3:55 - 3:56
    hoe beter het wordt.
  • 3:56 - 3:59
    De New York Times
    toonde in dit artikel ook
  • 3:59 - 4:01
    een ander uitzonderlijk resultaat
    van deep learning.
  • 4:01 - 4:03
    Ik ga het je nu laten zien.
  • 4:04 - 4:09
    Het toont aan dat computers
    kunnen luisteren en begrijpen.
  • 4:10 - 4:12
    (Video) Richard Rashid: De laatste stap
  • 4:12 - 4:15
    die ik in dit proces wil kunnen zetten,
  • 4:15 - 4:19
    is om je daadwerkelijk
    in het Chinees aan te spreken.
  • 4:20 - 4:22
    Het belangrijkste is
  • 4:22 - 4:27
    dat we een grote hoeveelheid informatie
    van vele Chinese sprekers konden vergaren
  • 4:27 - 4:30
    en een tekst-naar-spraaksysteem produceren
  • 4:30 - 4:35
    dat Chinese tekst omzet
    naar Chinese spreektaal.
  • 4:35 - 4:39
    Daarna hebben we een paar uren
    mijn eigen stem opgenomen
  • 4:39 - 4:43
    en ze gebruikt om het standaard
    tekst-naar-spraaksysteem te moduleren
  • 4:43 - 4:45
    zodat het zou klinken zoals ik.
  • 4:45 - 4:48
    Het resultaat is niet perfect.
  • 4:48 - 4:51
    Er zitten nogal wat fouten in.
  • 4:51 - 4:53
    (In het Chinees)
  • 4:53 - 4:56
    (Applaus)
  • 4:58 - 5:02
    Er is nog veel werk te doen op dit gebied.
  • 5:02 - 5:06
    (In het Chinees)
  • 5:06 - 5:09
    (Applaus)
  • 5:10 - 5:14
    Jeremy Howard: Dat was op een conferentie
    over machinaal leren in China.
  • 5:14 - 5:16
    Op wetenschappelijke congressen
  • 5:16 - 5:18
    hoor je niet vaak spontaan applaus,
  • 5:18 - 5:22
    maar natuurlijk wel eens
    bij TEDx conferenties, het mag.
  • 5:22 - 5:24
    Alles wat je zag,
    gebeurde met deep learning.
  • 5:24 - 5:26
    (Applaus) Bedankt.
  • 5:26 - 5:28
    De transcriptie in het Engels
    was deep learning.
  • 5:28 - 5:32
    Ook de vertaling naar Chinees en de tekst
    in de rechterbovenhoek is deep learning.
  • 5:32 - 5:35
    De constructie van de stem,
    weer deep learning.
  • 5:35 - 5:38
    Deep learning is buitengewoon.
  • 5:38 - 5:41
    Een enkel algoritme
    lijkt bijna alles te kunnen.
  • 5:41 - 5:44
    Een jaar eerder ontdekte ik
    dat het systeem ook had leren zien.
  • 5:44 - 5:47
    Bij een minder bekende wedstrijd
    in Duitsland,
  • 5:47 - 5:50
    de German Traffic Sign
    Recognition Benchmark,
  • 5:50 - 5:53
    had deep learning verkeersborden
    zoals deze leren herkennen.
  • 5:53 - 5:56
    Niet alleen kon het verkeersborden
    beter herkennen dan enig ander algoritme,
  • 5:56 - 6:01
    maar het scorebord liet zien dat het
    ongeveer tweemaal beter was dan mensen.
  • 6:01 - 6:04
    In 2011 hadden we dus het eerste voorbeeld
  • 6:04 - 6:06
    van computers
    die beter kunnen zien dan mensen.
  • 6:06 - 6:08
    Sinds die tijd is er veel gebeurd.
  • 6:08 - 6:12
    In 2012 kondigde Google aan
    dat ze een deep learning-algoritme
  • 6:12 - 6:13
    YouTube-video’s lieten bekijken.
  • 6:13 - 6:17
    Het verwerkte een maand lang
    de gegevens op 16.000 computers,
  • 6:17 - 6:21
    en de computer leerde zelfstandig
    over begrippen als mensen en katten
  • 6:21 - 6:23
    gewoon door naar de video's te kijken.
  • 6:23 - 6:25
    Net als de manier waarop mensen leren.
  • 6:25 - 6:28
    Mensen leren niet
    doordat hen wordt verteld wat ze zien,
  • 6:28 - 6:31
    maar door zichzelf deze dingen te leren.
  • 6:31 - 6:35
    Ook in 2012, won Geoffrey Hinton,
    die we eerder zagen,
  • 6:35 - 6:38
    de zeer populaire ImageNet-wedstrijd,
  • 6:38 - 6:42
    door te kijken naar anderhalf miljoen
    afbeeldingen om erachter te komen
  • 6:42 - 6:43
    wat ze voorstelden.
  • 6:43 - 6:47
    Vanaf 2014 zitten we
    op een zes procent foutenpercentage
  • 6:47 - 6:48
    bij beeldherkenning.
  • 6:48 - 6:50
    Dit is alweer beter dan mensen.
  • 6:50 - 6:54
    Machines kunnen dit buitengewoon goed
  • 6:54 - 6:56
    en het wordt nu gebruikt in de industrie.
  • 6:56 - 6:59
    Vorig jaar kondigde
    Google bijvoorbeeld aan
  • 6:59 - 7:04
    dat ze elke locatie in Frankrijk
    in twee uur tijd in kaart hadden gebracht,
  • 7:04 - 7:07
    door Street View-beelden
  • 7:07 - 7:11
    met een deep learning-algoritme
    te herkennen en de huisnummers te lezen.
  • 7:11 - 7:14
    Stel je voor hoe lang
    het anders zou hebben geduurd:
  • 7:14 - 7:17
    tientallen mensen, vele jaren.
  • 7:17 - 7:19
    Dit gebeurt ook in China.
  • 7:19 - 7:23
    Baidu is een soort Chinese Google,
    denk ik,
  • 7:23 - 7:26
    en wat je hier ziet in de linkerbovenhoek,
  • 7:26 - 7:28
    is een voorbeeld van een foto
    die ik heb geüpload
  • 7:28 - 7:30
    naar Baidu’s deep learning-systeem.
  • 7:30 - 7:34
    Daaronder kun je zien dat het systeem
    heeft begrepen wat dat beeld is
  • 7:34 - 7:35
    en gelijkaardige beelden vond.
  • 7:35 - 7:38
    De gelijkaardige beelden
    hebben gelijkaardige achtergronden,
  • 7:38 - 7:40
    dezelfde richtingen van gezichten,
  • 7:40 - 7:42
    sommige zelfs met hun tong uit.
  • 7:42 - 7:45
    Dit is niet zomaar wat kijken
    naar de tekst van een webpagina.
  • 7:45 - 7:47
    Ik uploadde slechts een beeld.
  • 7:47 - 7:50
    Dus hebben we nu computers
    die echt begrijpen wat ze zien
  • 7:50 - 7:52
    en derhalve databases
  • 7:52 - 7:55
    van honderden miljoenen beelden
    in real time doorzoeken.
  • 7:55 - 7:59
    Wat betekent het nu
    dat computers kunnen zien?
  • 7:59 - 8:01
    Computers kunnen niet alleen maar zien.
  • 8:01 - 8:03
    Deep learning doet meer.
  • 8:03 - 8:06
    Complexe, genuanceerde zinnen zoals deze
  • 8:06 - 8:08
    zijn nu begrijpelijk
    met deep learning-algoritmen.
  • 8:08 - 8:10
    Zoals je hier kunt zien,
  • 8:10 - 8:12
    heeft dit systeem van Stanford
    met de rode stip bovenaan
  • 8:12 - 8:16
    uitgeknobbeld dat deze zin
    een negatief sentiment weergeeft.
  • 8:16 - 8:20
    Deep learning komt in de buurt
    van menselijke prestaties
  • 8:20 - 8:25
    bij het begrijpen waar zinnen over gaan
    en wat ze zeggen over die dingen.
  • 8:25 - 8:28
    Ook is deep learning gebruikt
    om Chinees te lezen,
  • 8:28 - 8:31
    weer op ongeveer het niveau
    van Chinese moedertaalsprekers.
  • 8:31 - 8:33
    Dit algoritme werd
    in Zwitserland ontwikkeld
  • 8:33 - 8:36
    door mensen die geen van allen
    Chinees spreken of begrijpen.
  • 8:36 - 8:38
    Zoals ik al zei, deep learning
  • 8:38 - 8:41
    is zowat het beste systeem
    ter wereld hiervoor,
  • 8:41 - 8:46
    zelfs in vergelijking
    met aangeboren menselijk begrip.
  • 8:46 - 8:49
    Dit is een systeem dat we
    op mijn bedrijf hebben ontwikkeld
  • 8:49 - 8:51
    door dit allemaal te combineren.
  • 8:51 - 8:53
    Dit zijn foto’s zonder bijhorende tekst,
  • 8:53 - 8:56
    en terwijl ik hier zinnen typ,
  • 8:56 - 8:59
    begrijpt het deze foto’s in real time,
  • 8:59 - 9:00
    zoekt uit waarover ze gaan
  • 9:00 - 9:03
    en vindt foto’s die lijken op
    de tekst die ik schrijf.
  • 9:03 - 9:08
    Zoals jullie kunnen zien, begrijpt het
    mijn zinnen en deze foto's echt.
  • 9:08 - 9:11
    Iets dergelijks ken je van Google,
  • 9:11 - 9:14
    waar je woorden kunt intypen
    en het je afbeeldingen toont,
  • 9:14 - 9:17
    maar eigenlijk doorzoekt dat
    de webpagina op tekst.
  • 9:17 - 9:20
    Dat is heel wat anders dan
    de afbeeldingen werkelijk begrijpen.
  • 9:20 - 9:23
    Dit kunnen computers alleen nog maar
  • 9:23 - 9:25
    sinds de laatste paar maanden.
  • 9:26 - 9:30
    Computers kunnen dus niet alleen zien,
    maar ook lezen,
  • 9:30 - 9:33
    en, zoals we hebben aangetoond,
    ook begrijpen wat ze horen.
  • 9:33 - 9:38
    Misschien niet zo verwonderlijk
    dat ik je vertel dat ze kunnen schrijven.
  • 9:38 - 9:42
    Deze tekst genereerde ik gisteren
    met een deep learning-algoritme.
  • 9:42 - 9:46
    En hier een stukje tekst
    dat een algoritme van Stanford genereerde.
  • 9:46 - 9:48
    Elk van deze zinnen werd gegenereerd
  • 9:48 - 9:52
    door een deep learning-algoritme
    om elk van deze foto's te beschrijven.
  • 9:52 - 9:57
    Dit algoritme had nog nooit een man
    in een zwart shirt gitaar zien spelen.
  • 9:57 - 9:59
    Het had al apart een man, zwart
  • 9:59 - 10:00
    en een gitaar gezien,
  • 10:00 - 10:05
    maar genereerde onafhankelijk
    van dit beeld de nieuwe beschrijving.
  • 10:05 - 10:07
    We zijn nog niet zover
    als menselijke prestaties,
  • 10:07 - 10:08
    maar we komen in de buurt.
  • 10:08 - 10:12
    Bij tests geven mensen
    één op de vier keer de voorkeur
  • 10:12 - 10:14
    aan het bijschrift van de computer.
  • 10:14 - 10:16
    Dit systeem is nog maar twee weken oud,
  • 10:16 - 10:18
    dus waarschijnlijk
    zal in de loop van volgend jaar,
  • 10:18 - 10:22
    het computer-algoritme
    het beter doen dan mensen.
  • 10:22 - 10:25
    Computers kunnen dus ook schrijven.
  • 10:25 - 10:29
    Dit alles tezamen leidt
    tot zeer interessante mogelijkheden.
  • 10:29 - 10:32
    In de geneeskunde heeft
    een team in Boston aangekondigd
  • 10:32 - 10:36
    tientallen nieuwe klinisch relevante
    eigenschappen van tumoren
  • 10:36 - 10:40
    te hebben ontdekt, wat artsen helpt bij
    het maken van prognoses voor kanker.
  • 10:41 - 10:44
    Evenzo maakte in Stanford een groep bekend
  • 10:44 - 10:47
    dat ze, kijkend naar
    weefsels onder vergroting,
  • 10:47 - 10:50
    een op machinaal-leren gebaseerd systeem
    hebben ontwikkeld
  • 10:50 - 10:52
    dat beter was dan menselijke pathologen
  • 10:52 - 10:57
    in het voorspellen van overlevingskansen
    voor kankerpatiënten.
  • 10:57 - 11:00
    In beide gevallen werden niet alleen
    de voorspellingen nauwkeuriger,
  • 11:00 - 11:02
    maar ze genereerden
    nieuwe inzichtelijke wetenschap.
  • 11:02 - 11:03
    Bij de radiologie
  • 11:03 - 11:07
    waren dat nieuwe klinische indicatoren
    die mensen kunnen begrijpen.
  • 11:07 - 11:09
    Bij de pathologie
  • 11:09 - 11:13
    ontdekte het computersysteem
    dat de cellen rond de kanker
  • 11:13 - 11:17
    even belangrijk zijn
    als de kankercellen zelf
  • 11:17 - 11:18
    bij het maken van een diagnose.
  • 11:18 - 11:24
    Dit is het tegenovergestelde van wat
    pathologen decennialang hadden geleerd.
  • 11:24 - 11:27
    In beide gevallen
    werden systemen ontwikkeld
  • 11:27 - 11:31
    door een combinatie van medische experts
    en machinaal-lerenexperts,
  • 11:31 - 11:33
    maar dat was vorig jaar,
    nu zijn we verder.
  • 11:33 - 11:37
    Dit is een voorbeeld van identificatie
    van carcinomateuze gebieden
  • 11:37 - 11:39
    van menselijk weefsel
    onder een microscoop.
  • 11:39 - 11:42
    Het systeem dat hier wordt getoond,
  • 11:42 - 11:44
    kan deze doelgebieden
    preciezer identificeren
  • 11:44 - 11:47
    of ongeveer net zo precies
    als menselijke pathologen, maar werd
  • 11:47 - 11:50
    geheel ontwikkeld met deep learning,
    zonder medische expertise
  • 11:50 - 11:53
    door mensen zonder achtergrond
    op dat gebied.
  • 11:54 - 11:56
    Evenzo bij deze neuronen-segmentatie.
  • 11:56 - 11:58
    We kunnen nu neuronen ongeveer
  • 11:58 - 12:00
    net zo nauwkeurig onderscheiden
    als mensen het kunnen,
  • 12:00 - 12:03
    maar dit systeem
    is ontwikkeld met deep learning
  • 12:03 - 12:06
    met mensen zonder eerdere achtergrond
    in de geneeskunde.
  • 12:06 - 12:09
    Ikzelf, als iemand zonder
    eerdere achtergrond in de geneeskunde,
  • 12:09 - 12:13
    lijk helemaal gekwalificeerd te zijn om
    een nieuw medisch bedrijf op te starten,
  • 12:13 - 12:15
    wat ik dan ook deed.
  • 12:15 - 12:17
    Ik was doodsbang om het te doen,
  • 12:17 - 12:20
    maar de theorie leek te suggereren
    dat het mogelijk moet zijn
  • 12:20 - 12:25
    om aan zeer bruikbare geneeskunde te doen
    met deze data-analysetechnieken.
  • 12:25 - 12:28
    Gelukkig is de feedback
    fantastisch geweest.
  • 12:28 - 12:29
    Niet alleen van de media
  • 12:29 - 12:32
    maar ook van de medische gemeenschap,
    die zeer positief reageerde.
  • 12:32 - 12:36
    De theorie is dat wij het middelste deel
    van het medische proces kunnen overnemen
  • 12:36 - 12:39
    en dat zoveel mogelijk
    in gegevensanalyse omzetten
  • 12:39 - 12:42
    om artsen dat te laten doen
    waarin ze uitblinken.
  • 12:42 - 12:44
    Ik geef een voorbeeld.
  • 12:44 - 12:46
    Het kost ons nu ongeveer 15 minuten
  • 12:46 - 12:49
    om een nieuwe medische
    diagnostische test te genereren.
  • 12:49 - 12:51
    Ik toon het in real-time,
  • 12:51 - 12:54
    maar comprimeerde het tot drie minuten
    door wat weg te laten.
  • 12:54 - 12:58
    In plaats van het creëren van
    een medisch-diagnostische test te tonen,
  • 12:58 - 13:01
    toon ik een diagnostische test
    van afbeeldingen van auto's,
  • 13:01 - 13:03
    want dat begrijpen we allemaal.
  • 13:03 - 13:06
    We beginnen hier met ongeveer
    1,5 miljoen afbeeldingen van auto's,
  • 13:06 - 13:09
    en ik wil iets maken dat hen kan sorteren
  • 13:09 - 13:12
    volgens de hoek
    vanwaar de foto werd genomen.
  • 13:12 - 13:16
    Deze beelden zijn ongelabeld,
    dus moet ik beginnen vanaf nul.
  • 13:16 - 13:17
    Met ons deep learning-algoritme
  • 13:17 - 13:21
    kan het automatisch structuurdelen
    identificeren in deze beelden.
  • 13:21 - 13:25
    Het leuke is dat mens en computer
    nu kunnen samenwerken.
  • 13:25 - 13:27
    De mens zoals hier te zien,
  • 13:27 - 13:30
    wijst de computer op aandachtsgebieden
  • 13:30 - 13:34
    die hij de computer wil laten gebruiken
    om het algoritme te verbeteren.
  • 13:34 - 13:39
    Deze deep learning-systemen bestaan
    in een 16.000-dimensionale ruimte.
  • 13:39 - 13:42
    Je kunt de computer dit
    in die ruimte zien draaien,
  • 13:42 - 13:44
    om nieuwe structuurgebieden te vinden.
  • 13:44 - 13:46
    Als dat lukt,
  • 13:46 - 13:50
    kan de mens dan wijzen op gebieden
    die interessant zijn.
  • 13:50 - 13:52
    Hier heeft de computer
    goede gebieden gevonden,
  • 13:52 - 13:55
    bijvoorbeeld hoeken.
  • 13:55 - 13:56
    Bij het doorlopen van dit proces,
  • 13:56 - 13:59
    vertellen we de computer
    geleidelijk aan meer en meer
  • 13:59 - 14:01
    over de soorten structuren die we zoeken.
  • 14:01 - 14:04
    Je kunt je voorstellen
    dat in een diagnostische test
  • 14:04 - 14:06
    een patholoog zieke gebieden
    gaat identificeren
  • 14:06 - 14:11
    of een radioloog potentieel
    gevaarlijke knobbeltjes aanwijst.
  • 14:11 - 14:14
    Soms wordt het moeilijk
    voor het algoritme.
  • 14:14 - 14:15
    Hier raakte het in de war.
  • 14:15 - 14:19
    De voor- en achterkanten van de auto's
    worden door elkaar gehaald.
  • 14:19 - 14:20
    Dus moeten we hier wat preciezer zijn,
  • 14:20 - 14:24
    voor- en achterkanten handmatig selecteren
  • 14:24 - 14:25
    en de computer vertellen
  • 14:25 - 14:31
    dat dit een soort groep is
    waarin we geïnteresseerd zijn.
  • 14:31 - 14:33
    Dat doen we even, we slaan even wat over,
  • 14:33 - 14:35
    en trainen daarmee
    het machinaal-lerenalgoritme
  • 14:35 - 14:37
    op basis van die paar honderd dingen,
  • 14:37 - 14:39
    en hopen dat het dan veel beter gaat.
  • 14:39 - 14:43
    Jullie zien, hij begint nu
    sommige van deze foto’s te vervagen,
  • 14:43 - 14:47
    en laat daarmee zien dat het
    sommige ervan zelf begint te begrijpen.
  • 14:47 - 14:50
    We kunnen dan gebruik maken
    van het concept van soortgelijke foto's,
  • 14:50 - 14:52
    daarmee kun je nu zien
  • 14:52 - 14:56
    dat de computer in staat is om alleen
    de voorkanten van auto’s te vinden.
  • 14:56 - 14:59
    Nu kan de mens de computer vertellen:
  • 14:59 - 15:01
    “Oké, dat heb je goed gedaan.”
  • 15:03 - 15:05
    Maar zelfs op dit punt
  • 15:05 - 15:09
    is het soms nog steeds moeilijk
    groepen te scheiden.
  • 15:09 - 15:12
    Zelfs als we de computer
    dit een tijdje laten roteren,
  • 15:12 - 15:16
    zien we nog steeds dat foto’s
    van de linker- en de rechterzijde
  • 15:16 - 15:17
    door elkaar worden gehaald.
  • 15:17 - 15:20
    We kunnen dan de computer
    weer enkele tips geven,
  • 15:20 - 15:22
    en zeggen dat hij een projectie
    moet zoeken
  • 15:22 - 15:25
    die de linker- en rechterkant
    zoveel mogelijk scheidt
  • 15:25 - 15:27
    door middel van
    een deep learning-algoritme.
  • 15:27 - 15:30
    En met die hint
    – ah, oké, het is gelukt.
  • 15:30 - 15:33
    Hij vond een manier van denken
    over deze objecten
  • 15:33 - 15:35
    dat ze van elkaar scheidde.
  • 15:35 - 15:38
    Je ziet het idee erachter.
  • 15:38 - 15:46
    Hier werd de mens niet vervangen
    door een computer,
  • 15:46 - 15:49
    maar ze werkten samen.
  • 15:49 - 15:54
    Dit zou een team van vijf of zes personen
    zeven jaar hebben gekost.
  • 15:54 - 15:56
    Het wordt vervangen door iets
  • 15:56 - 15:59
    dat 15 minuten duurt
    voor één enkele persoon.
  • 15:59 - 16:03
    Dit proces duurt ongeveer
    vier of vijf iteraties.
  • 16:03 - 16:05
    Je kunt zien dat we nu 62%
  • 16:05 - 16:08
    van onze 1,5 miljoen beelden
    correct hebben geclassificeerd.
  • 16:08 - 16:12
    Vanaf nu kunnen we vrij snel
    heel grote secties aanpakken
  • 16:12 - 16:15
    en controleren of er geen fouten
    werden gemaakt.
  • 16:15 - 16:19
    Waar fouten zijn,
    kunnen we de computer daarop wijzen.
  • 16:19 - 16:22
    Met dit soort proces
    voor elk van de verschillende groepen,
  • 16:22 - 16:24
    hebben we nu een 80% kans op succes
  • 16:24 - 16:27
    bij het sorteren
    van de 1,5 miljoen afbeeldingen.
  • 16:27 - 16:29
    Dan is het nog zaak
  • 16:29 - 16:32
    het kleine aantal te vinden
    dat niet correct werd ingedeeld
  • 16:32 - 16:35
    en proberen te begrijpen waarom.
  • 16:35 - 16:37
    Met behulp van die aanpak
  • 16:37 - 16:41
    krijgen we op 15 minuten
    tot 97% juiste classificatie.
  • 16:41 - 16:46
    Dit soort techniek stelt ons in staat
    een groot probleem op te lossen,
  • 16:46 - 16:49
    namelijk het gebrek
    aan medische expertise in de wereld.
  • 16:49 - 16:52
    Het Wereld Economisch Forum
    zegt dat er tussen de 10 en 20 keer
  • 16:52 - 16:55
    te weinig artsen zijn in de derde wereld.
  • 16:55 - 16:57
    Het zou ongeveer 300 jaar duren
  • 16:57 - 17:00
    om voldoende mensen op te leiden
    om dat probleem op te lossen.
  • 17:00 - 17:03
    Stel dat we hun efficiëntie
    kunnen verbeteren
  • 17:03 - 17:05
    met behulp van deep learning?
  • 17:05 - 17:08
    Ik ben erg enthousiast
    over de mogelijkheden.
  • 17:08 - 17:10
    Maar ik zie ook problemen.
  • 17:10 - 17:13
    Het probleem hier is dat
    elk gebied in het blauw op deze kaart
  • 17:13 - 17:18
    een gebied is waar de dienstensector voor
    meer dan 80% van de werkgelegenheid zorgt.
  • 17:18 - 17:19
    Wat zijn diensten?
  • 17:19 - 17:20
    Dit zijn diensten.
  • 17:20 - 17:25
    Dit zijn ook exact die dingen
    die computers net hebben leren doen.
  • 17:25 - 17:28
    Dus 80% van de werkgelegenheid
    in de ontwikkelde wereld
  • 17:28 - 17:31
    zijn zaken die computers
    net hebben leren doen.
  • 17:31 - 17:32
    Wat betekent dat?
  • 17:32 - 17:34
    Het komt wel goed.
  • 17:34 - 17:35
    Er komen wel andere banen.
  • 17:35 - 17:38
    Bijvoorbeeld meer banen
    voor datawetenschappers.
  • 17:38 - 17:42
    Nou, niet echt. Datawetenschappers
    kunnen deze dingen heel snel ontwikkelen.
  • 17:42 - 17:45
    Zo werden deze vier algoritmes
    alle ontwikkeld door dezelfde man.
  • 17:45 - 17:48
    Als je denkt:
    “Ach, het is allemaal al eerder gebeurd,
  • 17:48 - 17:51
    we zagen wat er vroeger gebeurde
    als er nieuwe dingen kwamen,
  • 17:51 - 17:53
    ze worden vervangen door nieuwe banen.”
  • 17:53 - 17:55
    Maar wat zullen deze nieuwe banen zijn?
  • 17:55 - 17:57
    Moeilijk in te schatten,
  • 17:57 - 18:00
    omdat menselijk kunnen
    met dit geleidelijke tempo groeit,
  • 18:00 - 18:03
    maar we hebben nu
    een deep learning-systeem
  • 18:03 - 18:06
    dat eigenlijk exponentieel
    in mogelijkheden toeneemt.
  • 18:06 - 18:07
    Hier zijn we.
  • 18:07 - 18:09
    We kijken naar wat we hebben
  • 18:09 - 18:12
    en zeggen: "Ach, computers zijn
    nog steeds behoorlijk dom." Toch?
  • 18:12 - 18:16
    Maar in vijf jaar tijd zullen computers
    buiten deze grafiek vallen.
  • 18:16 - 18:19
    Daar moeten we nu al beginnen
    over na te denken.
  • 18:19 - 18:22
    We hebben dit natuurlijk
    al eerder zien gebeuren.
  • 18:22 - 18:23
    In de Industriële Revolutie
  • 18:23 - 18:26
    zetten we dankzij machines
    een grote stap in mogelijkheden.
  • 18:27 - 18:29
    Maar na een tijdje vlakte het wat af.
  • 18:29 - 18:32
    Er was maatschappelijke ontwrichting,
  • 18:32 - 18:35
    maar zodra machines in alle situaties
    voor energie gingen zorgen,
  • 18:35 - 18:37
    kalmeerde het weer.
  • 18:37 - 18:39
    De Machinaal-Leren Revolutie
  • 18:39 - 18:42
    zal heel wat anders zijn
    dan de Industriële Revolutie,
  • 18:42 - 18:45
    omdat de Machinaal-Leren Revolutie
    nooit gaat stoppen.
  • 18:45 - 18:48
    Hoe beter computers worden
    in intellectuele activiteiten,
  • 18:48 - 18:52
    hoe meer ze betere computers kunnen bouwen
    om intellectuele vermogens te verbeteren.
  • 18:52 - 18:54
    Dit gaat om een soort verandering
  • 18:54 - 18:56
    die de wereld nog nooit
    eerder heeft meegemaakt.
  • 18:56 - 19:00
    Je vorige idee van wat mogelijk is,
    schiet tekort.
  • 19:00 - 19:02
    Dit beïnvloedt ons nu al.
  • 19:02 - 19:05
    Terwijl in de afgelopen 25 jaar
    de kapitaalproductiviteit toenam,
  • 19:05 - 19:10
    ging het voor de arbeidsproductiviteit
    zelfs een beetje omlaag.
  • 19:10 - 19:13
    Ik zou deze discussie nu willen opstarten.
  • 19:13 - 19:16
    Ik weet dat wanneer ik
    mensen hierover vertel,
  • 19:16 - 19:18
    ze vaak heel afwijzend zijn:
  • 19:18 - 19:20
    "Computers kunnen toch niet echt denken,
  • 19:20 - 19:22
    voelen, poëzie begrijpen.
  • 19:22 - 19:25
    We begrijpen niet echt hoe ze werken."
  • 19:25 - 19:26
    Dus?
  • 19:26 - 19:28
    Computers kunnen nu dingen doen
  • 19:28 - 19:31
    waarvoor mensen
    al hun hele leven betaald werden,
  • 19:31 - 19:33
    dus is het nu tijd om te gaan nadenken
  • 19:33 - 19:37
    hoe we onze sociale en economische
    structuren gaan aanpassen
  • 19:37 - 19:40
    en ons bewust worden
    van deze nieuwe realiteit.
  • 19:40 - 19:40
    Bedankt.
  • 19:40 - 19:43
    (Applaus)
Title:
De wonderbaarlijke en schrikwekkende implicaties van computers die kunnen leren | Jeremy Howard | TEDxBrussels
Description:

Wat gebeurt er als we een computer leren leren? Technoloog Jeremy Howard bespreekt enkele verrassende nieuwe ontwikkelingen over het snel evoluerende gebied van 'deep learning', een techniek die computers in staat stelt om Chinees te leren, om objecten in foto's te herkennen of om mee te denken bij een medische diagnose. (Eén 'deep learning'-toepassing maakte zich het begrip 'katten' eigen door het urenlang kijken naar YouTube.) Laat je bijpraten over een gebied dat de manier waarop computers zich gedragen zal veranderen... waarschijnlijk eerder dan je denkt.

Deze talk werd gehouden op een lokaal TEDx-evenement dat onafhankelijk van de TED-conferenties is georganiseerd.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
19:47

Dutch subtitles

Revisions