Return to Video

De wonderbaarlijke en schrikwekkende implicaties van computers die kunnen leren | Jeremy Howard | TEDxBrussels

  • 0:01 - 0:05
    Als je vroeger een computer
    iets nieuws wilde laten doen,
  • 0:05 - 0:06
    moest je hem programmeren.
  • 0:06 - 0:10
    Voor wie het nooit zelf heeft gedaan:
  • 0:10 - 0:13
    programmeren vereist
    dat je tot in het allerpijnlijkste detail
  • 0:13 - 0:17
    elke stap uitschrijft
    van wat je wil dat de computer doet
  • 0:17 - 0:19
    om je doel te bereiken.
  • 0:19 - 0:23
    Als je iets wil doen, waarvan je
    zelf niet weet hoe je het moet doen,
  • 0:23 - 0:25
    dan is dit een grote uitdaging.
  • 0:25 - 0:28
    Dat was de uitdaging
    voor deze man, Arthur Samuel.
  • 0:28 - 0:32
    In 1956 wilde hij
    deze computer zover krijgen
  • 0:32 - 0:35
    dat hij Samuel zelf kon verslaan
    bij het dammen.
  • 0:35 - 0:37
    Hoe schrijf je een programma
  • 0:37 - 0:40
    dat tot in het allerpijnlijkste detail,
    beter is in dammen dan je zelf bent?
  • 0:40 - 0:42
    Hij kwam met een idee:
  • 0:42 - 0:46
    hij liet de computer duizenden keren
    tegen zichzelf spelen
  • 0:46 - 0:48
    en daarbij leren hoe te dammen.
  • 0:48 - 0:52
    Het werkte en in 1962 versloeg
  • 0:52 - 0:55
    deze computer de kampioen
    van de staat Connecticut.
  • 0:55 - 0:59
    Zo werd Arthur Samuel
    de vader van het ‘machinaal leren’.
  • 0:59 - 1:00
    Ik heb veel aan hem te danken,
  • 1:00 - 1:03
    want ik doe aan machinaal leren.
  • 1:03 - 1:04
    Ik was voorzitter van Kaggle,
  • 1:04 - 1:08
    een gemeenschap van meer dan
    200.000 machinaal-lerenbeoefenaars.
  • 1:08 - 1:10
    Kaggle organiseert wedstrijden
  • 1:10 - 1:14
    om eerder onopgeloste problemen
    op te lossen.
  • 1:14 - 1:17
    Dat lukte al honderden keren.
  • 1:17 - 1:20
    Daardoor kon ik heel wat te weten komen
  • 1:20 - 1:24
    over wat machinaal leren kon doen
    in het verleden, vandaag,
  • 1:24 - 1:26
    en wat het zou kunnen doen in de toekomst.
  • 1:26 - 1:31
    Misschien is Google het eerste grote
    commerciële succes van machinaal leren.
  • 1:31 - 1:34
    Google liet zien dat het mogelijk is
    om informatie te vinden
  • 1:34 - 1:36
    met een computeralgoritme.
  • 1:36 - 1:38
    Dit algoritme is gebaseerd
    op machinaal leren.
  • 1:38 - 1:42
    Sinds die tijd heeft machinaal leren
    heel wat commerciële successen geboekt.
  • 1:42 - 1:45
    Bedrijven als Amazon en Netflix
    gebruiken machinaal leren
  • 1:45 - 1:48
    om producten te suggereren
    die je misschien wilt kopen,
  • 1:48 - 1:50
    of films om naar te kijken.
  • 1:50 - 1:52
    Soms is het bijna griezelig.
  • 1:52 - 1:53
    Bedrijven zoals LinkedIn en Facebook
  • 1:53 - 1:56
    kunnen je soms vertellen
    wie je vrienden zouden kunnen zijn
  • 1:56 - 1:59
    en je hebt geen idee
    hoe dat in zijn werk ging.
  • 1:59 - 2:01
    Dat is de kracht van machinaal leren.
  • 2:01 - 2:04
    Deze algoritmen hebben dit
    uit gegevens geleerd te doen
  • 2:04 - 2:07
    in plaats van door manueel programmeren.
  • 2:07 - 2:10
    Daarom ook kon Watson van IBM
  • 2:10 - 2:13
    de twee wereldkampioenen
    bij "Jeopardy" verslaan
  • 2:13 - 2:16
    door heel subtiele en complexe vragen
    als deze te beantwoorden.
  • 2:16 - 2:20
    ["O.a. de oude 'Leeuw van Nimrod' verdween
    hier in 2003 uit het nationaal museum."]
  • 2:20 - 2:23
    Ook daarom kunnen we nu
    de eerste zelfsturende auto's zien.
  • 2:23 - 2:27
    Het verschil zien tussen
    een boom en een voetganger
  • 2:27 - 2:28
    is dan nogal belangrijk.
  • 2:28 - 2:31
    We weten niet hoe we zulke programma's
    handmatig moeten schrijven,
  • 2:31 - 2:34
    maar met machinaal leren kan het.
  • 2:34 - 2:37
    Deze auto heeft er al meer
    dan een miljoen kilometer opzitten
  • 2:37 - 2:40
    zonder ongevallen en op gewone wegen.
  • 2:40 - 2:44
    We weten nu dat computers kunnen leren,
  • 2:44 - 2:46
    en computers dingen kunnen leren doen
  • 2:46 - 2:50
    waarvan we eigenlijk soms niet weten
    hoe we ze zelf moeten doen,
  • 2:50 - 2:52
    of kunnen ze misschien beter doen dan wij.
  • 2:52 - 2:54
    Een van de meest
    verbazingwekkende voorbeelden
  • 2:54 - 2:56
    van machinaal leren die ik heb gezien,
  • 2:56 - 2:59
    zag ik op een project
    dat ik op Kaggle leidde.
  • 2:59 - 3:03
    Een team geleid door Geoffrey Hinton
    van de Universiteit van Toronto
  • 3:03 - 3:07
    won een wedstrijd in het geautomatiseerd
    ontdekken van geneesmiddelen.
  • 3:07 - 3:11
    Het was al buitengewoon
    dat ze alle algoritmen van Merck
  • 3:11 - 3:13
    en de internationale
    academische gemeenschap versloegen,
  • 3:13 - 3:16
    maar daarbij had niemand in het team
    een achtergrond
  • 3:16 - 3:18
    in scheikunde, biologie
    of levenswetenschappen,
  • 3:18 - 3:20
    en ze deden het in twee weken.
  • 3:20 - 3:22
    Hoe deden ze het?
  • 3:22 - 3:25
    Ze gebruikten een buitengewoon algoritme:
    ‘deep learning’.
  • 3:25 - 3:28
    Zo belangrijk was dat,
    dat het een paar weken later
  • 3:28 - 3:31
    in The New York Times
    als voorpagina-artikel verscheen.
  • 3:31 - 3:34
    Dit is Geoffrey Hinton hier links.
  • 3:34 - 3:38
    Deep learning is een algoritme
    geïnspireerd op het menselijk brein.
  • 3:38 - 3:40
    Daardoor is het een algoritme
  • 3:40 - 3:44
    zonder theoretische beperkingen
    op wat het kan doen.
  • 3:44 - 3:47
    Hoe meer gegevens
    en rekentijd je het geeft,
  • 3:47 - 3:48
    hoe beter het wordt.
  • 3:48 - 3:50
    De New York Times toonde
    in dit artikel ook
  • 3:50 - 3:53
    een ander uitzonderlijk resultaat
    van deep learning.
  • 3:53 - 3:56
    Ik ga het je nu laten zien.
  • 3:56 - 4:01
    Het toont aan dat computers
    kunnen luisteren en begrijpen.
  • 4:01 - 4:03
    (Video) Richard Rashid:
    De laatste stap
  • 4:03 - 4:06
    die ik in dit proces wil kunnen zetten,
  • 4:06 - 4:11
    is om je daadwerkelijk
    in het Chinees aan te spreken.
  • 4:11 - 4:14
    Het belangrijkste is
  • 4:14 - 4:19
    dat we een grote hoeveelheid informatie
    van vele Chinese sprekers konden vergaren
  • 4:19 - 4:21
    en een tekst-naar-spraaksysteem produceren
  • 4:21 - 4:26
    dat Chinese tekst
    omzet naar Chinese spreektaal.
  • 4:26 - 4:30
    Daarna hebben we een paar uren
    mijn eigen stem opgenomen
  • 4:30 - 4:34
    en ze gebruikt om het standaard
    tekst-naar-spraak systeem te moduleren
  • 4:34 - 4:36
    zodat het zou klinken zoals ik.
  • 4:36 - 4:39
    Het resultaat is niet perfect.
  • 4:39 - 4:42
    Er zitten nogal wat fouten in.
  • 4:42 - 4:44
    (In het Chinees)
  • 4:44 - 4:47
    (Applaus)
  • 4:49 - 4:53
    Er is nog veel werk te doen
    op dit gebied.
  • 4:53 - 4:57
    (In het Chinees)
  • 4:57 - 5:00
    (Applaus)
  • 5:01 - 5:05
    Jeremy Howard: Dat was op een conferentie
    over machinaal leren in China.
  • 5:05 - 5:07
    Op wetenschappelijke congressen
  • 5:07 - 5:09
    hoor je niet vaak spontaan applaus,
  • 5:09 - 5:13
    maar natuurlijk wel eens
    bij TEDx conferenties, het mag.
  • 5:13 - 5:15
    Alles wat je zag,
    gebeurde met deep learning.
  • 5:15 - 5:17
    (Applaus)
    Dank je.
  • 5:17 - 5:19
    De transcriptie in het Engels
    was deep learning.
  • 5:19 - 5:24
    Ook de vertaling naar Chinees en de tekst
    in de rechterbovenhoek is deep learning.
  • 5:24 - 5:26
    De constructie van de stem,
    weer deep learning.
  • 5:26 - 5:29
    Deep learning is buitengewoon.
  • 5:29 - 5:32
    Een enkel algoritme
    lijkt bijna alles te kunnen.
  • 5:32 - 5:35
    Een jaar eerder ontdekte ik
    dat het systeem ook had leren zien.
  • 5:35 - 5:38
    Bij een minder bekende
    wedstrijd in Duitsland,
  • 5:38 - 5:41
    de German Traffic Sign
    Recognition Benchmark,
  • 5:41 - 5:44
    heeft deep learning verkeersborden
    zoals deze leren herkennen.
  • 5:44 - 5:47
    Niet alleen kan het verkeersborden
    beter dan enig ander algoritme herkennen,
  • 5:47 - 5:52
    het scorebord liet zien dat het ook
    ongeveer twee keer beter was dan mensen.
  • 5:52 - 5:55
    In 2011 hadden we dus het eerste voorbeeld
  • 5:55 - 5:57
    van computers die beter
    kunnen zien dan mensen.
  • 5:57 - 5:59
    Sinds die tijd is er veel gebeurd.
  • 5:59 - 6:03
    In 2012 kondigde Google aan
    dat ze een deep learning-algoritme
  • 6:03 - 6:04
    YouTube-video’s lieten bekijken.
  • 6:04 - 6:08
    Het verwerkte een maand lang
    de gegevens op 16.000 computers,
  • 6:08 - 6:12
    en de computer leerde zelfstandig
    over begrippen als mensen en katten
  • 6:12 - 6:14
    gewoon door naar de video's te kijken.
  • 6:14 - 6:16
    Net als de manier waarop mensen leren.
  • 6:16 - 6:19
    Mensen leren niet doordat hen
    wordt verteld wat ze zien,
  • 6:19 - 6:22
    maar door zichzelf
    deze dingen te leren.
  • 6:22 - 6:26
    Ook in 2012, won Geoffrey Hinton,
    die we eerder zagen,
  • 6:26 - 6:29
    de zeer populaire ImageNet-wedstrijd,
  • 6:29 - 6:33
    door te kijken naar anderhalf miljoen
    afbeeldingen om erachter te komen
  • 6:33 - 6:34
    wat ze voorstelden.
  • 6:34 - 6:38
    Vanaf 2014 zitten we op
    een zes procent foutenpercentage
  • 6:38 - 6:39
    bij beeldherkenning.
  • 6:39 - 6:41
    Dit is alweer beter dan mensen.
  • 6:41 - 6:45
    Machines kunnen dit buitengewoon goed
  • 6:45 - 6:47
    en het wordt nu gebruikt in de industrie.
  • 6:47 - 6:50
    Vorig jaar kondigde
    Google bijvoorbeeld aan
  • 6:50 - 6:55
    dat ze elke locatie in Frankrijk
    in twee uur tijd in kaart hadden gebracht,
  • 6:55 - 6:58
    door Street View-beelden
  • 6:58 - 7:02
    met een deep learning-algoritme te herkennen
    en de huisnummers te lezen.
  • 7:02 - 7:05
    Stel je voor hoe lang het
    anders zou hebben geduurd:
  • 7:05 - 7:08
    tientallen mensen, vele jaren.
  • 7:08 - 7:10
    Dit gebeurt ook in China.
  • 7:10 - 7:14
    Baidu is een soort Chinese Google,
    denk ik,
  • 7:14 - 7:17
    en wat je hier ziet
    in de linkerbovenhoek,
  • 7:17 - 7:19
    is een voorbeeld van een foto
    die ik heb geüpload
  • 7:19 - 7:21
    naar Baidu’s deep learning-systeem.
  • 7:21 - 7:25
    Daaronder kun je zien dat het systeem
    heeft begrepen wat dat beeld is
  • 7:25 - 7:26
    en gelijkaardige beelden vond.
  • 7:26 - 7:29
    De gelijkaardige beelden
    hebben gelijkaardige achtergronden,
  • 7:29 - 7:31
    dezelfde richtingen van gezichten,
  • 7:31 - 7:33
    sommige zelfs met hun tong uit.
  • 7:33 - 7:36
    Dit is niet zomaar wat kijken
    naar de tekst van een webpagina.
  • 7:36 - 7:38
    Alles wat ik uploadde, waren beelden.
  • 7:38 - 7:41
    Dus hebben we nu computers
    die echt begrijpen wat ze zien
  • 7:41 - 7:43
    en derhalve databases
  • 7:43 - 7:46
    van honderden miljoenen beelden
    in real time doorzoeken.
  • 7:46 - 7:50
    Wat betekent het nu
    dat computers kunnen zien?
  • 7:50 - 7:52
    Computers kunnen niet alleen maar zien.
  • 7:52 - 7:54
    Deep learning doet meer.
  • 7:54 - 7:57
    Complexe, genuanceerde zinnen zoals deze
  • 7:57 - 7:59
    zijn nu begrijpelijk
    met deep learning-algoritmen.
  • 7:59 - 8:01
    Zoals je hier kunt zien,
  • 8:01 - 8:03
    heeft dit systeem van Stanford
    met de rode stip bovenaan
  • 8:03 - 8:07
    uitgeknobbeld dat deze zin
    een negatief sentiment weergeeft.
  • 8:07 - 8:11
    Deep learning komt in de buurt
    van menselijke prestaties
  • 8:11 - 8:16
    bij het begrijpen waar zinnen over gaan
    en wat ze zeggen over die dingen.
  • 8:16 - 8:19
    Ook is deep learning gebruikt
    om Chinees te lezen,
  • 8:19 - 8:22
    weer op ongeveer het niveau
    van Chinese moedertaalsprekers.
  • 8:22 - 8:24
    Dit algoritme werd
    in Zwitserland ontwikkeld
  • 8:24 - 8:27
    alweer door mensen die geen
    Chinees spreken of begrijpen.
  • 8:27 - 8:29
    Zoals ik al zei, deep learning
  • 8:29 - 8:32
    is zowat het beste systeem
    ter wereld hiervoor,
  • 8:32 - 8:37
    zelfs in vergelijking
    met autochtoon menselijk begrijpen.
  • 8:37 - 8:40
    Het is een systeem dat we
    op mijn bedrijf hebben ontwikkeld
  • 8:40 - 8:42
    door dit allemaal te combineren.
  • 8:42 - 8:44
    Dit zijn foto’s
    zonder bijhorende tekst,
  • 8:44 - 8:47
    en terwijl ik hier zinnen typ,
  • 8:47 - 8:50
    begrijpt het deze foto’s in real time,
  • 8:50 - 8:51
    zoekt uit waarover ze gaan
  • 8:51 - 8:54
    en vindt foto’s die lijken op
    de tekst die ik schrijf.
  • 8:54 - 8:59
    Zoals jullie kunnen zien, begrijpt het
    mijn zinnen en deze foto's echt.
  • 8:59 - 9:02
    Dit heb je vast al gezien op Google,
  • 9:02 - 9:05
    waar je woorden kunt intypen
    en het je afbeeldingen toont,
  • 9:05 - 9:08
    maar eigenlijk doorzoekt het
    de webpagina op tekst.
  • 9:08 - 9:11
    Dat is heel wat anders dan
    werkelijk begrijpen van de afbeeldingen.
  • 9:11 - 9:14
    Dit kunnen computers alleen nog maar
  • 9:14 - 9:17
    sinds de laatste paar maanden.
  • 9:17 - 9:21
    Computers kunnen dus niet alleen zien,
    maar ook lezen,
  • 9:21 - 9:24
    en, zoals we hebben aangetoond,
    ook begrijpen wat ze horen.
  • 9:24 - 9:29
    Misschien niet zo verwonderlijk
    dat ik je vertel dat ze kunnen schrijven.
  • 9:29 - 9:33
    Deze tekst genereerde ik gisteren
    met een deep learning-algoritme.
  • 9:33 - 9:37
    En hier een stukje tekst dat
    een algoritme van Stanford genereerde.
  • 9:37 - 9:39
    Elk van deze zinnen werd gegenereerd
  • 9:39 - 9:43
    door een deep learning-algoritme
    om elk van deze foto's te beschrijven.
  • 9:43 - 9:48
    Dit algoritme had nog nooit een man
    in een zwart shirt gitaar zien spelen.
  • 9:48 - 9:50
    Het had al apart een man, zwart
  • 9:50 - 9:51
    en een gitaar gezien,
  • 9:51 - 9:56
    maar genereerde onafhankelijk
    de nieuwe beschrijving van dit beeld.
  • 9:56 - 9:58
    We zijn nog niet zover
    als menselijke prestaties,
  • 9:58 - 9:59
    maar we komen in de buurt.
  • 9:59 - 10:03
    Bij tests geven mensen
    één op de vier keer de voorkeur
  • 10:03 - 10:05
    aan het bijschrift van de computer.
  • 10:05 - 10:07
    Dit systeem is nog maar twee weken oud,
  • 10:07 - 10:09
    dus waarschijnlijk
    zal in de loop van volgend jaar,
  • 10:09 - 10:13
    het computer-algoritme
    het beter doen dan mensen.
  • 10:13 - 10:16
    Computers kunnen dus ook schrijven.
  • 10:16 - 10:20
    Dit alles tezamen leidt
    tot zeer interessante mogelijkheden.
  • 10:20 - 10:23
    In de geneeskunde heeft
    een team in Boston aangekondigd
  • 10:23 - 10:27
    tientallen nieuwe klinisch relevante
    eigenschappen van tumoren
  • 10:27 - 10:31
    te hebben ontdekt, wat artsen helpt bij
    het maken van prognoses voor kanker.
  • 10:32 - 10:35
    Ook in Stanford maakte een groep bekend
  • 10:35 - 10:38
    dat ze, kijkend
    naar weefsels onder vergroting,
  • 10:38 - 10:41
    een op machinaal-leren gebaseerd
    systeem hebben ontwikkeld
  • 10:41 - 10:43
    dat beter was dan menselijke pathologen
  • 10:43 - 10:48
    in het voorspellen van overlevingskansen
    voor kankerpatiënten.
  • 10:48 - 10:51
    In beide gevallen werden niet alleen
    de voorspellingen nauwkeuriger,
  • 10:51 - 10:53
    maar ze genereerden
    nieuwe inzichtelijke wetenschap.
  • 10:53 - 10:54
    Bij de radiologie
  • 10:54 - 10:58
    waren dat nieuwe klinische indicatoren
    die mensen kunnen begrijpen.
  • 10:58 - 11:00
    Bij de pathologie
  • 11:00 - 11:04
    ontdekte het computersysteem
    dat de cellen rond de kanker
  • 11:04 - 11:08
    even belangrijk zijn
    als de kankercellen zelf
  • 11:08 - 11:09
    bij het maken van een diagnose.
  • 11:09 - 11:15
    Dit is het tegenovergestelde van wat
    pathologen decennialang hadden geleerd.
  • 11:15 - 11:18
    In beide gevallen
    werden systemen ontwikkeld
  • 11:18 - 11:22
    door een combinatie van medische experts
    en machinaal-lerenexperts,
  • 11:22 - 11:24
    maar dat was vorig jaar,
    nu staan we verder.
  • 11:24 - 11:28
    Dit is een voorbeeld van identificatie
    van carcinomateuze gebieden
  • 11:28 - 11:30
    van menselijk weefsel
    onder een microscoop.
  • 11:30 - 11:33
    Het systeem dat hier wordt getoond,
  • 11:33 - 11:35
    kan deze doelgebieden
    preciezer identificeren
  • 11:35 - 11:38
    of ongeveer net zo precies
    als menselijke pathologen, maar werd
  • 11:38 - 11:41
    geheel ontwikkeld met deep learning
    zonder medische expertise
  • 11:41 - 11:44
    door mensen zonder achtergrond
    op dat gebied.
  • 11:45 - 11:47
    Evenzo bij deze neuronen-segmentatie.
  • 11:47 - 11:49
    We kunnen nu neuronen ongeveer
  • 11:49 - 11:51
    net zo nauwkeurig onderscheiden
    als mensen het kunnen,
  • 11:51 - 11:54
    maar dit systeem
    is ontwikkeld met deep learning
  • 11:54 - 11:57
    met mensen zonder eerdere
    achtergrond in de geneeskunde.
  • 11:57 - 12:00
    Ikzelf, als iemand zonder eerdere
    achtergrond in de geneeskunde,
  • 12:00 - 12:04
    lijk helemaal gekwalificeerd te zijn om
    een nieuw medisch bedrijf op te starten,
  • 12:04 - 12:06
    wat ik dan ook deed.
  • 12:06 - 12:08
    Ik was doodsbang om het te doen,
  • 12:08 - 12:11
    maar de theorie leek te suggereren
    dat het mogelijk moet zijn
  • 12:11 - 12:16
    om aan zeer bruikbare geneeskunde te doen
    met deze data-analyse technieken.
  • 12:16 - 12:19
    Gelukkig is de feedback
    fantastisch geweest.
  • 12:19 - 12:20
    Niet alleen van de media
  • 12:20 - 12:23
    maar ook van de medische gemeenschap,
    die zeer positief reageerde.
  • 12:23 - 12:27
    De theorie is dat wij het middelste deel
    van het medische proces kunnen overnemen
  • 12:27 - 12:30
    en dat zoveel mogelijk
    in gegevensanalyse omzetten
  • 12:30 - 12:33
    om artsen dat te laten doen
    waarin ze uitblinken.
  • 12:33 - 12:35
    Ik geef een voorbeeld.
  • 12:35 - 12:37
    Het kost ons nu ongeveer 15 minuten
  • 12:37 - 12:40
    om een nieuwe medische diagnostische
    test te genereren.
  • 12:40 - 12:42
    Ik toon het in real-time,
  • 12:42 - 12:45
    maar comprimeerde het tot drie minuten
    door wat weg te laten.
  • 12:45 - 12:49
    In plaats van het creëren van
    een medisch-diagnostische test te tonen,
  • 12:49 - 12:52
    toon ik een diagnostische test
    van afbeeldingen van auto's,
  • 12:52 - 12:54
    want dat begrijpen we allemaal.
  • 12:54 - 12:57
    We beginnen hier met ongeveer
    1,5 miljoen afbeeldingen van auto's,
  • 12:57 - 13:00
    en ik wil iets maken
    dat hen kan sorteren
  • 13:00 - 13:03
    volgens de hoek
    vanwaar de foto werd genomen.
  • 13:03 - 13:07
    Deze beelden zijn ongelabeld,
    dus moet ik beginnen vanaf nul.
  • 13:07 - 13:08
    Met ons deep learning-algoritme
  • 13:08 - 13:12
    kan het automatisch structuurdelen
    identificeren in deze beelden.
  • 13:12 - 13:16
    Het leuke is dat mens en computer
    nu kunnen samenwerken.
  • 13:16 - 13:18
    De mens zoals hier te zien,
  • 13:18 - 13:21
    wijst de computer op aandachtsgebieden
  • 13:21 - 13:25
    waarvan hij wil dat de computer ze
    gebruikt om het algoritme te verbeteren.
  • 13:25 - 13:30
    Deze deep learning-systemen zijn in feite
    in een 16.000-dimensionale ruimte.
  • 13:30 - 13:33
    Je kunt de computer dit
    in die ruimte zien draaien,
  • 13:33 - 13:35
    om nieuwe structuurgebieden te vinden.
  • 13:35 - 13:37
    Als dat lukt,
  • 13:37 - 13:41
    kan de mens dan wijzen
    op gebieden die interessant zijn.
  • 13:41 - 13:43
    Hier heeft de computer
    goede gebieden gevonden,
  • 13:43 - 13:46
    bijvoorbeeld hoeken.
  • 13:46 - 13:47
    Bij het doorlopen van dit proces,
  • 13:47 - 13:50
    vertellen we de computer
    geleidelijk aan meer en meer
  • 13:50 - 13:52
    over de soorten structuren
    die we zoeken.
  • 13:52 - 13:55
    Je kunt je voorstellen
    dat in een diagnostische test
  • 13:55 - 13:57
    een patholoog zieke gebieden
    gaat identificeren
  • 13:57 - 14:02
    of een radioloog potentieel
    gevaarlijke knobbeltjes aanwijst.
  • 14:02 - 14:05
    Soms wordt het moeilijk
    voor het algoritme.
  • 14:05 - 14:06
    Hier raakte het in de war.
  • 14:06 - 14:10
    De voor- en achterkanten van de auto's
    worden door elkaar gehaald.
  • 14:10 - 14:11
    Dus moeten we hier wat preciezer zijn,
  • 14:11 - 14:15
    voor- en achterkanten handmatig selecteren
  • 14:15 - 14:16
    en de computer vertellen
  • 14:16 - 14:22
    dat dit een soort groep is
    waarin we geïnteresseerd zijn.
  • 14:22 - 14:24
    Dat doen we even,
    we slaan even wat over,
  • 14:24 - 14:26
    en trainen daarmee
    het machinaal-lerenalgoritme
  • 14:26 - 14:28
    op basis van die paar honderd dingen,
  • 14:28 - 14:30
    en hopen dat het dan veel beter gaat.
  • 14:30 - 14:34
    Jullie zien, hij begint nu
    sommige van deze foto’s te vervagen,
  • 14:34 - 14:38
    en laat daarmee zien dat het
    sommige ervan zelf begint te begrijpen.
  • 14:38 - 14:41
    We kunnen dan gebruik maken
    van het concept van soortgelijke foto's,
  • 14:41 - 14:43
    daarmee kun je nu zien
  • 14:43 - 14:47
    dat de computer in staat is om alleen
    de voorkanten van auto’s te vinden.
  • 14:47 - 14:50
    Nu kan de mens de computer vertellen:
  • 14:50 - 14:52
    “Oké, dat heb je goed gedaan.”
  • 14:54 - 14:56
    Maar zelfs op dit punt
  • 14:56 - 15:00
    is het soms nog steeds moeilijk
    groepen te scheiden.
  • 15:00 - 15:03
    Zelfs na de computer
    dit een tijdje te laten roteren,
  • 15:03 - 15:07
    zien we nog steeds dat foto’s
    van de linker- en de rechterzijde
  • 15:07 - 15:08
    door elkaar worden gehaald.
  • 15:08 - 15:11
    We kunnen dan de computer
    weer enkele tips geven,
  • 15:11 - 15:13
    en zeggen dat hij een projectie
    moet zoeken
  • 15:13 - 15:16
    die de linker- en rechterkant
    zoveel mogelijk scheidt
  • 15:16 - 15:18
    door middel van
    een deep learning-algoritme.
  • 15:18 - 15:21
    En met die hint –
    ah, oké, het is gelukt.
  • 15:21 - 15:24
    Hij vond een manier
    van denken over deze objecten
  • 15:24 - 15:26
    dat ze van elkaar scheidde.
  • 15:26 - 15:29
    Je ziet het idee erachter.
  • 15:29 - 15:37
    Hier werd de mens
    niet vervangen door een computer,
  • 15:37 - 15:40
    maar ze werkten samen.
  • 15:40 - 15:45
    Dit zou een team van vijf of zes personen
    zeven jaar hebben gekost.
  • 15:45 - 15:48
    Dit duurt 15 minuten
  • 15:48 - 15:50
    voor één enkele persoon.
  • 15:50 - 15:54
    Dit proces neemt ongeveer
    vier of vijf iteraties in beslag.
  • 15:54 - 15:56
    Je kunt zien dat we nu 62%
  • 15:56 - 15:59
    van onze 1,5 miljoen beelden
    correct hebben geclassificeerd.
  • 15:59 - 16:03
    Vanaf nu kunnen we vrij snel
    heel grote secties aanpakken
  • 16:03 - 16:06
    en controleren of er
    geen fouten werden gemaakt.
  • 16:06 - 16:10
    Waar fouten zijn,
    kunnen we de computer daarop wijzen.
  • 16:10 - 16:13
    Met dit soort proces voor elk
    van de verschillende groepen,
  • 16:13 - 16:15
    hebben we nu een 80% kans op succes
  • 16:15 - 16:18
    bij het sorteren
    van de 1,5 miljoen afbeeldingen.
  • 16:18 - 16:20
    Dan is het nog zaak
  • 16:20 - 16:23
    het kleine aantal te vinden
    dat niet correct werd ingedeeld
  • 16:23 - 16:26
    en proberen te begrijpen waarom.
  • 16:26 - 16:28
    Met behulp van die aanpak
  • 16:28 - 16:32
    krijgen we op 15 minuten
    tot 97% juiste classificatie.
  • 16:32 - 16:37
    Dit soort techniek stelt ons in staat
    een groot probleem op te lossen,
  • 16:37 - 16:40
    namelijk het gebrek
    aan medische expertise in de wereld.
  • 16:40 - 16:43
    Het Wereld Economisch Forum zegt
    dat er tussen de 10 en 20 keer
  • 16:43 - 16:46
    te weinig artsen zijn
    in de derde wereld.
  • 16:46 - 16:48
    Het zou ongeveer 300 jaar duren
  • 16:48 - 16:51
    om voldoende mensen op te leiden
    om dat probleem op te lossen.
  • 16:51 - 16:54
    Stel dat we hun efficiëntie
    kunnen verbeteren
  • 16:54 - 16:56
    met behulp van deep learning?
  • 16:56 - 16:59
    Ik ben erg enthousiast
    over de mogelijkheden.
  • 16:59 - 17:01
    Maar ik zie ook problemen.
  • 17:01 - 17:04
    Het probleem hier is dat
    elk gebied in het blauw op deze kaart
  • 17:04 - 17:09
    ergens is waar de dienstensector instaat
    voor meer dan 80% van de werkgelegenheid.
  • 17:09 - 17:10
    Wat zijn diensten?
  • 17:10 - 17:11
    Dit zijn diensten.
  • 17:11 - 17:16
    Dit zijn ook exact die dingen
    die computers net hebben leren doen.
  • 17:16 - 17:19
    Dus 80% van de werkgelegenheid
    in de ontwikkelde wereld
  • 17:19 - 17:22
    zijn zaken die computers
    net hebben leren doen.
  • 17:22 - 17:23
    Wat betekent dat?
  • 17:23 - 17:25
    Het komt wel goed.
  • 17:25 - 17:26
    Er komen wel andere banen.
  • 17:26 - 17:29
    Bijvoorbeeld meer banen
    voor datawetenschappers.
  • 17:29 - 17:33
    Nou, niet echt. Datawetenschappers
    kunnen deze dingen heel snel ontwikkelen.
  • 17:33 - 17:36
    Zo werden deze vier algoritmes
    alle ontwikkeld door dezelfde man.
  • 17:36 - 17:39
    Als je denkt: “Ach, het is allemaal
    al eerder gebeurd,
  • 17:39 - 17:42
    we zagen wat er vroeger gebeurde
    als er nieuwe dingen kwamen,
  • 17:42 - 17:44
    ze worden vervangen door nieuwe banen.”
  • 17:44 - 17:46
    Maar wat zullen deze nieuwe banen zijn?
  • 17:46 - 17:48
    Moeilijk in te schatten,
  • 17:48 - 17:51
    omdat menselijk kunnen
    met dit geleidelijke tempo groeit,
  • 17:51 - 17:54
    maar we hebben nu
    een deep learning-systeem
  • 17:54 - 17:57
    dat eigenlijk exponentieel
    in mogelijkheden toeneemt.
  • 17:57 - 17:58
    Hier zijn we.
  • 17:58 - 18:00
    We kijken naar wat we hebben
  • 18:00 - 18:03
    en zeggen: "Ach, computers zijn
    nog steeds behoorlijk dom." Ja?
  • 18:03 - 18:07
    Maar in vijf jaar tijd zullen computers
    buiten deze grafiek vallen.
  • 18:07 - 18:10
    Daar moeten we nu al beginnen
    over na te denken.
  • 18:10 - 18:13
    Hebben we dit niet
    al eerder zien gebeuren?
  • 18:13 - 18:14
    In de Industriële Revolutie
  • 18:14 - 18:17
    deden we een grote stap
    in mogelijkheden dankzij machines.
  • 18:18 - 18:20
    Maar na een tijdje vlakte het wat af.
  • 18:20 - 18:23
    Er was maatschappelijke ontwrichting,
  • 18:23 - 18:26
    maar zodra machines in alle situaties
    voor energie gingen zorgen,
  • 18:26 - 18:28
    kalmeerde het weer.
  • 18:28 - 18:30
    De Machinaal-Leren Revolutie
  • 18:30 - 18:33
    zal heel wat anders zijn
    dan de Industriële Revolutie,
  • 18:33 - 18:36
    omdat de Machinaal-Leren Revolutie
    nooit gaat stoppen.
  • 18:36 - 18:39
    Hoe beter computers worden
    in intellectuele activiteiten,
  • 18:39 - 18:43
    hoe meer ze betere computers kunnen bouwen
    om intellectuele vermogens te verbeteren.
  • 18:43 - 18:45
    Dit gaat om een soort verandering
  • 18:45 - 18:47
    die de wereld nog nooit
    eerder heeft meegemaakt.
  • 18:47 - 18:51
    Je vorige idee van wat mogelijk is,
    schiet tekort.
  • 18:51 - 18:53
    Dit beïnvloedt ons nu al.
  • 18:53 - 18:56
    Terwijl in de afgelopen 25 jaar
    de kapitaalproductiviteit toenam,
  • 18:56 - 19:01
    ging het voor de arbeidsproductiviteit
    zelfs een beetje omlaag.
  • 19:01 - 19:04
    Ik zou deze discussie
    nu willen opstarten.
  • 19:04 - 19:07
    Ik weet dat wanneer ik
    mensen hierover vertel,
  • 19:07 - 19:09
    ze vaak heel afwijzend zijn:
  • 19:09 - 19:11
    "Computers kunnen toch niet echt denken,
  • 19:11 - 19:13
    voelen, poëzie begrijpen.
  • 19:13 - 19:16
    We begrijpen niet echt hoe ze werken."
  • 19:16 - 19:17
    Dus?
  • 19:17 - 19:19
    Computers kunnen nu dingen doen
  • 19:19 - 19:22
    waarvoor mensen al hun hele leven
    betaald werden,
  • 19:22 - 19:24
    dus is het nu tijd om te gaan nadenken
  • 19:24 - 19:28
    hoe we onze sociale
    en economische structuren gaan aanpassen
  • 19:28 - 19:31
    en ons bewust worden
    van deze nieuwe realiteit.
  • 19:31 - 19:31
    Bedankt.
  • 19:31 - 19:32
    (Applaus)
Title:
De wonderbaarlijke en schrikwekkende implicaties van computers die kunnen leren | Jeremy Howard | TEDxBrussels
Speaker:
Jeremy Howard
Description:

Wat gebeurt er als we een computer leren leren? Technoloog Jeremy Howard bespreekt enkele verrassende nieuwe ontwikkelingen over het snel evoluerende gebied van 'deep learning', een techniek die computers de mogelijkheid geeft om Chinees te leren, om objecten in foto's te herkennen of om mee te denken bij een medische diagnose. (Eén 'deep learning'-toepassing maakte zich het begrip 'katten' eigen door het bekijken van uren YouTube.) Word bijgepraat over een veld dat de manier waarop computers zich gedragen zal veranderen... waarschijnlijk sneller dan je denkt.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Dutch subtitles

Revisions Compare revisions