Return to Video

Het krulfriet-raadsel: waarom een 'like' in de sociale media meer zegt dan je denkt

  • 0:01 - 0:03
    De eerste tien jaar was internet
  • 0:03 - 0:05
    een nogal statische plek.
  • 0:05 - 0:07
    Je kon online gaan
    en pagina's bekijken
  • 0:07 - 0:09
    die erop gezet waren
  • 0:09 - 0:11
    door organisaties,
    waar teams dat deden,
  • 0:11 - 0:13
    of door mensen die voor die tijd
  • 0:13 - 0:15
    technisch onderlegd waren.
  • 0:15 - 0:17
    Met de groei van sociale media
  • 0:17 - 0:20
    en sociale netwerken
    in de beginjaren 2000,
  • 0:20 - 0:21
    veranderde het internet volkomen
  • 0:21 - 0:25
    tot een plek waar nu
    de meeste inhoud van het internet
  • 0:25 - 0:28
    door gemiddelde gebruikers
    wordt geleverd.
  • 0:28 - 0:31
    Zij het in YouTube-video's of weblogs
  • 0:31 - 0:34
    of productbesprekingen
    of in sociale media.
  • 0:34 - 0:37
    Het wordt ook
    een steeds interactievere plek,
  • 0:37 - 0:39
    waar mensen interactief zijn met elkaar.
  • 0:39 - 0:41
    Ze geven commentaar en delen,
  • 0:41 - 0:43
    ze lezen niet alleen maar.
  • 0:43 - 0:44
    Facebook is er niet de enige plek voor,
  • 0:44 - 0:46
    maar wel de grootste.
  • 0:46 - 0:47
    De cijfers spreken boekdelen.
  • 0:47 - 0:51
    Facebook heeft 1,2 miljard
    gebruikers per maand.
  • 0:51 - 0:54
    Dus de helft van alle internetgebruikers
    gebruikt Facebook.
  • 0:54 - 0:57
    Op deze website, net als op andere,
  • 0:57 - 0:59
    kunnen mensen
    zonder veel technische kennis
  • 0:59 - 1:01
    een online persona creëren.
  • 1:01 - 1:03
    Men reageerde daarop
  • 1:03 - 1:06
    door enorm veel persoonlijke gegevens
    online te zetten.
  • 1:06 - 1:09
    Het gevolg is dat we gedrag, voorkeuren
  • 1:09 - 1:10
    en demografische gegevens
  • 1:10 - 1:12
    van honderden miljoenen mensen kennen,
  • 1:12 - 1:14
    wat ongeëvenaard is in de geschiedenis.
  • 1:14 - 1:18
    Als computerwetenschapper
    kan ik daardoor modellen maken
  • 1:18 - 1:21
    die allerlei verborgen kenmerken
    over je kunnen voorspellen
  • 1:21 - 1:24
    waarvan jullie zelf niet eens weten
  • 1:24 - 1:25
    dat je er informatie over deelt.
  • 1:25 - 1:27
    Als wetenschappers
    gebruiken we dat
  • 1:27 - 1:30
    om mensen te helpen
    bij hun online gedrag.
  • 1:30 - 1:32
    Maar er zijn ook minder
    menslievende toepassingen.
  • 1:32 - 1:35
    Het probleem is dat gebruikers
  • 1:35 - 1:37
    de werking van deze technieken
    niet goed snappen.
  • 1:37 - 1:40
    Zelfs dan nog hebben ze er
    niet veel controle over.
  • 1:40 - 1:43
    Ik heb het vandaag over dingen
  • 1:43 - 1:45
    die we kunnen doen
  • 1:45 - 1:47
    om te begrijpen hoe we
    vooruit kunnen gaan
  • 1:47 - 1:50
    en die controle kunnen
    teruggeven aan de gebruiker.
  • 1:50 - 1:52
    Dit is Target, het bedrijf.
  • 1:52 - 1:54
    Ik heb dat logo niet zomaar
    op de buik gedaan
  • 1:54 - 1:55
    van deze arme zwangere vrouw.
  • 1:55 - 1:57
    Misschien heb je het verhaal gelezen
  • 1:57 - 1:59
    in het tijdschrift Forbes
    over Target, die
  • 1:59 - 2:02
    een folder stuurde
    naar een 15-jarig meisje
  • 2:02 - 2:03
    met advertenties en tegoedbonnen
  • 2:03 - 2:06
    voor babyflesjes en luiers en bedjes,
  • 2:06 - 2:08
    twee weken voor ze
    haar ouders vertelde
  • 2:08 - 2:09
    dat ze zwanger was.
  • 2:09 - 2:12
    Tja, de vader was nogal overstuur.
  • 2:12 - 2:14
    Hij zei: "Hoe weet Target
  • 2:14 - 2:16
    dat dit schoolkind zwanger was
  • 2:16 - 2:18
    voordat ze het haar ouders vertelde?"
  • 2:18 - 2:20
    Het bleek dat ze koopgegevens hebben
  • 2:20 - 2:22
    van honderdduizenden klanten.
  • 2:22 - 2:25
    Ze berekenen wat ze noemen
    een zwangerschaps-score.
  • 2:25 - 2:27
    Niet óf een vrouw zwanger is
  • 2:27 - 2:29
    maar wanneer ze uitgeteld is.
  • 2:29 - 2:31
    Ze berekenden dat niet
  • 2:31 - 2:32
    aan de hand van bekende dingen
  • 2:32 - 2:35
    zoals het kopen van
    een bedje of kleertjes,
  • 2:35 - 2:39
    maar omdat ze bijvoorbeeld
    meer vitaminen kocht dan normaal,
  • 2:39 - 2:41
    of ze kocht een handtas
  • 2:41 - 2:43
    die groot genoeg is voor luiers.
  • 2:43 - 2:46
    En elk op zichzelf
    onthult dat niet veel
  • 2:46 - 2:49
    maar als je deze gedragspatronen
  • 2:49 - 2:52
    bij duizenden mensen bekijkt,
  • 2:52 - 2:55
    geeft dit daadwerkelijk
    bepaalde inzichten.
  • 2:55 - 2:57
    Dat zijn we aan het doen
  • 2:57 - 2:59
    als we dingen voorspellen
    over jou en sociale media.
  • 2:59 - 3:02
    We kijken naar subtiele
    gedragspatronen die,
  • 3:02 - 3:05
    als je dat ziet bij miljoenen mensen,
  • 3:05 - 3:07
    allerlei dingen onthullen.
  • 3:07 - 3:09
    In mijn lab met mijn collega's,
  • 3:09 - 3:13
    hebben we bedacht hoe we dingen
    aardig kunnen voorspellen
  • 3:13 - 3:14
    zoals je politieke voorkeur,
  • 3:14 - 3:18
    je persoonlijkheid, aard,
    seksuele voorkeur,
  • 3:18 - 3:21
    geloof, leeftijd, intelligentie,
  • 3:21 - 3:22
    en nog veel meer:
  • 3:22 - 3:24
    in hoeverre je je kennissen vertrouwt
  • 3:24 - 3:26
    en hoe sterk je relatie met hen is.
  • 3:26 - 3:28
    We kunnen dat behoorlijk goed.
  • 3:28 - 3:30
    Het komt niet van wat je zou denken,
  • 3:30 - 3:32
    uit voor de hand liggende informatie.
  • 3:32 - 3:34
    Mijn favoriete voorbeeld
    is van een onderzoek
  • 3:34 - 3:36
    dat dit jaar stond
  • 3:36 - 3:37
    in het tijdschrift PNAS.
  • 3:37 - 3:39
    Googel maar eens.
  • 3:39 - 3:41
    Vier pagina's, goed leesbaar.
  • 3:41 - 3:44
    Ze keken alleen
    naar de 'likes' op Facebook.
  • 3:44 - 3:46
    Dus: dingen die je
    leuk vindt op Facebook.
  • 3:46 - 3:48
    Ze gebruikten dat
    om die kenmerken te voorspellen
  • 3:48 - 3:50
    en nog wat andere dingen.
  • 3:50 - 3:52
    In hun scriptie noemden ze de vijf 'likes'
  • 3:52 - 3:55
    die het sterkst wezen
    op een hoge intelligentie.
  • 3:55 - 3:57
    Daartussen stond ook het 'liken'
  • 3:57 - 3:59
    van krulfriet.
    (Gelach)
  • 3:59 - 4:01
    Krulfriet is heerlijk,
  • 4:01 - 4:04
    maar ervan houden
    betekent niet per se
  • 4:04 - 4:06
    dat je slimmer bent dan gemiddeld.
  • 4:06 - 4:09
    Hoe kan het dan dat
    een van de sterkste aanwijzingen
  • 4:09 - 4:11
    over je intelligentie
  • 4:11 - 4:12
    het 'liken' van deze pagina is
  • 4:12 - 4:14
    als de inhoud totaal los staat
  • 4:14 - 4:17
    van het kenmerk dat voorspeld wordt?
  • 4:17 - 4:19
    Het blijkt dat we moeten kijken
  • 4:19 - 4:20
    naar onderliggende theorieën
  • 4:20 - 4:23
    om te zien hoe we dat kunnen doen.
  • 4:23 - 4:26
    Een ervan is een sociologische theorie
    die homofilie heet.
  • 4:26 - 4:29
    Je bent bevriend
    met mensen zoals jezelf.
  • 4:29 - 4:31
    Slimme mensen
    hebben slimme vrienden.
  • 4:31 - 4:33
    Als je jong bent
    heb je jonge vrienden.
  • 4:33 - 4:37
    Dat is al eeuwen ingeburgerd.
  • 4:37 - 4:38
    We weten ook veel over
  • 4:38 - 4:41
    hoe informatie wordt verspreid
    in netwerken.
  • 4:41 - 4:42
    Het blijkt dat virale video's
  • 4:42 - 4:45
    of likes op Facebook en andere informatie
  • 4:45 - 4:47
    zich op precies dezelfde
    manier verspreiden
  • 4:47 - 4:49
    als ziektes in een sociaal netwerk.
  • 4:49 - 4:51
    Dat hebben we lang bestudeerd.
  • 4:51 - 4:52
    We hebben er goede modellen voor.
  • 4:52 - 4:55
    Je kan die dingen dus naast elkaar zetten
  • 4:55 - 4:58
    en zien waarom zulke dingen gebeuren.
  • 4:58 - 5:01
    Mijn hypothese is
    dat een slim iemand
  • 5:01 - 5:02
    deze pagina is begonnen,
  • 5:02 - 5:05
    of dat één van de eersten
    die het 'liketen'
  • 5:05 - 5:06
    hoog scoorde in die test.
  • 5:06 - 5:09
    Zij 'liketen' het
    en hun vrienden zagen dat,
  • 5:09 - 5:12
    en door homofilie weten we
    dat hij slimme vrienden zal hebben.
  • 5:12 - 5:15
    Zo kregen zij het te zien
    en sommigen 'liketen' het
  • 5:15 - 5:17
    en zo kwam het bij hún slimme vrienden,
  • 5:17 - 5:19
    en verspreidde zich
    via dit netwerk
  • 5:19 - 5:21
    naar heel veel slimme mensen
  • 5:21 - 5:23
    zodat aan het einde
  • 5:23 - 5:26
    het 'liken' van de krulfriet-pagina
  • 5:26 - 5:28
    intelligentie impliceert.
  • 5:28 - 5:29
    Niet vanwege de inhoud
  • 5:29 - 5:32
    maar omdat de handeling van het 'liken'
  • 5:32 - 5:34
    de bekende eigenschappen teruggeeft
  • 5:34 - 5:36
    van anderen die dat hebben gedaan.
  • 5:36 - 5:39
    Dat is nogal ingewikkeld hè?
  • 5:39 - 5:41
    Het is moeilijk uit te leggen
  • 5:41 - 5:44
    aan de gemiddelde gebruiker,
    en al leg je het uit,
  • 5:44 - 5:46
    wat kan die gemiddelde gebruiker
    eraan doen?
  • 5:46 - 5:48
    Hoe weet je dat een 'like'
  • 5:48 - 5:50
    iets impliceert over jou,
  • 5:50 - 5:53
    dat helemaal los staat
    van de inhoud die je 'liket'?
  • 5:53 - 5:56
    Er is veel macht
    die gebruikers niet hebben
  • 5:56 - 5:58
    om te bepalen
    hoe de gegevens worden gebruikt.
  • 5:58 - 6:01
    Ik zie dat als een probleem
    dat steeds groter wordt.
  • 6:01 - 6:04
    Ik denk dat we een aantal
    richtingen op kunnen
  • 6:04 - 6:06
    als we de gebruikers
    willen laten bepalen
  • 6:06 - 6:08
    hoe die gegevens worden gebruikt,
  • 6:08 - 6:11
    want het wordt niet altijd
    in hun voordeel gebruikt.
  • 6:11 - 6:14
    Ik zeg vaak:
    als professor zijn me gaat vervelen,
  • 6:14 - 6:16
    ga ik een bedrijf beginnen
  • 6:16 - 6:18
    dat eigenschappen voorspelt.
  • 6:18 - 6:19
    Dingen als teamwork
  • 6:19 - 6:22
    en of drugs gebruikt,
    of je alcoholist bent.
  • 6:22 - 6:23
    We weten hoe je dat voorspelt.
  • 6:23 - 6:25
    Ik ga verslagen verkopen
  • 6:25 - 6:27
    aan HR-firma's en grote ondernemingen
  • 6:27 - 6:29
    die je willen inhuren.
  • 6:29 - 6:31
    We kunnen dat allemaal al.
  • 6:31 - 6:32
    Ik kan dat bedrijf morgen beginnen
  • 6:32 - 6:35
    en jij zou niet kunnen voorkomen
  • 6:35 - 6:36
    dat ik jouw gegevens zo gebruik.
  • 6:36 - 6:39
    Dat lijkt me wel een probleem.
  • 6:39 - 6:40
    Eén mogelijkheid is
  • 6:40 - 6:43
    dat we ons richten
    op beleid en wetgeving.
  • 6:43 - 6:46
    In sommige opzichten zou dat
    het effectiefst zijn
  • 6:46 - 6:49
    maar het probleem is
    om het daadwerkelijk te doen.
  • 6:49 - 6:51
    Als ik kijk naar de politiek
  • 6:51 - 6:54
    dan lijkt me het niet waarschijnlijk
  • 6:54 - 6:55
    dat we vertegenwoordigers krijgen
  • 6:55 - 6:57
    die zich hier
    grondig over informeren
  • 6:57 - 7:01
    en dan het intellectueel eigendomsrecht
    ingrijpend gaan veranderen,
  • 7:01 - 7:04
    zodat gebruikers controle krijgen
    over hun gegevens.
  • 7:04 - 7:06
    Je kan het beleidsmatig doen,
  • 7:06 - 7:07
    als sociale mediabedrijven
  • 7:07 - 7:10
    jou volledige controle geven
    over je gegevens.
  • 7:10 - 7:14
    Maar de verdienmodellen
    van de meeste sociale mediabedrijven
  • 7:14 - 7:18
    berusten op het delen of uitbaten
    van de gebruikersgegevens.
  • 7:18 - 7:23
    Ze zeggen van Facebook dat de gebruikers
    niet de klant zijn, maar het product.
  • 7:23 - 7:25
    Hoe krijg je dan een bedrijf zover
  • 7:25 - 7:28
    dat ze de macht
    over hun belangrijkste troef
  • 7:28 - 7:29
    teruggeven aan de klant?
  • 7:29 - 7:31
    Het is mogelijk, maar ik denk niet
  • 7:31 - 7:33
    dat we dat snel
    zullen zien veranderen.
  • 7:33 - 7:36
    Ik denk dat het op
    een effectievere manier kan
  • 7:36 - 7:38
    door middel van
    meer wetenschap.
  • 7:38 - 7:40
    Door wetenschap te bedrijven
  • 7:40 - 7:43
    konden we de
    mechanismes ontwikkelen
  • 7:43 - 7:45
    om persoonlijke gegevens te berekenen.
  • 7:45 - 7:47
    Dat is bijna hetzelfde onderzoek
  • 7:47 - 7:48
    dat we zouden moeten doen
  • 7:48 - 7:51
    als we mechanismes willen ontwikkelen
  • 7:51 - 7:52
    die een gebruiker zeggen:
  • 7:52 - 7:54
    "Dit is het risico
    van wat je zojuist deed."
  • 7:54 - 7:57
    Doordat jij deze Facebook-pagina 'liket',
  • 7:57 - 7:59
    of deze persoonlijke informatie deelt,
  • 7:59 - 8:01
    kan ik nu beter voorspellen
  • 8:01 - 8:03
    of je drugs gebruikt
  • 8:03 - 8:05
    en of je populair bent op je werk.
  • 8:05 - 8:08
    Dat kan volgens mij
    beïnvloeden of mensen
  • 8:08 - 8:10
    wel of niet iets willen delen,
  • 8:10 - 8:12
    het afgeschermd houden
    of het offline houden.
  • 8:12 - 8:14
    Ook zouden we mensen
  • 8:14 - 8:16
    in staat kunnen stellen
    hun geüploade data te versleutelen
  • 8:16 - 8:18
    zodat die onzichtbaar
    en waardeloos wordt
  • 8:18 - 8:20
    voor sites als Facebook
  • 8:20 - 8:22
    of derde partijen die erbij kunnen.
  • 8:22 - 8:25
    Dan bepaalt degene
    die het gepost heeft
  • 8:25 - 8:28
    welke gebruikers toegang hebben.
  • 8:28 - 8:30
    Dat is allemaal erg spannend onderzoek
  • 8:30 - 8:32
    vanuit intellectueel oogpunt,
  • 8:32 - 8:34
    dus doen wetenschappers het graag.
  • 8:34 - 8:37
    Dat geeft ons een voordeel
    ten opzichte van de juridische optie.
  • 8:37 - 8:39
    Een probleem dat mensen aandragen
  • 8:39 - 8:41
    als ik hierover praat is:
  • 8:41 - 8:43
    "Als mensen die gegevens
    voor zichzelf houden,
  • 8:43 - 8:45
    werken al jouw methodes
  • 8:45 - 8:48
    om hun eigenschappen
    te voorspellen niet meer."
  • 8:48 - 8:52
    Ik zeg dan: "Jazeker,
    en dat noem ik succes,
  • 8:52 - 8:53
    want als wetenschapper
  • 8:53 - 8:57
    is mijn doel niet om informatie
    over gebruikers te krijgen,
  • 8:57 - 9:00
    maar om de interactie
    online te verbeteren.
  • 9:00 - 9:03
    Soms houdt dat in dat
    je gegevens van hen achterhaalt,
  • 9:03 - 9:06
    maar als gebruikers
    niet willen dat ik die gebruik,
  • 9:06 - 9:08
    moeten ze dat recht hebben.
  • 9:08 - 9:10
    Ik wil dat gebruikers geïnformeerd zijn
  • 9:10 - 9:13
    en instemmen met de tools
    die we maken.
  • 9:13 - 9:16
    Deze manier van wetenschap aanmoedigen
  • 9:16 - 9:17
    en onderzoekers ondersteunen
  • 9:17 - 9:21
    die wat zeggenschap
    teruggeven aan de gebruikers
  • 9:21 - 9:23
    ten koste van de
    sociale mediabedrijven,
  • 9:23 - 9:26
    betekent dat we met de
    verbeteringen van deze tools
  • 9:26 - 9:30
    ook beter onderlegde gebruikers
    met betere middelen krijgen.
  • 9:30 - 9:32
    Ik denk dat we dat allemaal
  • 9:32 - 9:34
    een vrij ideale weg
    voorwaarts vinden.
  • 9:34 - 9:36
    Dank je wel.
  • 9:36 - 9:39
    (Applaus)
Title:
Het krulfriet-raadsel: waarom een 'like' in de sociale media meer zegt dan je denkt
Speaker:
Jennifer Golbeck
Description:

Er kan veel worden gedaan met online gegevens. Maar wist je dat computerexperts wel eens hebben vastgesteld dat je intelligent bent als je een Facebook-pagina over krulfriet een "like" geeft? Echt waar. Informaticawetenschapper Jennifer Golbeck legt uit hoe dat kan, hoe sommige toepassingen van de technologie niet zo goedaardig zijn - en waarom ze denkt dat we de controle over de informatie terug moeten geven aan de rechtmatige eigenaren.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Dutch subtitles

Revisions Compare revisions