Het krulfriet-raadsel: waarom een 'like' in de sociale media meer zegt dan je denkt
-
0:01 - 0:03De eerste tien jaar was internet
-
0:03 - 0:05een nogal statische plek.
-
0:05 - 0:07Je kon online gaan
en pagina's bekijken -
0:07 - 0:09die erop gezet waren
-
0:09 - 0:11door organisaties,
waar teams dat deden, -
0:11 - 0:13of door mensen die voor die tijd
-
0:13 - 0:15technisch onderlegd waren.
-
0:15 - 0:17Met de groei van sociale media
-
0:17 - 0:20en sociale netwerken
in de beginjaren 2000, -
0:20 - 0:21veranderde het internet volkomen
-
0:21 - 0:25tot een plek waar nu
de meeste inhoud van het internet -
0:25 - 0:28door gemiddelde gebruikers
wordt geleverd. -
0:28 - 0:31Zij het in YouTube-video's of weblogs
-
0:31 - 0:34of productbesprekingen
of in sociale media. -
0:34 - 0:37Het wordt ook
een steeds interactievere plek, -
0:37 - 0:39waar mensen interactief zijn met elkaar.
-
0:39 - 0:41Ze geven commentaar en delen,
-
0:41 - 0:43ze lezen niet alleen maar.
-
0:43 - 0:44Facebook is er niet de enige plek voor,
-
0:44 - 0:46maar wel de grootste.
-
0:46 - 0:47De cijfers spreken boekdelen.
-
0:47 - 0:51Facebook heeft 1,2 miljard
gebruikers per maand. -
0:51 - 0:54Dus de helft van alle internetgebruikers
gebruikt Facebook. -
0:54 - 0:57Op deze website, net als op andere,
-
0:57 - 0:59kunnen mensen
zonder veel technische kennis -
0:59 - 1:01een online persona creëren.
-
1:01 - 1:03Men reageerde daarop
-
1:03 - 1:06door enorm veel persoonlijke gegevens
online te zetten. -
1:06 - 1:09Het gevolg is dat we gedrag, voorkeuren
-
1:09 - 1:10en demografische gegevens
-
1:10 - 1:12van honderden miljoenen mensen kennen,
-
1:12 - 1:14wat ongeëvenaard is in de geschiedenis.
-
1:14 - 1:18Als computerwetenschapper
kan ik daardoor modellen maken -
1:18 - 1:21die allerlei verborgen kenmerken
over je kunnen voorspellen -
1:21 - 1:24waarvan jullie zelf niet eens weten
-
1:24 - 1:25dat je er informatie over deelt.
-
1:25 - 1:27Als wetenschappers
gebruiken we dat -
1:27 - 1:30om mensen te helpen
bij hun online gedrag. -
1:30 - 1:32Maar er zijn ook minder
menslievende toepassingen. -
1:32 - 1:35Het probleem is dat gebruikers
-
1:35 - 1:37de werking van deze technieken
niet goed snappen. -
1:37 - 1:40Zelfs dan nog hebben ze er
niet veel controle over. -
1:40 - 1:43Ik heb het vandaag over dingen
-
1:43 - 1:45die we kunnen doen
-
1:45 - 1:47om te begrijpen hoe we
vooruit kunnen gaan -
1:47 - 1:50en die controle kunnen
teruggeven aan de gebruiker. -
1:50 - 1:52Dit is Target, het bedrijf.
-
1:52 - 1:54Ik heb dat logo niet zomaar
op de buik gedaan -
1:54 - 1:55van deze arme zwangere vrouw.
-
1:55 - 1:57Misschien heb je het verhaal gelezen
-
1:57 - 1:59in het tijdschrift Forbes
over Target, die -
1:59 - 2:02een folder stuurde
naar een 15-jarig meisje -
2:02 - 2:03met advertenties en tegoedbonnen
-
2:03 - 2:06voor babyflesjes en luiers en bedjes,
-
2:06 - 2:08twee weken voor ze
haar ouders vertelde -
2:08 - 2:09dat ze zwanger was.
-
2:09 - 2:12Tja, de vader was nogal overstuur.
-
2:12 - 2:14Hij zei: "Hoe weet Target
-
2:14 - 2:16dat dit schoolkind zwanger was
-
2:16 - 2:18voordat ze het haar ouders vertelde?"
-
2:18 - 2:20Het bleek dat ze koopgegevens hebben
-
2:20 - 2:22van honderdduizenden klanten.
-
2:22 - 2:25Ze berekenen wat ze noemen
een zwangerschaps-score. -
2:25 - 2:27Niet óf een vrouw zwanger is
-
2:27 - 2:29maar wanneer ze uitgeteld is.
-
2:29 - 2:31Ze berekenden dat niet
-
2:31 - 2:32aan de hand van bekende dingen
-
2:32 - 2:35zoals het kopen van
een bedje of kleertjes, -
2:35 - 2:39maar omdat ze bijvoorbeeld
meer vitaminen kocht dan normaal, -
2:39 - 2:41of ze kocht een handtas
-
2:41 - 2:43die groot genoeg is voor luiers.
-
2:43 - 2:46En elk op zichzelf
onthult dat niet veel -
2:46 - 2:49maar als je deze gedragspatronen
-
2:49 - 2:52bij duizenden mensen bekijkt,
-
2:52 - 2:55geeft dit daadwerkelijk
bepaalde inzichten. -
2:55 - 2:57Dat zijn we aan het doen
-
2:57 - 2:59als we dingen voorspellen
over jou en sociale media. -
2:59 - 3:02We kijken naar subtiele
gedragspatronen die, -
3:02 - 3:05als je dat ziet bij miljoenen mensen,
-
3:05 - 3:07allerlei dingen onthullen.
-
3:07 - 3:09In mijn lab met mijn collega's,
-
3:09 - 3:13hebben we bedacht hoe we dingen
aardig kunnen voorspellen -
3:13 - 3:14zoals je politieke voorkeur,
-
3:14 - 3:18je persoonlijkheid, aard,
seksuele voorkeur, -
3:18 - 3:21geloof, leeftijd, intelligentie,
-
3:21 - 3:22en nog veel meer:
-
3:22 - 3:24in hoeverre je je kennissen vertrouwt
-
3:24 - 3:26en hoe sterk je relatie met hen is.
-
3:26 - 3:28We kunnen dat behoorlijk goed.
-
3:28 - 3:30Het komt niet van wat je zou denken,
-
3:30 - 3:32uit voor de hand liggende informatie.
-
3:32 - 3:34Mijn favoriete voorbeeld
is van een onderzoek -
3:34 - 3:36dat dit jaar stond
-
3:36 - 3:37in het tijdschrift PNAS.
-
3:37 - 3:39Googel maar eens.
-
3:39 - 3:41Vier pagina's, goed leesbaar.
-
3:41 - 3:44Ze keken alleen
naar de 'likes' op Facebook. -
3:44 - 3:46Dus: dingen die je
leuk vindt op Facebook. -
3:46 - 3:48Ze gebruikten dat
om die kenmerken te voorspellen -
3:48 - 3:50en nog wat andere dingen.
-
3:50 - 3:52In hun scriptie noemden ze de vijf 'likes'
-
3:52 - 3:55die het sterkst wezen
op een hoge intelligentie. -
3:55 - 3:57Daartussen stond ook het 'liken'
-
3:57 - 3:59van krulfriet.
(Gelach) -
3:59 - 4:01Krulfriet is heerlijk,
-
4:01 - 4:04maar ervan houden
betekent niet per se -
4:04 - 4:06dat je slimmer bent dan gemiddeld.
-
4:06 - 4:09Hoe kan het dan dat
een van de sterkste aanwijzingen -
4:09 - 4:11over je intelligentie
-
4:11 - 4:12het 'liken' van deze pagina is
-
4:12 - 4:14als de inhoud totaal los staat
-
4:14 - 4:17van het kenmerk dat voorspeld wordt?
-
4:17 - 4:19Het blijkt dat we moeten kijken
-
4:19 - 4:20naar onderliggende theorieën
-
4:20 - 4:23om te zien hoe we dat kunnen doen.
-
4:23 - 4:26Een ervan is een sociologische theorie
die homofilie heet. -
4:26 - 4:29Je bent bevriend
met mensen zoals jezelf. -
4:29 - 4:31Slimme mensen
hebben slimme vrienden. -
4:31 - 4:33Als je jong bent
heb je jonge vrienden. -
4:33 - 4:37Dat is al eeuwen ingeburgerd.
-
4:37 - 4:38We weten ook veel over
-
4:38 - 4:41hoe informatie wordt verspreid
in netwerken. -
4:41 - 4:42Het blijkt dat virale video's
-
4:42 - 4:45of likes op Facebook en andere informatie
-
4:45 - 4:47zich op precies dezelfde
manier verspreiden -
4:47 - 4:49als ziektes in een sociaal netwerk.
-
4:49 - 4:51Dat hebben we lang bestudeerd.
-
4:51 - 4:52We hebben er goede modellen voor.
-
4:52 - 4:55Je kan die dingen dus naast elkaar zetten
-
4:55 - 4:58en zien waarom zulke dingen gebeuren.
-
4:58 - 5:01Mijn hypothese is
dat een slim iemand -
5:01 - 5:02deze pagina is begonnen,
-
5:02 - 5:05of dat één van de eersten
die het 'liketen' -
5:05 - 5:06hoog scoorde in die test.
-
5:06 - 5:09Zij 'liketen' het
en hun vrienden zagen dat, -
5:09 - 5:12en door homofilie weten we
dat hij slimme vrienden zal hebben. -
5:12 - 5:15Zo kregen zij het te zien
en sommigen 'liketen' het -
5:15 - 5:17en zo kwam het bij hún slimme vrienden,
-
5:17 - 5:19en verspreidde zich
via dit netwerk -
5:19 - 5:21naar heel veel slimme mensen
-
5:21 - 5:23zodat aan het einde
-
5:23 - 5:26het 'liken' van de krulfriet-pagina
-
5:26 - 5:28intelligentie impliceert.
-
5:28 - 5:29Niet vanwege de inhoud
-
5:29 - 5:32maar omdat de handeling van het 'liken'
-
5:32 - 5:34de bekende eigenschappen teruggeeft
-
5:34 - 5:36van anderen die dat hebben gedaan.
-
5:36 - 5:39Dat is nogal ingewikkeld hè?
-
5:39 - 5:41Het is moeilijk uit te leggen
-
5:41 - 5:44aan de gemiddelde gebruiker,
en al leg je het uit, -
5:44 - 5:46wat kan die gemiddelde gebruiker
eraan doen? -
5:46 - 5:48Hoe weet je dat een 'like'
-
5:48 - 5:50iets impliceert over jou,
-
5:50 - 5:53dat helemaal los staat
van de inhoud die je 'liket'? -
5:53 - 5:56Er is veel macht
die gebruikers niet hebben -
5:56 - 5:58om te bepalen
hoe de gegevens worden gebruikt. -
5:58 - 6:01Ik zie dat als een probleem
dat steeds groter wordt. -
6:01 - 6:04Ik denk dat we een aantal
richtingen op kunnen -
6:04 - 6:06als we de gebruikers
willen laten bepalen -
6:06 - 6:08hoe die gegevens worden gebruikt,
-
6:08 - 6:11want het wordt niet altijd
in hun voordeel gebruikt. -
6:11 - 6:14Ik zeg vaak:
als professor zijn me gaat vervelen, -
6:14 - 6:16ga ik een bedrijf beginnen
-
6:16 - 6:18dat eigenschappen voorspelt.
-
6:18 - 6:19Dingen als teamwork
-
6:19 - 6:22en of drugs gebruikt,
of je alcoholist bent. -
6:22 - 6:23We weten hoe je dat voorspelt.
-
6:23 - 6:25Ik ga verslagen verkopen
-
6:25 - 6:27aan HR-firma's en grote ondernemingen
-
6:27 - 6:29die je willen inhuren.
-
6:29 - 6:31We kunnen dat allemaal al.
-
6:31 - 6:32Ik kan dat bedrijf morgen beginnen
-
6:32 - 6:35en jij zou niet kunnen voorkomen
-
6:35 - 6:36dat ik jouw gegevens zo gebruik.
-
6:36 - 6:39Dat lijkt me wel een probleem.
-
6:39 - 6:40Eén mogelijkheid is
-
6:40 - 6:43dat we ons richten
op beleid en wetgeving. -
6:43 - 6:46In sommige opzichten zou dat
het effectiefst zijn -
6:46 - 6:49maar het probleem is
om het daadwerkelijk te doen. -
6:49 - 6:51Als ik kijk naar de politiek
-
6:51 - 6:54dan lijkt me het niet waarschijnlijk
-
6:54 - 6:55dat we vertegenwoordigers krijgen
-
6:55 - 6:57die zich hier
grondig over informeren -
6:57 - 7:01en dan het intellectueel eigendomsrecht
ingrijpend gaan veranderen, -
7:01 - 7:04zodat gebruikers controle krijgen
over hun gegevens. -
7:04 - 7:06Je kan het beleidsmatig doen,
-
7:06 - 7:07als sociale mediabedrijven
-
7:07 - 7:10jou volledige controle geven
over je gegevens. -
7:10 - 7:14Maar de verdienmodellen
van de meeste sociale mediabedrijven -
7:14 - 7:18berusten op het delen of uitbaten
van de gebruikersgegevens. -
7:18 - 7:23Ze zeggen van Facebook dat de gebruikers
niet de klant zijn, maar het product. -
7:23 - 7:25Hoe krijg je dan een bedrijf zover
-
7:25 - 7:28dat ze de macht
over hun belangrijkste troef -
7:28 - 7:29teruggeven aan de klant?
-
7:29 - 7:31Het is mogelijk, maar ik denk niet
-
7:31 - 7:33dat we dat snel
zullen zien veranderen. -
7:33 - 7:36Ik denk dat het op
een effectievere manier kan -
7:36 - 7:38door middel van
meer wetenschap. -
7:38 - 7:40Door wetenschap te bedrijven
-
7:40 - 7:43konden we de
mechanismes ontwikkelen -
7:43 - 7:45om persoonlijke gegevens te berekenen.
-
7:45 - 7:47Dat is bijna hetzelfde onderzoek
-
7:47 - 7:48dat we zouden moeten doen
-
7:48 - 7:51als we mechanismes willen ontwikkelen
-
7:51 - 7:52die een gebruiker zeggen:
-
7:52 - 7:54"Dit is het risico
van wat je zojuist deed." -
7:54 - 7:57Doordat jij deze Facebook-pagina 'liket',
-
7:57 - 7:59of deze persoonlijke informatie deelt,
-
7:59 - 8:01kan ik nu beter voorspellen
-
8:01 - 8:03of je drugs gebruikt
-
8:03 - 8:05en of je populair bent op je werk.
-
8:05 - 8:08Dat kan volgens mij
beïnvloeden of mensen -
8:08 - 8:10wel of niet iets willen delen,
-
8:10 - 8:12het afgeschermd houden
of het offline houden. -
8:12 - 8:14Ook zouden we mensen
-
8:14 - 8:16in staat kunnen stellen
hun geüploade data te versleutelen -
8:16 - 8:18zodat die onzichtbaar
en waardeloos wordt -
8:18 - 8:20voor sites als Facebook
-
8:20 - 8:22of derde partijen die erbij kunnen.
-
8:22 - 8:25Dan bepaalt degene
die het gepost heeft -
8:25 - 8:28welke gebruikers toegang hebben.
-
8:28 - 8:30Dat is allemaal erg spannend onderzoek
-
8:30 - 8:32vanuit intellectueel oogpunt,
-
8:32 - 8:34dus doen wetenschappers het graag.
-
8:34 - 8:37Dat geeft ons een voordeel
ten opzichte van de juridische optie. -
8:37 - 8:39Een probleem dat mensen aandragen
-
8:39 - 8:41als ik hierover praat is:
-
8:41 - 8:43"Als mensen die gegevens
voor zichzelf houden, -
8:43 - 8:45werken al jouw methodes
-
8:45 - 8:48om hun eigenschappen
te voorspellen niet meer." -
8:48 - 8:52Ik zeg dan: "Jazeker,
en dat noem ik succes, -
8:52 - 8:53want als wetenschapper
-
8:53 - 8:57is mijn doel niet om informatie
over gebruikers te krijgen, -
8:57 - 9:00maar om de interactie
online te verbeteren. -
9:00 - 9:03Soms houdt dat in dat
je gegevens van hen achterhaalt, -
9:03 - 9:06maar als gebruikers
niet willen dat ik die gebruik, -
9:06 - 9:08moeten ze dat recht hebben.
-
9:08 - 9:10Ik wil dat gebruikers geïnformeerd zijn
-
9:10 - 9:13en instemmen met de tools
die we maken. -
9:13 - 9:16Deze manier van wetenschap aanmoedigen
-
9:16 - 9:17en onderzoekers ondersteunen
-
9:17 - 9:21die wat zeggenschap
teruggeven aan de gebruikers -
9:21 - 9:23ten koste van de
sociale mediabedrijven, -
9:23 - 9:26betekent dat we met de
verbeteringen van deze tools -
9:26 - 9:30ook beter onderlegde gebruikers
met betere middelen krijgen. -
9:30 - 9:32Ik denk dat we dat allemaal
-
9:32 - 9:34een vrij ideale weg
voorwaarts vinden. -
9:34 - 9:36Dank je wel.
-
9:36 - 9:39(Applaus)
- Title:
- Het krulfriet-raadsel: waarom een 'like' in de sociale media meer zegt dan je denkt
- Speaker:
- Jennifer Golbeck
- Description:
-
Er kan veel worden gedaan met online gegevens. Maar wist je dat computerexperts wel eens hebben vastgesteld dat je intelligent bent als je een Facebook-pagina over krulfriet een "like" geeft? Echt waar. Informaticawetenschapper Jennifer Golbeck legt uit hoe dat kan, hoe sommige toepassingen van de technologie niet zo goedaardig zijn - en waarom ze denkt dat we de controle over de informatie terug moeten geven aan de rechtmatige eigenaren.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran approved Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think | ||
Axel Saffran edited Dutch subtitles for Your social media "likes" expose more than you think |
Kevin Deamandel
Ok! at 2:27.51 Due date refers to when the pregnancy is.