Das Spiralpommes-Rätsel: Warum ein "Gefällt mir" so viel mehr sagt, als Sie denken
-
0:00 - 0:03Erinnern Sie sich mal zurück:
In seinen ersten zehn Jahren -
0:03 - 0:05war das Internet sehr statisch.
-
0:05 - 0:08Man konnte online gehen
und sich Websites anschauen, -
0:08 - 0:10die entweder von Organisationen
-
0:10 - 0:12mit professionellen Teams betrieben wurden
-
0:12 - 0:15oder von Privatleuten, die für ihre Zeit
sehr technikversiert waren. -
0:15 - 0:17Mit dem Aufstieg der sozialen Medien
-
0:17 - 0:19und der sozialen Netzwerke
zu Beginn der 2000er -
0:19 - 0:21veränderte sich das Internet
von Grund auf: -
0:21 - 0:25Ein Ort, an dem
die große Mehrheit der Inhalte, -
0:25 - 0:28mit denen wir uns beschäftigen,
von durchschnittlichen Nutzern kommt, -
0:28 - 0:31ob als YouTube-Video oder als Blogeintrag,
-
0:31 - 0:34Produktrezension oder
Post bei einem sozialen Netzwerk. -
0:34 - 0:37Das Internet ist auch
viel interaktiver geworden. -
0:37 - 0:39Menschen treten miteinander in Kontakt,
-
0:39 - 0:41sie kommentieren, sie teilen,
-
0:41 - 0:42sie lesen nicht nur.
-
0:42 - 0:45Facebook ist nicht der einzige
Ort für solche Aktivitäten, -
0:45 - 0:46aber der größte,
-
0:46 - 0:48und zeigt das Ausmaß sehr gut.
-
0:48 - 0:51Facebook hat monatlich
1,2 Milliarden Nutzer. -
0:51 - 0:54Mehr als die Hälfte
aller Internetnutzer nutzt Facebook. -
0:54 - 0:56Es ist eine Website so wie andere auch,
-
0:56 - 1:00mit der Leute ohne große
technische Kenntnisse -
1:00 - 1:01ein virtuelles Ich erstellen können.
-
1:01 - 1:03Als Ergebnis stellten viele Leute
-
1:03 - 1:06eine Menge persönlicher Daten online.
-
1:06 - 1:08Wir haben jetzt also Daten zum Verhalten,
-
1:08 - 1:10zu Vorlieben und zur Demographie
-
1:10 - 1:12von hunderten Millionen von Leuten.
-
1:12 - 1:14Das gab es bisher noch nie.
-
1:14 - 1:18Als IT-Forscherin konnte ich
daher Modelle erstellen, -
1:18 - 1:21die alle möglichen versteckten
Eigenschaften errechnen können, -
1:21 - 1:23für Sie alle -- und Ihnen
ist nicht bewusst, -
1:23 - 1:25dass Sie Informationen darüber teilen.
-
1:25 - 1:28Als Forscher helfen wir Menschen dabei,
-
1:28 - 1:30online miteinander umgehen.
-
1:30 - 1:32Aber es gibt auch weniger
selbstlose Anwendungen. -
1:32 - 1:35Das Problem ist, dass Nutzer
nicht richtig verstehen, -
1:35 - 1:37wie diese Techniken funktionieren
-
1:37 - 1:40und auch wenn sie es täten,
könnten sie sie nicht steuern. -
1:40 - 1:42Heute möchte ich Ihnen sagen,
-
1:42 - 1:45was wir alles tun können
-
1:45 - 1:48und einige Wege aufzeigen,
wie es weitergehen kann, -
1:48 - 1:50um den Nutzern wieder mehr
Kontrolle zu geben. -
1:50 - 1:52Das hier ist das Unternehmen "Target".
-
1:52 - 1:54Das Logo ist nicht zufällig
-
1:54 - 1:56auf dem Bauch dieser armen Schwangeren.
-
1:56 - 1:58Sie kennen vielleicht die Geschichte,
-
1:58 - 2:00die im Magazin "Forbes" abgedruckt wurde.
-
2:00 - 2:03Darin schickte Target einem
15-jährigen Mädchen einen Flyer -
2:03 - 2:04mit Werbung und Gutscheinen
-
2:04 - 2:06für Babyfläschchen, Windeln und Bettchen,
-
2:06 - 2:08zwei Wochen bevor das Mädchen
-
2:08 - 2:10seinen Eltern von der
Schwangerschaft erzählte. -
2:10 - 2:12Ja, ihr Vater hat sich ziemlich aufgeregt.
-
2:12 - 2:14Er sagte: "Wie konnte Target herausfinden,
-
2:14 - 2:16dass eine Schülerin schwanger ist,
-
2:16 - 2:18noch bevor sie es
ihren Eltern erzählt hat?" -
2:18 - 2:21Es stellte sich heraus,
dass Target Einkaufsdaten -
2:21 - 2:23von hunderttausenden Kunden besitzt
-
2:23 - 2:25und daraus einen
"Schwangerschaftswert" errechnet. -
2:25 - 2:28Da geht es nicht nur um
eine mögliche Schwangerschaft, -
2:28 - 2:30sondern um das errechnete
Geburtsdatum des Kindes. -
2:30 - 2:32Das wird nicht errechnet,
-
2:32 - 2:34indem die offensichtlichen
Dinge angeschaut werden, -
2:34 - 2:36wie z. B. Kauf von
Babykleidung oder Bettchen, -
2:36 - 2:40sondern ob die Frau z. B.
mehr Vitamine als sonst kauft -
2:40 - 2:41oder eine Handtasche,
-
2:41 - 2:43die groß genug für Windeln ist.
-
2:43 - 2:45Diese Einkäufe an sich scheinen
-
2:45 - 2:47nicht so viel zu offenbaren,
-
2:47 - 2:49aber sie stehen für ein Verhaltensmuster,
-
2:49 - 2:52das im Kontext mit
tausenden anderen Menschen -
2:52 - 2:55doch einige Einblicke bietet.
-
2:55 - 2:57So werden also durch soziale Medien
-
2:57 - 2:59Dinge über Sie errechnet.
-
2:59 - 3:02Wir suchen nach kleinen Verhaltensmustern,
-
3:02 - 3:05die Millionen Menschen zeigen
-
3:05 - 3:07und die somit einiges aussagen.
-
3:07 - 3:09Zusammen mit meinen Kollegen
haben wir im Labor -
3:09 - 3:13Mechanismen entwickelt, um sehr
genau Dinge errechnen zu können: -
3:13 - 3:15Politische Vorlieben,
-
3:15 - 3:19persönliche Eigenschaften,
Geschlecht, sexuelle Orientierung, -
3:19 - 3:21Religion, Alter, Intelligenz,
-
3:21 - 3:24wie sehr Sie den Menschen
vertrauen, die Sie kennen, -
3:24 - 3:26und wie stark diese Beziehungen sind.
-
3:26 - 3:28Das alles können wir ziemlich gut.
-
3:28 - 3:32Diese Daten stammen nicht
aus offensichtlichen Informationen. -
3:32 - 3:34Mein Lieblingsbeispiel
stammt aus einer Studie, -
3:34 - 3:38die dieses Jahr in der Fachzeitschrift
"PNA S" veröffentlicht wurde. -
3:38 - 3:39Googeln Sie das mal.
-
3:39 - 3:41Es sind vier Seiten, leicht zu lesen.
-
3:41 - 3:45Es wurden nur die "Gefällt mir"-Angaben
auf Facebook untersucht -
3:45 - 3:48und dazu genutzt, um Eigenschaften
-
3:48 - 3:49und andere Dinge zu errechnen.
-
3:49 - 3:52In dieser Studie findet man
die fünf "Gefällt mir", -
3:52 - 3:55die meistens für hohe Intelligenz standen.
-
3:55 - 3:58Da war auch eine Seite
über Spiralpommes dabei. -
3:58 - 4:00(Gelächter)
-
4:00 - 4:01Spiralpommes sind lecker,
-
4:01 - 4:04aber ein "Gefällt mir"
heißt noch lange nicht, -
4:04 - 4:06dass Sie klüger sind als der Durchschnitt.
-
4:06 - 4:10Wie kann einer der stärksten
Hinweise auf Intelligenz -
4:10 - 4:12das "Gefällt mir" für diese Seite sein,
-
4:12 - 4:15wenn der Inhalt
für das Errechnen der Eigenschaft -
4:15 - 4:17eigentlich völlig irrelevant ist?
-
4:17 - 4:19Dazu muss man sich eine Menge
-
4:19 - 4:20zugrunde liegender Theorien anschauen,
-
4:20 - 4:22um zu verstehen,
warum das funktioniert. -
4:22 - 4:26Eine soziologische Theorie
heißt Homophilie: -
4:26 - 4:29Leute freunden sich
mit ähnlichen Leuten an. -
4:29 - 4:32Wenn Sie also intelligent sind,
haben Sie eher intelligente Freunde, -
4:32 - 4:34und wenn Sie jung sind,
eher junge Freunde. -
4:34 - 4:37Das ist schon seit Hunderten
von Jahren bekannt. -
4:37 - 4:38Wir wissen auch viel darüber,
-
4:38 - 4:41wie sich Informationen
in sozialen Netzwerken verbreiten. -
4:41 - 4:44Sehr beliebte Videos,
"Gefällt mir"-Angaben auf Facebook -
4:44 - 4:46oder andere Informationen
-
4:46 - 4:48verbreiten sich auf die gleiche Weise
-
4:48 - 4:49wie Krankheiten.
-
4:49 - 4:51Das haben wir über
eine lange Zeit untersucht. -
4:51 - 4:53Wir haben da gute Modelle.
-
4:53 - 4:55Dann kann man die beiden Dinge kombinieren
-
4:55 - 4:58und verstehen, warum sie passieren.
-
4:58 - 4:59Eine Hypothese könnte so aussehen:
-
4:59 - 5:03Ein intelligenter Typ
hat eine Seite eingerichtet, -
5:03 - 5:05oder der erste mit "Gefällt mir"
-
5:05 - 5:06hatte ein hohes Testergebnis.
-
5:06 - 5:09Er klickte auf "Gefällt mir",
seine Freunde sahen es, -
5:09 - 5:11und Homophilie sagt uns,
-
5:11 - 5:13dass er wahrscheinlich auch
intelligente Freunde hat, -
5:13 - 5:16und die haben wiederum auf
"Gefällt mir" geklickt, -
5:16 - 5:18die hatten intelligente Freunde
-
5:18 - 5:20und so breitete sich das
-
5:20 - 5:22durch das ganze Netzwerk aus
-
5:22 - 5:23und erreichte viele intelligente Leute.
-
5:23 - 5:25Am Ende ist das "Gefällt mir"
-
5:25 - 5:27für die Spiralpommes-Seite
-
5:27 - 5:28ein Zeichen für hohe Intelligenz.
-
5:28 - 5:30Nicht wegen des Inhalts,
-
5:30 - 5:32sondern weil die "Gefällt mir"-Angabe
-
5:32 - 5:36die gemeinsamen Eigenschaften
der Leute widerspiegelt, denen es gefällt. -
5:36 - 5:39Das klingt sehr kompliziert, oder?
-
5:39 - 5:43Es ist schwer, das einem
einfachen Nutzer zu erklären -
5:43 - 5:44und selbst wenn man das tut --
-
5:44 - 5:47was kann der einfache Nutzer
schon dagegen tun? -
5:47 - 5:50Wie können Sie wissen,
dass Sie mit einem "Gefällt mir" -
5:50 - 5:51einen Charakterzug gezeigt haben,
-
5:51 - 5:54der aber völlig unabhängig
vom Inhalt ist, der Ihnen gefällt? -
5:54 - 5:56Die Nutzer haben nicht viel Macht,
-
5:56 - 5:58die Nutzung ihrer Daten zu steuern.
-
5:58 - 6:01Ich sehe darin ein großes
Problem für die Zukunft. -
6:01 - 6:04Wir sollten uns vielleicht
mehrere Wege anschauen, -
6:04 - 6:08wenn Nutzer die Verwendung
ihrer Daten beeinflussen wollen. -
6:08 - 6:10Die Daten werden eben nicht immer.
-
6:10 - 6:11zu ihrem Vorteil genutzt.
-
6:11 - 6:13Ein Beispiel, das ich oft bringe:
-
6:13 - 6:16Falls ich einmal keine
Professorin mehr sein will, -
6:16 - 6:17werde ich eine Firma gründen,
-
6:17 - 6:19die solche Eigenschaften errechnet,
-
6:19 - 6:21ebenso Eigenschaften wie Teamfähigkeit,
-
6:21 - 6:23Drogenmissbrauch oder Alkoholismus.
-
6:23 - 6:24Wir können das errechnen.
-
6:24 - 6:27Und ich werde Berichte an Personalberater
-
6:27 - 6:29und große Unternehmen verkaufen,
-
6:29 - 6:30bei denen Sie sich bewerben.
-
6:30 - 6:31Das können wir alles schon.
-
6:31 - 6:33Ich könnte diese Firma morgen gründen
-
6:33 - 6:35und Sie hätten absolut
keine Kontrolle darüber, -
6:35 - 6:37dass ich Ihre Daten zu diesem Zweck nutze.
-
6:37 - 6:39Für mich ist das ein Problem.
-
6:39 - 6:41Eine mögliche Lösung
-
6:41 - 6:43wären interne Richtlinien
und gesetzliche Regelungen. -
6:43 - 6:46In mancher Hinsicht wäre das sehr wirksam,
-
6:46 - 6:49aber wir müssten es auch wirklich tun.
-
6:49 - 6:51Wenn ich mir die politischen
Handlungen anschaue, -
6:51 - 6:54finde ich es höchst unwahrscheinlich,
-
6:54 - 6:56dass wir ein paar
Volksvertreter dazu bewegen, -
6:56 - 6:58sich eingehend damit zu befassen
-
6:58 - 7:00und dann grundlegende Veränderungen
-
7:00 - 7:03im US-Gesetz zum geistigen
Eigentum zu beschließen, -
7:03 - 7:05damit die Nutzer ihre Daten steuern.
-
7:05 - 7:06Aufgrund interner Richtlinien
-
7:06 - 7:08könnten soziale Medien sagen:
-
7:08 - 7:11"Ihre Daten gehören Ihnen.
Sie allein bestimmen deren Nutzung." -
7:11 - 7:13Das Problem ist, dass das Geschäftsmodell
-
7:13 - 7:16vieler sozialer Medien
in irgendeiner Weise -
7:16 - 7:19auf der Weitergabe und der Verwertung
der Nutzerdaten basiert. -
7:19 - 7:21Bei Facebook ist manchmal die Rede davon,
-
7:21 - 7:24dass der Nutzer nicht der Kunde ist,
sondern das Produkt. -
7:24 - 7:26Wie bekommt man dann also eine Firma dazu,
-
7:26 - 7:28die Kontrolle über ihre
Haupteinnahmequelle -
7:28 - 7:30wieder an die Nutzer zu geben?
-
7:30 - 7:31Das geht, aber ich denke nicht,
-
7:31 - 7:34dass der Wandel schnell kommen wird.
-
7:34 - 7:35Ich denke also, dass die andere
-
7:35 - 7:37mögliche Lösung wirksamer ist.
-
7:37 - 7:39Es geht um mehr Forschung.
-
7:39 - 7:42Es geht um die Forschung,
die es uns erst ermöglicht hat, -
7:42 - 7:45diese Mechanismen zum Verwerten
persönlicher Daten zu entwickeln. -
7:45 - 7:48Wir müssten eine sehr
ähnliche Forschung betreiben, -
7:48 - 7:51wenn wir Mechanismen entwickeln wollen,
-
7:51 - 7:55die dem Nutzer das Risiko,
das er eingegangen ist, zeigen können. -
7:55 - 7:57Durch Ihre "Gefällt mir"-Angabe
auf Facebook -
7:57 - 8:00oder die Weitergabe
persönlicher Informationen -
8:00 - 8:02geben Sie mir die Möglichkeit
zu ermitteln, -
8:02 - 8:03ob Sie Drogen nehmen
-
8:03 - 8:05oder sich an Ihrem
Arbeitsplatz wohlfühlen. -
8:05 - 8:07Ich denke, das hat Auswirkungen darauf,
-
8:07 - 8:09ob Leute etwas teilen wollen,
-
8:09 - 8:12es für sich behalten
oder gar nicht online stellen wollen. -
8:12 - 8:14Wir können uns auch anschauen,
-
8:14 - 8:16ob Nutzer vielleicht Daten,
die sie hochladen, verschlüsseln, -
8:16 - 8:18sodass sie unsichtbar oder wertlos
-
8:18 - 8:20für Seiten wie Facebook oder Dritte sind,
-
8:20 - 8:22die sich Zugang verschaffen wollen.
-
8:22 - 8:24Auf der anderen Seite
sollen aber andere Nutzer, -
8:24 - 8:28die die Informationen
sehen sollen, sie auch sehen. -
8:28 - 8:30Das alles ist sehr spannende Forschung
-
8:30 - 8:32aus einer intellektuellen Perspektive
-
8:32 - 8:35und deshalb sind Forscher
bereit, das zu tun. -
8:35 - 8:38Das verschafft uns einen Vorteil
gegenüber der politischen Lösung. -
8:38 - 8:39Wenn ich über dieses Thema rede,
-
8:39 - 8:41äußern viele Leute die Kritik:
-
8:41 - 8:44"Wenn Leute anfangen,
all ihre Daten geheimzuhalten, -
8:44 - 8:47dann werden die von
Forschern entwickelten Methoden -
8:47 - 8:49zur Berechnung von
Charakterzügen fehlschlagen." -
8:49 - 8:52Ich für meinen Teil finde,
dass das ein Erfolg ist, -
8:52 - 8:53weil ich als Forscherin
-
8:53 - 8:57keine Informationen
über Nutzer sammeln will, -
8:57 - 9:00sondern den Umgang
im Internet verbessern will. -
9:00 - 9:03Manchmal braucht es dazu
auch Datensammlungen, -
9:03 - 9:06aber wenn Nutzer mir ihre
Daten nicht geben wollen, -
9:06 - 9:08dann sollten sie das Recht dazu haben.
-
9:08 - 9:10Ich will, dass die Nutzer informiert und
-
9:10 - 9:13einverstanden mit den
Tools sind, die wir nutzen. -
9:13 - 9:17Ich finde also, dass diese Art von
Wissenschaft gefördert werden sollte. -
9:17 - 9:18Forscher sollten unterstützt werden,
-
9:18 - 9:21wenn sie den Nutzern
der sozialen Netzwerke -
9:21 - 9:23wieder etwas Kontrolle zurückgeben wollen.
-
9:23 - 9:25Das heißt, dass wir in Zukunft,
-
9:25 - 9:28wenn sich diese Tools
entwickeln und verbessern, -
9:28 - 9:30aufgeklärte und gestärkte Nutzer haben.
-
9:30 - 9:32Ich denke, wir sind uns einig,
-
9:32 - 9:34dass das ein ziemlich
idealer Weg in die Zukunft wäre. -
9:34 - 9:35Danke.
-
9:35 - 9:37(Applaus)
- Title:
- Das Spiralpommes-Rätsel: Warum ein "Gefällt mir" so viel mehr sagt, als Sie denken
- Speaker:
- Jennifer Golbeck
- Description:
-
Mögen Sie geringelte Pommes? Haben Sie dafür auf Facebook "Gefällt mir" gedrückt? In diesem Video können Sie sehen, welche verblüffenden Dinge Facebook (und andere) über Sie herausfinden können – nur durch die Analyse dessen, was Sie teilen und "liken". Die IT-Forscherin Jennifer Golbeck erklärt, wie es dazu kam, wie unschön manche dieser technologischen Anwendungen sein können – und warum sie denkt, dass die Kontrolle über die Daten wieder zurück an die rechtmäßigen Besitzer gegeben werden sollte.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Nadine Hennig approved German subtitles for Your social media "likes" expose more than you think | ||
Nadine Hennig edited German subtitles for Your social media "likes" expose more than you think | ||
Nadine Hennig edited German subtitles for Your social media "likes" expose more than you think | ||
Nadine Hennig edited German subtitles for Your social media "likes" expose more than you think | ||
Retired user accepted German subtitles for Your social media "likes" expose more than you think | ||
Retired user edited German subtitles for Your social media "likes" expose more than you think | ||
Retired user edited German subtitles for Your social media "likes" expose more than you think | ||
Retired user edited German subtitles for Your social media "likes" expose more than you think |
Nadine Hennig
Hallo Dani! Ich habe gerade gesehen, dass du den Review für diesen Vortrag gemacht hast. Aber die eine Änderung ist als "Review" inakzeptabel. Da Übersetzer und Reviewer später Credits bekommen, sollte der Review richtig durchgeführt sein. Schau dir bitte dieses Video an (https://www.youtube.com/watch?v=yvNQoD32Qqo) und versuche den Vortrag dementsprechend zu überprüfen und verbessern.
Allgemein würde ich dir raten, mit einer Übersetzung ins Deutsche anzufangen, da das einfacher ist, und TED den Freiwilligen empfiehlt, 90 Minuten zu übersetzen, bevor sie einen Review machen. Lg, Nadine