Return to Video

Das Spiralpommes-Rätsel: Warum ein "Gefällt mir" so viel mehr sagt, als Sie denken

  • 0:00 - 0:03
    Erinnern Sie sich mal zurück:
    In seinen ersten zehn Jahren
  • 0:03 - 0:05
    war das Internet sehr statisch.
  • 0:05 - 0:08
    Man konnte online gehen
    und sich Websites anschauen,
  • 0:08 - 0:10
    die entweder von Organisationen
  • 0:10 - 0:12
    mit professionellen Teams betrieben wurden
  • 0:12 - 0:15
    oder von Privatleuten, die für ihre Zeit
    sehr technikversiert waren.
  • 0:15 - 0:17
    Mit dem Aufstieg der sozialen Medien
  • 0:17 - 0:19
    und der sozialen Netzwerke
    zu Beginn der 2000er
  • 0:19 - 0:21
    veränderte sich das Internet
    von Grund auf:
  • 0:21 - 0:25
    Ein Ort, an dem
    die große Mehrheit der Inhalte,
  • 0:25 - 0:28
    mit denen wir uns beschäftigen,
    von durchschnittlichen Nutzern kommt,
  • 0:28 - 0:31
    ob als YouTube-Video oder als Blogeintrag,
  • 0:31 - 0:34
    Produktrezension oder
    Post bei einem sozialen Netzwerk.
  • 0:34 - 0:37
    Das Internet ist auch
    viel interaktiver geworden.
  • 0:37 - 0:39
    Menschen treten miteinander in Kontakt,
  • 0:39 - 0:41
    sie kommentieren, sie teilen,
  • 0:41 - 0:42
    sie lesen nicht nur.
  • 0:42 - 0:45
    Facebook ist nicht der einzige
    Ort für solche Aktivitäten,
  • 0:45 - 0:46
    aber der größte,
  • 0:46 - 0:48
    und zeigt das Ausmaß sehr gut.
  • 0:48 - 0:51
    Facebook hat monatlich
    1,2 Milliarden Nutzer.
  • 0:51 - 0:54
    Mehr als die Hälfte
    aller Internetnutzer nutzt Facebook.
  • 0:54 - 0:56
    Es ist eine Website so wie andere auch,
  • 0:56 - 1:00
    mit der Leute ohne große
    technische Kenntnisse
  • 1:00 - 1:01
    ein virtuelles Ich erstellen können.
  • 1:01 - 1:03
    Als Ergebnis stellten viele Leute
  • 1:03 - 1:06
    eine Menge persönlicher Daten online.
  • 1:06 - 1:08
    Wir haben jetzt also Daten zum Verhalten,
  • 1:08 - 1:10
    zu Vorlieben und zur Demographie
  • 1:10 - 1:12
    von hunderten Millionen von Leuten.
  • 1:12 - 1:14
    Das gab es bisher noch nie.
  • 1:14 - 1:18
    Als IT-Forscherin konnte ich
    daher Modelle erstellen,
  • 1:18 - 1:21
    die alle möglichen versteckten
    Eigenschaften errechnen können,
  • 1:21 - 1:23
    für Sie alle -- und Ihnen
    ist nicht bewusst,
  • 1:23 - 1:25
    dass Sie Informationen darüber teilen.
  • 1:25 - 1:28
    Als Forscher helfen wir Menschen dabei,
  • 1:28 - 1:30
    online miteinander umgehen.
  • 1:30 - 1:32
    Aber es gibt auch weniger
    selbstlose Anwendungen.
  • 1:32 - 1:35
    Das Problem ist, dass Nutzer
    nicht richtig verstehen,
  • 1:35 - 1:37
    wie diese Techniken funktionieren
  • 1:37 - 1:40
    und auch wenn sie es täten,
    könnten sie sie nicht steuern.
  • 1:40 - 1:42
    Heute möchte ich Ihnen sagen,
  • 1:42 - 1:45
    was wir alles tun können
  • 1:45 - 1:48
    und einige Wege aufzeigen,
    wie es weitergehen kann,
  • 1:48 - 1:50
    um den Nutzern wieder mehr
    Kontrolle zu geben.
  • 1:50 - 1:52
    Das hier ist das Unternehmen "Target".
  • 1:52 - 1:54
    Das Logo ist nicht zufällig
  • 1:54 - 1:56
    auf dem Bauch dieser armen Schwangeren.
  • 1:56 - 1:58
    Sie kennen vielleicht die Geschichte,
  • 1:58 - 2:00
    die im Magazin "Forbes" abgedruckt wurde.
  • 2:00 - 2:03
    Darin schickte Target einem
    15-jährigen Mädchen einen Flyer
  • 2:03 - 2:04
    mit Werbung und Gutscheinen
  • 2:04 - 2:06
    für Babyfläschchen, Windeln und Bettchen,
  • 2:06 - 2:08
    zwei Wochen bevor das Mädchen
  • 2:08 - 2:10
    seinen Eltern von der
    Schwangerschaft erzählte.
  • 2:10 - 2:12
    Ja, ihr Vater hat sich ziemlich aufgeregt.
  • 2:12 - 2:14
    Er sagte: "Wie konnte Target herausfinden,
  • 2:14 - 2:16
    dass eine Schülerin schwanger ist,
  • 2:16 - 2:18
    noch bevor sie es
    ihren Eltern erzählt hat?"
  • 2:18 - 2:21
    Es stellte sich heraus,
    dass Target Einkaufsdaten
  • 2:21 - 2:23
    von hunderttausenden Kunden besitzt
  • 2:23 - 2:25
    und daraus einen
    "Schwangerschaftswert" errechnet.
  • 2:25 - 2:28
    Da geht es nicht nur um
    eine mögliche Schwangerschaft,
  • 2:28 - 2:30
    sondern um das errechnete
    Geburtsdatum des Kindes.
  • 2:30 - 2:32
    Das wird nicht errechnet,
  • 2:32 - 2:34
    indem die offensichtlichen
    Dinge angeschaut werden,
  • 2:34 - 2:36
    wie z. B. Kauf von
    Babykleidung oder Bettchen,
  • 2:36 - 2:40
    sondern ob die Frau z. B.
    mehr Vitamine als sonst kauft
  • 2:40 - 2:41
    oder eine Handtasche,
  • 2:41 - 2:43
    die groß genug für Windeln ist.
  • 2:43 - 2:45
    Diese Einkäufe an sich scheinen
  • 2:45 - 2:47
    nicht so viel zu offenbaren,
  • 2:47 - 2:49
    aber sie stehen für ein Verhaltensmuster,
  • 2:49 - 2:52
    das im Kontext mit
    tausenden anderen Menschen
  • 2:52 - 2:55
    doch einige Einblicke bietet.
  • 2:55 - 2:57
    So werden also durch soziale Medien
  • 2:57 - 2:59
    Dinge über Sie errechnet.
  • 2:59 - 3:02
    Wir suchen nach kleinen Verhaltensmustern,
  • 3:02 - 3:05
    die Millionen Menschen zeigen
  • 3:05 - 3:07
    und die somit einiges aussagen.
  • 3:07 - 3:09
    Zusammen mit meinen Kollegen
    haben wir im Labor
  • 3:09 - 3:13
    Mechanismen entwickelt, um sehr
    genau Dinge errechnen zu können:
  • 3:13 - 3:15
    Politische Vorlieben,
  • 3:15 - 3:19
    persönliche Eigenschaften,
    Geschlecht, sexuelle Orientierung,
  • 3:19 - 3:21
    Religion, Alter, Intelligenz,
  • 3:21 - 3:24
    wie sehr Sie den Menschen
    vertrauen, die Sie kennen,
  • 3:24 - 3:26
    und wie stark diese Beziehungen sind.
  • 3:26 - 3:28
    Das alles können wir ziemlich gut.
  • 3:28 - 3:32
    Diese Daten stammen nicht
    aus offensichtlichen Informationen.
  • 3:32 - 3:34
    Mein Lieblingsbeispiel
    stammt aus einer Studie,
  • 3:34 - 3:38
    die dieses Jahr in der Fachzeitschrift
    "PNA S" veröffentlicht wurde.
  • 3:38 - 3:39
    Googeln Sie das mal.
  • 3:39 - 3:41
    Es sind vier Seiten, leicht zu lesen.
  • 3:41 - 3:45
    Es wurden nur die "Gefällt mir"-Angaben
    auf Facebook untersucht
  • 3:45 - 3:48
    und dazu genutzt, um Eigenschaften
  • 3:48 - 3:49
    und andere Dinge zu errechnen.
  • 3:49 - 3:52
    In dieser Studie findet man
    die fünf "Gefällt mir",
  • 3:52 - 3:55
    die meistens für hohe Intelligenz standen.
  • 3:55 - 3:58
    Da war auch eine Seite
    über Spiralpommes dabei.
  • 3:58 - 4:00
    (Gelächter)
  • 4:00 - 4:01
    Spiralpommes sind lecker,
  • 4:01 - 4:04
    aber ein "Gefällt mir"
    heißt noch lange nicht,
  • 4:04 - 4:06
    dass Sie klüger sind als der Durchschnitt.
  • 4:06 - 4:10
    Wie kann einer der stärksten
    Hinweise auf Intelligenz
  • 4:10 - 4:12
    das "Gefällt mir" für diese Seite sein,
  • 4:12 - 4:15
    wenn der Inhalt
    für das Errechnen der Eigenschaft
  • 4:15 - 4:17
    eigentlich völlig irrelevant ist?
  • 4:17 - 4:19
    Dazu muss man sich eine Menge
  • 4:19 - 4:20
    zugrunde liegender Theorien anschauen,
  • 4:20 - 4:22
    um zu verstehen,
    warum das funktioniert.
  • 4:22 - 4:26
    Eine soziologische Theorie
    heißt Homophilie:
  • 4:26 - 4:29
    Leute freunden sich
    mit ähnlichen Leuten an.
  • 4:29 - 4:32
    Wenn Sie also intelligent sind,
    haben Sie eher intelligente Freunde,
  • 4:32 - 4:34
    und wenn Sie jung sind,
    eher junge Freunde.
  • 4:34 - 4:37
    Das ist schon seit Hunderten
    von Jahren bekannt.
  • 4:37 - 4:38
    Wir wissen auch viel darüber,
  • 4:38 - 4:41
    wie sich Informationen
    in sozialen Netzwerken verbreiten.
  • 4:41 - 4:44
    Sehr beliebte Videos,
    "Gefällt mir"-Angaben auf Facebook
  • 4:44 - 4:46
    oder andere Informationen
  • 4:46 - 4:48
    verbreiten sich auf die gleiche Weise
  • 4:48 - 4:49
    wie Krankheiten.
  • 4:49 - 4:51
    Das haben wir über
    eine lange Zeit untersucht.
  • 4:51 - 4:53
    Wir haben da gute Modelle.
  • 4:53 - 4:55
    Dann kann man die beiden Dinge kombinieren
  • 4:55 - 4:58
    und verstehen, warum sie passieren.
  • 4:58 - 4:59
    Eine Hypothese könnte so aussehen:
  • 4:59 - 5:03
    Ein intelligenter Typ
    hat eine Seite eingerichtet,
  • 5:03 - 5:05
    oder der erste mit "Gefällt mir"
  • 5:05 - 5:06
    hatte ein hohes Testergebnis.
  • 5:06 - 5:09
    Er klickte auf "Gefällt mir",
    seine Freunde sahen es,
  • 5:09 - 5:11
    und Homophilie sagt uns,
  • 5:11 - 5:13
    dass er wahrscheinlich auch
    intelligente Freunde hat,
  • 5:13 - 5:16
    und die haben wiederum auf
    "Gefällt mir" geklickt,
  • 5:16 - 5:18
    die hatten intelligente Freunde
  • 5:18 - 5:20
    und so breitete sich das
  • 5:20 - 5:22
    durch das ganze Netzwerk aus
  • 5:22 - 5:23
    und erreichte viele intelligente Leute.
  • 5:23 - 5:25
    Am Ende ist das "Gefällt mir"
  • 5:25 - 5:27
    für die Spiralpommes-Seite
  • 5:27 - 5:28
    ein Zeichen für hohe Intelligenz.
  • 5:28 - 5:30
    Nicht wegen des Inhalts,
  • 5:30 - 5:32
    sondern weil die "Gefällt mir"-Angabe
  • 5:32 - 5:36
    die gemeinsamen Eigenschaften
    der Leute widerspiegelt, denen es gefällt.
  • 5:36 - 5:39
    Das klingt sehr kompliziert, oder?
  • 5:39 - 5:43
    Es ist schwer, das einem
    einfachen Nutzer zu erklären
  • 5:43 - 5:44
    und selbst wenn man das tut --
  • 5:44 - 5:47
    was kann der einfache Nutzer
    schon dagegen tun?
  • 5:47 - 5:50
    Wie können Sie wissen,
    dass Sie mit einem "Gefällt mir"
  • 5:50 - 5:51
    einen Charakterzug gezeigt haben,
  • 5:51 - 5:54
    der aber völlig unabhängig
    vom Inhalt ist, der Ihnen gefällt?
  • 5:54 - 5:56
    Die Nutzer haben nicht viel Macht,
  • 5:56 - 5:58
    die Nutzung ihrer Daten zu steuern.
  • 5:58 - 6:01
    Ich sehe darin ein großes
    Problem für die Zukunft.
  • 6:01 - 6:04
    Wir sollten uns vielleicht
    mehrere Wege anschauen,
  • 6:04 - 6:08
    wenn Nutzer die Verwendung
    ihrer Daten beeinflussen wollen.
  • 6:08 - 6:10
    Die Daten werden eben nicht immer.
  • 6:10 - 6:11
    zu ihrem Vorteil genutzt.
  • 6:11 - 6:13
    Ein Beispiel, das ich oft bringe:
  • 6:13 - 6:16
    Falls ich einmal keine
    Professorin mehr sein will,
  • 6:16 - 6:17
    werde ich eine Firma gründen,
  • 6:17 - 6:19
    die solche Eigenschaften errechnet,
  • 6:19 - 6:21
    ebenso Eigenschaften wie Teamfähigkeit,
  • 6:21 - 6:23
    Drogenmissbrauch oder Alkoholismus.
  • 6:23 - 6:24
    Wir können das errechnen.
  • 6:24 - 6:27
    Und ich werde Berichte an Personalberater
  • 6:27 - 6:29
    und große Unternehmen verkaufen,
  • 6:29 - 6:30
    bei denen Sie sich bewerben.
  • 6:30 - 6:31
    Das können wir alles schon.
  • 6:31 - 6:33
    Ich könnte diese Firma morgen gründen
  • 6:33 - 6:35
    und Sie hätten absolut
    keine Kontrolle darüber,
  • 6:35 - 6:37
    dass ich Ihre Daten zu diesem Zweck nutze.
  • 6:37 - 6:39
    Für mich ist das ein Problem.
  • 6:39 - 6:41
    Eine mögliche Lösung
  • 6:41 - 6:43
    wären interne Richtlinien
    und gesetzliche Regelungen.
  • 6:43 - 6:46
    In mancher Hinsicht wäre das sehr wirksam,
  • 6:46 - 6:49
    aber wir müssten es auch wirklich tun.
  • 6:49 - 6:51
    Wenn ich mir die politischen
    Handlungen anschaue,
  • 6:51 - 6:54
    finde ich es höchst unwahrscheinlich,
  • 6:54 - 6:56
    dass wir ein paar
    Volksvertreter dazu bewegen,
  • 6:56 - 6:58
    sich eingehend damit zu befassen
  • 6:58 - 7:00
    und dann grundlegende Veränderungen
  • 7:00 - 7:03
    im US-Gesetz zum geistigen
    Eigentum zu beschließen,
  • 7:03 - 7:05
    damit die Nutzer ihre Daten steuern.
  • 7:05 - 7:06
    Aufgrund interner Richtlinien
  • 7:06 - 7:08
    könnten soziale Medien sagen:
  • 7:08 - 7:11
    "Ihre Daten gehören Ihnen.
    Sie allein bestimmen deren Nutzung."
  • 7:11 - 7:13
    Das Problem ist, dass das Geschäftsmodell
  • 7:13 - 7:16
    vieler sozialer Medien
    in irgendeiner Weise
  • 7:16 - 7:19
    auf der Weitergabe und der Verwertung
    der Nutzerdaten basiert.
  • 7:19 - 7:21
    Bei Facebook ist manchmal die Rede davon,
  • 7:21 - 7:24
    dass der Nutzer nicht der Kunde ist,
    sondern das Produkt.
  • 7:24 - 7:26
    Wie bekommt man dann also eine Firma dazu,
  • 7:26 - 7:28
    die Kontrolle über ihre
    Haupteinnahmequelle
  • 7:28 - 7:30
    wieder an die Nutzer zu geben?
  • 7:30 - 7:31
    Das geht, aber ich denke nicht,
  • 7:31 - 7:34
    dass der Wandel schnell kommen wird.
  • 7:34 - 7:35
    Ich denke also, dass die andere
  • 7:35 - 7:37
    mögliche Lösung wirksamer ist.
  • 7:37 - 7:39
    Es geht um mehr Forschung.
  • 7:39 - 7:42
    Es geht um die Forschung,
    die es uns erst ermöglicht hat,
  • 7:42 - 7:45
    diese Mechanismen zum Verwerten
    persönlicher Daten zu entwickeln.
  • 7:45 - 7:48
    Wir müssten eine sehr
    ähnliche Forschung betreiben,
  • 7:48 - 7:51
    wenn wir Mechanismen entwickeln wollen,
  • 7:51 - 7:55
    die dem Nutzer das Risiko,
    das er eingegangen ist, zeigen können.
  • 7:55 - 7:57
    Durch Ihre "Gefällt mir"-Angabe
    auf Facebook
  • 7:57 - 8:00
    oder die Weitergabe
    persönlicher Informationen
  • 8:00 - 8:02
    geben Sie mir die Möglichkeit
    zu ermitteln,
  • 8:02 - 8:03
    ob Sie Drogen nehmen
  • 8:03 - 8:05
    oder sich an Ihrem
    Arbeitsplatz wohlfühlen.
  • 8:05 - 8:07
    Ich denke, das hat Auswirkungen darauf,
  • 8:07 - 8:09
    ob Leute etwas teilen wollen,
  • 8:09 - 8:12
    es für sich behalten
    oder gar nicht online stellen wollen.
  • 8:12 - 8:14
    Wir können uns auch anschauen,
  • 8:14 - 8:16
    ob Nutzer vielleicht Daten,
    die sie hochladen, verschlüsseln,
  • 8:16 - 8:18
    sodass sie unsichtbar oder wertlos
  • 8:18 - 8:20
    für Seiten wie Facebook oder Dritte sind,
  • 8:20 - 8:22
    die sich Zugang verschaffen wollen.
  • 8:22 - 8:24
    Auf der anderen Seite
    sollen aber andere Nutzer,
  • 8:24 - 8:28
    die die Informationen
    sehen sollen, sie auch sehen.
  • 8:28 - 8:30
    Das alles ist sehr spannende Forschung
  • 8:30 - 8:32
    aus einer intellektuellen Perspektive
  • 8:32 - 8:35
    und deshalb sind Forscher
    bereit, das zu tun.
  • 8:35 - 8:38
    Das verschafft uns einen Vorteil
    gegenüber der politischen Lösung.
  • 8:38 - 8:39
    Wenn ich über dieses Thema rede,
  • 8:39 - 8:41
    äußern viele Leute die Kritik:
  • 8:41 - 8:44
    "Wenn Leute anfangen,
    all ihre Daten geheimzuhalten,
  • 8:44 - 8:47
    dann werden die von
    Forschern entwickelten Methoden
  • 8:47 - 8:49
    zur Berechnung von
    Charakterzügen fehlschlagen."
  • 8:49 - 8:52
    Ich für meinen Teil finde,
    dass das ein Erfolg ist,
  • 8:52 - 8:53
    weil ich als Forscherin
  • 8:53 - 8:57
    keine Informationen
    über Nutzer sammeln will,
  • 8:57 - 9:00
    sondern den Umgang
    im Internet verbessern will.
  • 9:00 - 9:03
    Manchmal braucht es dazu
    auch Datensammlungen,
  • 9:03 - 9:06
    aber wenn Nutzer mir ihre
    Daten nicht geben wollen,
  • 9:06 - 9:08
    dann sollten sie das Recht dazu haben.
  • 9:08 - 9:10
    Ich will, dass die Nutzer informiert und
  • 9:10 - 9:13
    einverstanden mit den
    Tools sind, die wir nutzen.
  • 9:13 - 9:17
    Ich finde also, dass diese Art von
    Wissenschaft gefördert werden sollte.
  • 9:17 - 9:18
    Forscher sollten unterstützt werden,
  • 9:18 - 9:21
    wenn sie den Nutzern
    der sozialen Netzwerke
  • 9:21 - 9:23
    wieder etwas Kontrolle zurückgeben wollen.
  • 9:23 - 9:25
    Das heißt, dass wir in Zukunft,
  • 9:25 - 9:28
    wenn sich diese Tools
    entwickeln und verbessern,
  • 9:28 - 9:30
    aufgeklärte und gestärkte Nutzer haben.
  • 9:30 - 9:32
    Ich denke, wir sind uns einig,
  • 9:32 - 9:34
    dass das ein ziemlich
    idealer Weg in die Zukunft wäre.
  • 9:34 - 9:35
    Danke.
  • 9:35 - 9:37
    (Applaus)
Title:
Das Spiralpommes-Rätsel: Warum ein "Gefällt mir" so viel mehr sagt, als Sie denken
Speaker:
Jennifer Golbeck
Description:

Mögen Sie geringelte Pommes? Haben Sie dafür auf Facebook "Gefällt mir" gedrückt? In diesem Video können Sie sehen, welche verblüffenden Dinge Facebook (und andere) über Sie herausfinden können – nur durch die Analyse dessen, was Sie teilen und "liken". Die IT-Forscherin Jennifer Golbeck erklärt, wie es dazu kam, wie unschön manche dieser technologischen Anwendungen sein können – und warum sie denkt, dass die Kontrolle über die Daten wieder zurück an die rechtmäßigen Besitzer gegeben werden sollte.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • Hallo Dani! Ich habe gerade gesehen, dass du den Review für diesen Vortrag gemacht hast. Aber die eine Änderung ist als "Review" inakzeptabel. Da Übersetzer und Reviewer später Credits bekommen, sollte der Review richtig durchgeführt sein. Schau dir bitte dieses Video an (https://www.youtube.com/watch?v=yvNQoD32Qqo) und versuche den Vortrag dementsprechend zu überprüfen und verbessern.
    Allgemein würde ich dir raten, mit einer Übersetzung ins Deutsche anzufangen, da das einfacher ist, und TED den Freiwilligen empfiehlt, 90 Minuten zu übersetzen, bevor sie einen Review machen. Lg, Nadine

German subtitles

Revisions