Return to Video

Können Maschinen unsere Gefühle lesen? – Kostas Karpouzis

  • 0:07 - 0:12
    Mit jedem Jahr überholen Maschinen
    uns Menschen in immer mehr Dingen,
  • 0:12 - 0:15
    von denen wir einst dachten,
    dass nur wir zu ihnen fähig seien.
  • 0:15 - 0:18
    Die Computer von heute schlagen
    uns in komplexen Brettspielen,
  • 0:18 - 0:21
    schreiben Gesprochenes
    in dutzenden Sprachen nieder
  • 0:21 - 0:25
    und identifizieren sofort
    fast jedes beliebige Objekt.
  • 0:25 - 0:27
    Die Roboter von morgen
    könnten jedoch noch weiter gehen,
  • 0:27 - 0:30
    indem sie herausfinden, was wir fühlen.
  • 0:30 - 0:32
    Aber warum ist das von Belang?
  • 0:32 - 0:35
    Wenn Maschinen und diejenigen,
    die sie kontrollieren,
  • 0:35 - 0:37
    unseren Gefühlszustand
    präzise auslesen können,
  • 0:37 - 0:40
    so können sie uns dadurch womöglich
    helfen oder uns manipulieren --
  • 0:40 - 0:43
    in unvorhersehbarem Ausmaß.
  • 0:43 - 0:45
    Doch bevor wir dazu kommen:
  • 0:45 - 0:50
    Wie kann etwas derart Komplexes wie
    Emotion in bloße Zahlen umgesetzt werden,
  • 0:50 - 0:53
    die einzige Sprache,
    die Maschinen verstehen?
  • 0:53 - 0:57
    Grundsätzlich auf dieselbe Art,
    wie unser Gehirn Gefühle interpretiert:
  • 0:57 - 0:59
    indem es lernt, woran man sie erkennt.
  • 0:59 - 1:04
    Der amerikanische Psychologe Paul Ekman
    bestimmte gewisse universelle Emotionen,
  • 1:04 - 1:09
    deren visuelle Anzeichen kulturunabhängig
    auf dieselbe Weise verstanden werden.
  • 1:09 - 1:14
    Ein Bild eines Lächelns zum Beispiel heißt
    Freude sowohl für den modernen Städter
  • 1:14 - 1:17
    als auch den eingeborenen
    Stammesangehörigen.
  • 1:17 - 1:18
    Laut Ekman sind
  • 1:18 - 1:19
    Wut,
  • 1:19 - 1:20
    Ekel,
  • 1:20 - 1:20
    Angst,
  • 1:20 - 1:21
    Freude,
  • 1:21 - 1:22
    Traurigkeit
  • 1:22 - 1:25
    und Überraschung gleichermaßen erkennbar.
  • 1:25 - 1:30
    Wie sich zeigt, verbessern sich Computer
    rapide in Sachen Bilderkennung,
  • 1:30 - 1:34
    dank maschineller Lernverfahren
    wie neuronaler Netzwerke.
  • 1:34 - 1:38
    Diese bestehen aus künstlichen Netzknoten,
    die biologische Neuronen nachahmen,
  • 1:38 - 1:42
    indem sie Verbindungen aufbauen
    und Informationen austauschen.
  • 1:42 - 1:46
    Als Training für das Netzwerk werden
    verschieden kategorisierte Proben,
  • 1:46 - 1:49
    wie zum Beispiel Fotos der Kategorie
    "glücklich" oder "traurig",
  • 1:49 - 1:51
    in das System eingespeist.
  • 1:51 - 1:54
    Anschließend lernt das Netzwerk,
    diese Proben zu klassifizieren,
  • 1:54 - 1:58
    indem es die relativen Gewichte anpasst,
    die bestimmten Merkmalen zugeordnet sind.
  • 1:58 - 2:00
    Je mehr Trainingsdaten vorliegen,
  • 2:00 - 2:05
    desto besser wird der Algorithmus
    im korrekten Bestimmen neuer Bilder.
  • 2:05 - 2:07
    Das ist ähnlich wie bei unserem Gehirn,
  • 2:07 - 2:12
    das aus früheren Erfahrungen lernt,
    wie es fortan neue Reize verarbeitet.
  • 2:12 - 2:15
    Erkennungsalgorithmen sind nicht
    nur auf Gesichtsausdrücke beschränkt.
  • 2:15 - 2:18
    Unsere Gefühle zeigen sich
    auf vielerlei Art.
  • 2:18 - 2:20
    Da wären Körpersprache
    und Klang der Stimme,
  • 2:20 - 2:23
    Veränderungen der Herzfrequenz,
    Hautfarbe und -temperatur,
  • 2:23 - 2:28
    oder sogar Worthäufigkeit und
    Satzstruktur in unseren Formulierungen.
  • 2:28 - 2:32
    Man könnte meinen, das Training neuronaler
    Netzwerke zur Erkennung dieser Anzeichen
  • 2:32 - 2:34
    sei eine lange und komplizierte Aufgabe,
  • 2:34 - 2:37
    bis man erkennt, wie viele Daten
    da draußen bereits vorhanden sind
  • 2:37 - 2:40
    und wie schnell moderne Computer
    diese verarbeiten können.
  • 2:40 - 2:42
    Von Posts in sozialen Netzwerken,
  • 2:42 - 2:44
    hochgeladenen Fotos und Videos
  • 2:44 - 2:45
    über Telefonmitschnitte
  • 2:45 - 2:47
    bis zu öffentlichen Wärmebildkameras
  • 2:47 - 2:50
    und Wearables, die
    Körperfunktionen überwachen.
  • 2:50 - 2:53
    Die große Frage ist nicht,
    wie wir genug Daten sammeln,
  • 2:53 - 2:55
    sondern was wir mit ihnen machen.
  • 2:55 - 2:59
    Es gibt eine Vielzahl positiver Nutzen
    von computerbasierter Emotionserkennung.
  • 2:59 - 3:03
    Roboter können durch Algorithmen
    zur Erkennung von Gesichtsausdrücken
  • 3:03 - 3:04
    Kindern beim Lernen helfen
  • 3:04 - 3:08
    oder einsamen Menschen
    als Ansprechpartner dienen.
  • 3:08 - 3:11
    Social-Media-Unternehmen überlegen,
    Algorithmen einzusetzen,
  • 3:11 - 3:17
    um Suizide durch Markieren von Posts mit
    bestimmten Formulierungen zu verhindern.
  • 3:17 - 3:21
    Emotionserkennungssoftware kann helfen,
    psychische Erkrankungen zu behandeln
  • 3:21 - 3:26
    oder Menschen sogar mit kostengünstiger
    automatisierter Psychotherapie versorgen.
  • 3:26 - 3:27
    Trotz der potenziellen Vorteile
  • 3:27 - 3:31
    ist die Aussicht auf ein enormes Netzwerk,
    das automatisch unsere Fotos scannt,
  • 3:31 - 3:32
    unsere Nachrichten liest
  • 3:32 - 3:37
    und Körperfunktionen protokolliert
    gleichzeitig ziemlich beunruhigend.
  • 3:37 - 3:41
    Welche Konsequenzen hat das für unsere
    Privatsphäre, wenn derartige Systeme
  • 3:41 - 3:45
    von Unternehmen eingesetzt werden, um
    unsere Gefühle für Werbezwecke zu nutzen?
  • 3:45 - 3:47
    Und was wird aus unseren Rechten,
  • 3:47 - 3:51
    wenn Autoritäten meinen, sie könnten
    potenzielle Verbrecher identifizieren,
  • 3:51 - 3:55
    ehe diese überhaupt eine bewusste
    Handlungsentscheidung treffen?
  • 3:55 - 3:57
    Roboter haben noch
    einen langen Weg vor sich,
  • 3:57 - 4:00
    bis sie dazu fähig sind,
    emotionale Nuancen wie Ironie
  • 4:00 - 4:05
    und genaue Abstufungen von Glück oder
    Trauer einer Person zu unterscheiden.
  • 4:05 - 4:08
    Und doch werden sie womöglich
    irgendwann dazu fähig sein,
  • 4:08 - 4:11
    unsere Gefühle präzise zu lesen
    und auf sie zu reagieren.
  • 4:11 - 4:15
    Ob sie allerdings unsere Angst vor einem
    ungewollten Eingriff nachfühlen können,
  • 4:15 - 4:17
    das ist eine andere Geschichte.
Title:
Können Maschinen unsere Gefühle lesen? – Kostas Karpouzis
Speaker:
Kostas Karpouzis
Description:

Die ganze Lektion unter: http://ed.ted.com/lessons/can-machines-read-your-emotions-kostas-karpouzis

Computer schlagen uns in Brettspielen, transkribieren Sprache und identifizieren sofort fast jedes beliebige Objekt. Aber werden Roboter in Zukunft noch weiter gehen und lernen, wie sie unsere Gefühle verstehen können? Kostas Karpouzis zeichnet eine Zukunft, in der Maschinen und die Menschen, die sie kontrollieren, unseren Gefühlszustand präzise ablesen können und erklärt, wie ihnen dies ermöglichen könnte, uns zu helfen oder uns zu manipulieren – in unvorhersehbarem Ausmaß.

Lektion von Kostas Karpouzis, Animation von Lasse Rützou Bruntse.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
04:39

German subtitles

Revisions