1 00:00:07,052 --> 00:00:11,642 Mit jedem Jahr überholen Maschinen uns Menschen in immer mehr Dingen, 2 00:00:11,642 --> 00:00:14,848 von denen wir einst dachten, dass nur wir zu ihnen fähig seien. 3 00:00:14,848 --> 00:00:18,423 Die Computer von heute schlagen uns in komplexen Brettspielen, 4 00:00:18,423 --> 00:00:21,294 schreiben Gesprochenes in dutzenden Sprachen nieder 5 00:00:21,294 --> 00:00:24,746 und identifizieren sofort fast jedes beliebige Objekt. 6 00:00:24,746 --> 00:00:27,362 Die Roboter von morgen könnten jedoch noch weiter gehen, 7 00:00:27,362 --> 00:00:30,243 indem sie herausfinden, was wir fühlen. 8 00:00:30,243 --> 00:00:32,191 Aber warum ist das von Belang? 9 00:00:32,191 --> 00:00:34,673 Wenn Maschinen und diejenigen, die sie kontrollieren, 10 00:00:34,673 --> 00:00:37,223 unseren Gefühlszustand präzise auslesen können, 11 00:00:37,223 --> 00:00:40,383 so können sie uns dadurch womöglich helfen oder uns manipulieren -- 12 00:00:40,383 --> 00:00:43,102 in unvorhersehbarem Ausmaß. 13 00:00:43,102 --> 00:00:44,614 Doch bevor wir dazu kommen: 14 00:00:44,614 --> 00:00:49,653 Wie kann etwas derart Komplexes wie Emotion in bloße Zahlen umgesetzt werden, 15 00:00:49,653 --> 00:00:53,253 die einzige Sprache, die Maschinen verstehen? 16 00:00:53,253 --> 00:00:56,843 Grundsätzlich auf dieselbe Art, wie unser Gehirn Gefühle interpretiert: 17 00:00:56,843 --> 00:00:58,994 indem es lernt, woran man sie erkennt. 18 00:00:58,994 --> 00:01:03,690 Der amerikanische Psychologe Paul Ekman bestimmte gewisse universelle Emotionen, 19 00:01:03,690 --> 00:01:09,174 deren visuelle Anzeichen kulturunabhängig auf dieselbe Weise verstanden werden. 20 00:01:09,174 --> 00:01:14,193 Ein Bild eines Lächelns zum Beispiel heißt Freude sowohl für den modernen Städter 21 00:01:14,193 --> 00:01:16,965 als auch den eingeborenen Stammesangehörigen. 22 00:01:16,965 --> 00:01:18,094 Laut Ekman sind 23 00:01:18,094 --> 00:01:18,823 Wut, 24 00:01:18,823 --> 00:01:19,533 Ekel, 25 00:01:19,533 --> 00:01:20,275 Angst, 26 00:01:20,275 --> 00:01:21,092 Freude, 27 00:01:21,092 --> 00:01:21,848 Traurigkeit 28 00:01:21,848 --> 00:01:25,433 und Überraschung gleichermaßen erkennbar. 29 00:01:25,433 --> 00:01:29,836 Wie sich zeigt, verbessern sich Computer rapide in Sachen Bilderkennung, 30 00:01:29,836 --> 00:01:34,015 dank maschineller Lernverfahren wie neuronaler Netzwerke. 31 00:01:34,015 --> 00:01:38,205 Diese bestehen aus künstlichen Netzknoten, die biologische Neuronen nachahmen, 32 00:01:38,205 --> 00:01:41,784 indem sie Verbindungen aufbauen und Informationen austauschen. 33 00:01:41,784 --> 00:01:46,185 Als Training für das Netzwerk werden verschieden kategorisierte Proben, 34 00:01:46,185 --> 00:01:49,185 wie zum Beispiel Fotos der Kategorie "glücklich" oder "traurig", 35 00:01:49,185 --> 00:01:51,285 in das System eingespeist. 36 00:01:51,285 --> 00:01:54,345 Anschließend lernt das Netzwerk, diese Proben zu klassifizieren, 37 00:01:54,345 --> 00:01:58,405 indem es die relativen Gewichte anpasst, die bestimmten Merkmalen zugeordnet sind. 38 00:01:58,405 --> 00:02:00,025 Je mehr Trainingsdaten vorliegen, 39 00:02:00,025 --> 00:02:04,625 desto besser wird der Algorithmus im korrekten Bestimmen neuer Bilder. 40 00:02:04,625 --> 00:02:06,527 Das ist ähnlich wie bei unserem Gehirn, 41 00:02:06,527 --> 00:02:11,725 das aus früheren Erfahrungen lernt, wie es fortan neue Reize verarbeitet. 42 00:02:11,725 --> 00:02:15,466 Erkennungsalgorithmen sind nicht nur auf Gesichtsausdrücke beschränkt. 43 00:02:15,466 --> 00:02:17,886 Unsere Gefühle zeigen sich auf vielerlei Art. 44 00:02:17,886 --> 00:02:20,116 Da wären Körpersprache und Klang der Stimme, 45 00:02:20,116 --> 00:02:23,237 Veränderungen der Herzfrequenz, Hautfarbe und -temperatur, 46 00:02:23,237 --> 00:02:27,716 oder sogar Worthäufigkeit und Satzstruktur in unseren Formulierungen. 47 00:02:27,716 --> 00:02:31,625 Man könnte meinen, das Training neuronaler Netzwerke zur Erkennung dieser Anzeichen 48 00:02:31,625 --> 00:02:33,637 sei eine lange und komplizierte Aufgabe, 49 00:02:33,637 --> 00:02:36,966 bis man erkennt, wie viele Daten da draußen bereits vorhanden sind 50 00:02:36,966 --> 00:02:40,325 und wie schnell moderne Computer diese verarbeiten können. 51 00:02:40,325 --> 00:02:41,917 Von Posts in sozialen Netzwerken, 52 00:02:41,917 --> 00:02:43,586 hochgeladenen Fotos und Videos 53 00:02:43,586 --> 00:02:44,987 über Telefonmitschnitte 54 00:02:44,987 --> 00:02:46,767 bis zu öffentlichen Wärmebildkameras 55 00:02:46,767 --> 00:02:50,357 und Wearables, die Körperfunktionen überwachen. 56 00:02:50,357 --> 00:02:52,947 Die große Frage ist nicht, wie wir genug Daten sammeln, 57 00:02:52,947 --> 00:02:55,255 sondern was wir mit ihnen machen. 58 00:02:55,255 --> 00:02:59,356 Es gibt eine Vielzahl positiver Nutzen von computerbasierter Emotionserkennung. 59 00:02:59,356 --> 00:03:02,627 Roboter können durch Algorithmen zur Erkennung von Gesichtsausdrücken 60 00:03:02,627 --> 00:03:04,246 Kindern beim Lernen helfen 61 00:03:04,246 --> 00:03:07,636 oder einsamen Menschen als Ansprechpartner dienen. 62 00:03:07,636 --> 00:03:10,637 Social-Media-Unternehmen überlegen, Algorithmen einzusetzen, 63 00:03:10,637 --> 00:03:17,047 um Suizide durch Markieren von Posts mit bestimmten Formulierungen zu verhindern. 64 00:03:17,047 --> 00:03:21,287 Emotionserkennungssoftware kann helfen, psychische Erkrankungen zu behandeln 65 00:03:21,287 --> 00:03:25,528 oder Menschen sogar mit kostengünstiger automatisierter Psychotherapie versorgen. 66 00:03:25,528 --> 00:03:27,348 Trotz der potenziellen Vorteile 67 00:03:27,348 --> 00:03:31,079 ist die Aussicht auf ein enormes Netzwerk, das automatisch unsere Fotos scannt, 68 00:03:31,079 --> 00:03:32,268 unsere Nachrichten liest 69 00:03:32,268 --> 00:03:36,877 und Körperfunktionen protokolliert gleichzeitig ziemlich beunruhigend. 70 00:03:36,877 --> 00:03:40,796 Welche Konsequenzen hat das für unsere Privatsphäre, wenn derartige Systeme 71 00:03:40,796 --> 00:03:45,118 von Unternehmen eingesetzt werden, um unsere Gefühle für Werbezwecke zu nutzen? 72 00:03:45,118 --> 00:03:46,718 Und was wird aus unseren Rechten, 73 00:03:46,718 --> 00:03:50,737 wenn Autoritäten meinen, sie könnten potenzielle Verbrecher identifizieren, 74 00:03:50,737 --> 00:03:54,927 ehe diese überhaupt eine bewusste Handlungsentscheidung treffen? 75 00:03:54,927 --> 00:03:57,150 Roboter haben noch einen langen Weg vor sich, 76 00:03:57,150 --> 00:04:00,258 bis sie dazu fähig sind, emotionale Nuancen wie Ironie 77 00:04:00,258 --> 00:04:04,758 und genaue Abstufungen von Glück oder Trauer einer Person zu unterscheiden. 78 00:04:04,758 --> 00:04:07,868 Und doch werden sie womöglich irgendwann dazu fähig sein, 79 00:04:07,868 --> 00:04:11,138 unsere Gefühle präzise zu lesen und auf sie zu reagieren. 80 00:04:11,138 --> 00:04:15,389 Ob sie allerdings unsere Angst vor einem ungewollten Eingriff nachfühlen können, 81 00:04:15,389 --> 00:04:16,887 das ist eine andere Geschichte.