Wie wir Computern das Sehen beibringen
-
0:03 - 0:05Ich möchte Ihnen etwas zeigen.
-
0:06 - 0:10(Video) Mädchen: Okay. Das ist
eine Katze, die auf einem Bett sitzt. -
0:10 - 0:13Der Junge streichelt den Elefanten.
-
0:14 - 0:17Das sind Menschen,
die ein Flugzeug besteigen. -
0:18 - 0:20Das ist ein großes Flugzeug.
-
0:21 - 0:24Fei-Fei Li: Das ist ein dreijähiges Kind,
-
0:24 - 0:27das beschreibt, was es
auf einigen Fotos sieht. -
0:27 - 0:31Sie muss wahrscheinlich
noch viel über diese Welt lernen, -
0:31 - 0:35aber sie ist bereits Expertin hinsichtlich
einer sehr wichtigen Aufgabe: -
0:35 - 0:38Sie versteht, was sie sieht.
-
0:38 - 0:42Unsere Gesellschaft ist technologisch
fortgeschrittener als je zuvor. -
0:42 - 0:47Wir schicken Menschen zum Mond,
stellen Telefone her, die mit uns reden -
0:47 - 0:51oder stellen Radiosender auf unseren
individuellen Musikgeschmack ein. -
0:51 - 0:55Dennoch haben selbst unsere
fortschrittlichsten Maschinen und Computer -
0:55 - 0:58immer noch Probleme mit dieser Aufgabe.
-
0:58 - 1:01Ich werde Ihnen heute
von den Fortschritten erzählen, -
1:01 - 1:05die wir in unserem Forschungsgebiet
der Computer Vision gemacht haben, -
1:05 - 1:10einer der bahnbrechendsten und vielleicht
revolutionärsten Technologien -
1:10 - 1:13in der Informatik.
-
1:13 - 1:17Wir haben Autos entwickelt,
die eigenständig fahren können, -
1:17 - 1:21aber ohne intelligentes Sehvermögen
können sie nicht unterscheiden, -
1:21 - 1:25ob auf der Straße eine zerknitterte
Papiertüte liegt, die man überfahren kann, -
1:25 - 1:29oder ein Stein von gleicher Größe,
dem man ausgeweichen muss. -
1:29 - 1:33Wir haben sagenhaft
hochauflösende Kameras entwickelt, -
1:33 - 1:36aber wir können Blinde nicht
wieder sehen lassen. -
1:36 - 1:40Drohnen können über riesige
Distanzen fliegen, -
1:40 - 1:42besitzen aber nicht
die nötige Sichttechnologie, -
1:42 - 1:45um die Veränderungen
der Regenwälder nachzuverfolgen. -
1:45 - 1:48Überwachungskameras sind überall,
-
1:48 - 1:53aber warnen uns nicht,
wenn ein Kind im Schwimmbad ertrinkt. -
1:54 - 2:00Bilder und Videos werden immer mehr
zu einem festen Bestandteil des Lebens. -
2:00 - 2:04Sie werden in einer Geschwindigkeit
erzeugt, die weit jenseits dessen liegt, -
2:04 - 2:07was Menschen sich auch nur
erhoffen könnten zu sichten. -
2:07 - 2:11Sie und ich tragen mit diesem
TED Talk gerade dazu bei. -
2:11 - 2:16Unsere fortschrittlichste Software
hat noch immer Probleme -
2:16 - 2:20beim Verstehen und Verwalten
dieser enormen Masse an Inhalten. -
2:20 - 2:24Man kann soweit gehen und sagen,
dass wir als Gesellschaft -
2:24 - 2:26nahezu blind sind,
-
2:26 - 2:30weil unsere klügsten Maschinen
immer noch blind sind. -
2:31 - 2:34"Warum ist das so schwierig?",
fragen Sie sich vielleicht. -
2:34 - 2:37Kameras können solche Bilder schießen,
-
2:37 - 2:41indem sie Licht in eine zweidimensionale
Matrix aus Zahlen umwandeln, -
2:41 - 2:43besser bekannt als Pixel.
-
2:43 - 2:45Aber das sind nur leblose Zahlen.
-
2:45 - 2:48Sie sind an sich bedeutungslos.
-
2:48 - 2:52Hören ist nicht dasselbe wie Verstehen.
-
2:52 - 2:56Ebenso ist Fotografieren
nicht dasselbe wie Sehen. -
2:56 - 3:00Mit Sehen meinen wir
genauer gesagt Verstehen. -
3:01 - 3:07Tatsächlich hat Mutter Natur
540 Millionen Jahre gebraucht, -
3:07 - 3:09um diese Aufgabe zu lösen.
-
3:09 - 3:11Ein Großteil des Aufwands
-
3:11 - 3:17war die Entwicklung der visuellen
Verarbeitungskapazität unseres Gehirns, -
3:17 - 3:19gar nicht der Augen an sich.
-
3:19 - 3:22Das Sehen beginnt mit den Augen,
-
3:22 - 3:26geschieht aber eigentlich im Gehirn.
-
3:26 - 3:31Vor 15 Jahren begann ich
meine Doktorarbeit am Caltech, -
3:31 - 3:34danach leitete ich
das Vision Lab in Stanford. -
3:34 - 3:39Die ganze Zeit arbeitete ich mit Mentoren,
Mitarbeitern und Studenten daran, -
3:39 - 3:42Computern das Sehen beizubringen.
-
3:42 - 3:46Unser Forschungsgebiet nennt sich
Computer Vision und Maschinelles Lernen. -
3:46 - 3:50Es gehört zum allgemeinen Gebiet
der Künstlichen Intelligenz. -
3:51 - 3:56Schlussendlich wollen wir Geräten
beibringen, so wie wir zu sehen: -
3:56 - 4:02Objekte benennen, Menschen erkennen,
Dreidimensionalität von Objekten erfassen, -
4:02 - 4:08Beziehungen, Emotionen, Handlungen
und Absichten verstehen. -
4:08 - 4:14Sie und ich begreifen ganze Geschichten
zwischen Menschen, Orten und Dingen -
4:14 - 4:17in Sekundenschnelle, wenn wir
einen Blick darauf werfen. -
4:17 - 4:23Der erste Schritt ist es, Computern
die Objekterkennung beizubringen, -
4:23 - 4:26einzelne Bausteine der visuellen Welt.
-
4:26 - 4:30Grundsätzlich können Sie sich
diesen Lehrprozess so vorstellen, -
4:30 - 4:34dass wir den Computern
einige Trainingsbilder -
4:34 - 4:37von bestimmten Objekten zeigen,
zum Beispiel von Katzen, -
4:37 - 4:41und ein Modell entwerfen,
das von diesen Trainingsbildern lernt. -
4:41 - 4:43Wie schwer kann das schon sein?
-
4:43 - 4:47Im Grunde besteht eine Katze aus einer
Reihe verschiedener Formen und Farben. -
4:47 - 4:52Genau das waren unsere ersten Schritte
in der Objektmodellierung. -
4:52 - 4:55Wir sagten dem Computeralgorithmus
in einer mathematischen Sprache, -
4:55 - 4:59dass eine Katze ein rundes Gesicht,
einen pummeligen Körper, -
4:59 - 5:01zwei spitze Ohren
und einen langen Schwanz hat. -
5:01 - 5:02Das sah ganz gut aus.
-
5:03 - 5:05Aber wie ist es mit dieser Katze?
-
5:05 - 5:06(Lachen)
-
5:06 - 5:08Sie ist ganz zusammengekuschelt.
-
5:08 - 5:12Jetzt muss man eine andere Form und eine
Perspektive zum Objektmodell hinzufügen. -
5:12 - 5:15Wie sieht es mit versteckten Katzen aus?
-
5:15 - 5:17Was ist mit diesen albernen Katzen?
-
5:19 - 5:22Jetzt verstehen Sie mich sicherlich.
-
5:22 - 5:25Sogar etwas so Einfaches wie ein Haustier
-
5:25 - 5:29kann für das Objektmodell
unendlich viele Variationen annehmen. -
5:29 - 5:32Und das ist nur ein Objekt.
-
5:33 - 5:35Vor etwa acht Jahren
-
5:35 - 5:40veränderte eine sehr einfache
und grundlegende Beobachtung mein Denken. -
5:41 - 5:44Niemand sagt einem Kind,
wie es zu sehen hat, -
5:44 - 5:46erst recht nicht am Anfang.
-
5:46 - 5:51Sie lernen durch eigene
Erfahrungen und Beispiele. -
5:51 - 5:54Wenn man sich die Augen eines Kindes
-
5:54 - 5:57als ein Paar biologischer
Kameras vorstellt, -
5:57 - 6:01schießen diese alle 200
Millisekunden ein Bild. -
6:01 - 6:04Das ist die durchschnittliche
Dauer einer Augenbewegung. -
6:04 - 6:10Mit drei Jahren hat ein Kind also
mehrere hundert Millionen Bilder -
6:10 - 6:11der realen Welt gesehen.
-
6:11 - 6:14Das sind sehr viel Übungsbeispiele.
-
6:14 - 6:20Ich erkannte, dass der Fokus nicht auf
immer besseren Algorithmen liegen muss, -
6:20 - 6:26sondern dass wir den Algorithmen
die Art von Übungsdaten geben müssen, -
6:26 - 6:29die ein Kind durch seine
Erfahrungen sammelt, -
6:29 - 6:33sowohl quantitativ und qualitativ.
-
6:33 - 6:35Mit dieser Erkenntnis
-
6:35 - 6:38war es unsere Aufgabe,
einen Datensatz zusammenzustellen, -
6:38 - 6:42der weit mehr Bilder beinhaltete,
als alles bisher Dagewesene. -
6:42 - 6:45Vielleicht tausendfach mehr Bilder.
-
6:45 - 6:49Zusammen mit Professor Kai Li
von der Princeton University -
6:49 - 6:54starteten wir 2007 das ImageNet Projekt.
-
6:54 - 6:57Zum Glück mussten wir keine Kameras
an unseren Köpfen anbringen -
6:57 - 6:59und viele Jahre warten.
-
6:59 - 7:01Wir nutzten das Internet,
-
7:01 - 7:05die größte Fundgrube für Bilder,
die die Menschheit erschaffen hat. -
7:05 - 7:08Wir haben fast eine Milliarde
Bilder heruntergeladen -
7:08 - 7:14und mithilfe von Crowdsourcing
wie der Amazon Mechanical Turk Plattform -
7:14 - 7:16all diese Bilder kategorisiert.
-
7:16 - 7:21Zu Spitzenzeiten war ImageNet
einer der größten Arbeitgeber -
7:21 - 7:24für Amazon Mechanical Turk Mitarbeiter:
-
7:24 - 7:28Insgesamt bekamen wir Hilfe
von fast 50.000 Arbeitern -
7:28 - 7:32aus 167 Ländern weltweit
-
7:32 - 7:36beim Bereinigen, Sortieren und Benennen
-
7:36 - 7:40von fast einer Milliarde Bildern.
-
7:41 - 7:43Das zeigt, wieviel Aufwand nötig war,
-
7:43 - 7:47um auch nur einen Bruchteil
der Bilder zu erfassen, -
7:47 - 7:51die ein Kind in den frühen Jahren
seiner Entwicklung verarbeitet. -
7:52 - 7:56Rückblickend wirkt die Idee,
riesengroße Datensätze zu nutzen, -
7:56 - 8:00um Computeralgorithmen zu trainieren,
absolut naheliegend. -
8:00 - 8:04Doch 2007 war das nicht so offensichtlich.
-
8:05 - 8:09Wir waren auf dieser Reise
lange Zeit ziemlich allein. -
8:09 - 8:14Einige Kollegen rieten mir, mit meiner
Anstellung etwas Sinnvolleres zu tun -
8:14 - 8:18und wir kämpften ständig
um die Finanzierung der Forschung. -
8:18 - 8:21Einmal scherzte ich
mit meinen Studenten darüber, -
8:21 - 8:24meine alte Textilreinigung wieder
zu öffnen, um ImageNet zu finanzieren. -
8:24 - 8:29Immerhin hatte ich so auch
mein Studium finanziert. -
8:29 - 8:31Also machten wir weiter.
-
8:31 - 8:352009 lieferte das ImageNet-Projekt
-
8:35 - 8:39eine Datenbank mit
über 15 Millionen Bildern, -
8:39 - 8:44die 22.000 Objektkategorien umfassten
-
8:44 - 8:47und nach englischen
Alltagsbegriffen geordnet waren. -
8:47 - 8:50Sowohl quantitativ, als auch qualitativ
-
8:50 - 8:53war das ein noch nie dagewesener Umfang.
-
8:53 - 8:56Zurück zum Katzenbeispiel:
-
8:56 - 8:59Wir haben mehr als 62.000 Katzen
-
8:59 - 9:03mit verschiedenstem Aussehen
und in allerlei Posen -
9:03 - 9:08über alle Rassen von
Haus- und Wildkatzen hinweg. -
9:08 - 9:12Wir waren begeistert,
ImageNet aufgebaut zu haben, -
9:12 - 9:16und wollten, dass die ganze
Forschungswelt davon profitiert. -
9:16 - 9:20Ganz nach TED-Art machten wir daher
unseren kompletten Datensatz -
9:20 - 9:23für Wissenschaftler aus aller Welt
kostenlos verfügbar. -
9:24 - 9:26(Applaus)
-
9:29 - 9:34Da wir nun die Daten haben,
um unser Computerhirn zu füttern, -
9:34 - 9:38können wir jetzt
zu den Algorithmen zurückkommen. -
9:38 - 9:43Es stellte sich heraus,
dass die Informationsfülle auf ImageNet -
9:43 - 9:48perfekt zu einer bestimmten Art
von Machine Learning-Algorithmen passte, -
9:48 - 9:50sogenannte "faltende neuronale Netzwerke",
-
9:50 - 9:55entwickelt von Kunihiko Fukushima,
Geoff Hinton und Yann LeCun -
9:55 - 9:59und das schon in den 70er und 80er Jahren.
-
9:59 - 10:05So wie unser Gehirn aus Milliarden von
stark vernetzten Neuronen besteht, -
10:05 - 10:08ist die einfachste Betriebseinheit
eines neuronalen Netzwerks -
10:08 - 10:11ein neuronenähnlicher Knotenpunkt.
-
10:11 - 10:13Er erhält Input von anderen Knotenpunkten
-
10:13 - 10:16und sendet Output an andere.
-
10:16 - 10:21Zusätzlich sind diese hunderttausende
oder sogar Millionen von Knotenpunkten -
10:21 - 10:24in hierarchischen Schichten organisiert,
-
10:24 - 10:27auch das ähnlich wie im Gehirn.
-
10:27 - 10:31Ein typisches Neuronales Netz, das
unser Objekterkennungsmodell trainiert, -
10:31 - 10:35besitzt 24 Millionen Knotenpunkte,
-
10:35 - 10:38140 Millionen Parameter
-
10:38 - 10:40und 15 Milliarden Verbindungen.
-
10:40 - 10:43Das ist ein riesiges Modell.
-
10:43 - 10:47Dank der immensen Datenmenge von ImageNet
-
10:47 - 10:52und der modernen CPUs und GPUs, auf denen
wir dieses gigantische Modell trainieren, -
10:52 - 10:55blühte das faltende neuronale Netzwerk
-
10:55 - 10:58auf eine Weise auf,
die niemand erwartet hatte. -
10:58 - 11:01Es wurde die erfolgreichste Struktur,
-
11:01 - 11:06um spannende neue Ergebnisse
in der Objekterkennung zu generieren. -
11:06 - 11:09Das ist ein Computer, der uns sagt,
-
11:09 - 11:11dass auf diesem Bild
eine Katze zu sehen ist -
11:11 - 11:13und wo sich diese Katze befindet.
-
11:13 - 11:15Natürlich gibt es noch mehr
als nur Katzen. -
11:15 - 11:18Hier sehen Sie einen
Computeralgorithmus, der uns sagt, -
11:18 - 11:21dass auf dem Bild ein Junge
und ein Teddybär sind; -
11:21 - 11:25hier ein Hund, eine Person
und ein kleiner Drachen im Hintergrund; -
11:25 - 11:28oder dieses sehr überladene Bild:
-
11:28 - 11:33ein Mann, ein Skateboard,
Geländer, eine Laterne und so weiter. -
11:33 - 11:39Manchmal weiß der Computer
nicht genau, was er sieht, -
11:39 - 11:42und wir haben ihm beigebracht,
schlau genug zu sein, -
11:42 - 11:46uns eine sichere Antwort zu geben,
statt sich zu sehr festzulegen, -
11:46 - 11:48genau so wie wir es auch machen würden.
-
11:48 - 11:53Manchmal ist der Algorithmus dagegen
bemerkenswert gut darin, uns zu sagen, -
11:53 - 11:55was genau die Objekte sind,
-
11:55 - 11:59wie die Marke, das Modell
und das Baujahr eines Autos. -
11:59 - 12:04Wir haben diesen Algorithmus auf Millionen
von Google Street View Bilder angewendet -
12:04 - 12:07in hunderten amerikanischen Städten
-
12:07 - 12:10und fanden dabei etwas
sehr Interessantes heraus: -
12:10 - 12:14Zunächst bestätigte sich unsere Vermutung,
-
12:14 - 12:17dass Fahrzeugpreise in direktem Bezug
-
12:17 - 12:19zu Haushaltseinkommen stehen.
-
12:19 - 12:24Überraschenderweise korrelieren
die Fahrzeugpreise auch stark -
12:24 - 12:26mit den Kriminalitätsraten einer Stadt
-
12:27 - 12:31oder den Wahlergebnissen
nach Postleitzahlen. -
12:32 - 12:34Aber Moment mal. War es das schon?
-
12:34 - 12:39Sind Computer mit dem Menschen gleich
gezogen oder haben ihn sogar übertroffen? -
12:39 - 12:42Nicht so schnell.
-
12:42 - 12:46Bisher haben wir dem Computer
lediglich beigebracht, Objekte zu sehen. -
12:46 - 12:51Das ist wie ein kleines Kind, das gerade
seine ersten Substantive zu sagen lernt. -
12:51 - 12:54Das ist eine beachtliche Leistung,
-
12:54 - 12:56aber doch nur der erste Schritt.
-
12:56 - 13:00Bald wird das nächste
Entwicklungsziel erreicht -
13:00 - 13:03und Kinder fangen an,
in ganzen Sätzen zu kommunizieren. -
13:03 - 13:08Anstatt zu sagen,
dass auf dem Bild eine Katze ist, -
13:08 - 13:13sagte uns das kleine Mädchen schon,
dass die Katze auf einem Bett liegt. -
13:13 - 13:18Um einem Computer beizubringen,
ein Bild zu sehen und Sätze zu bilden, -
13:18 - 13:22muss die Ehe zwischen Big Data
und dem Machine Learning-Algorithmus -
13:22 - 13:24den nächsten Schritt gehen.
-
13:24 - 13:29Nun muss der Computer sowohl von Bildern
-
13:29 - 13:32als auch von natürlichsprachlichen
Sätzen lernen, -
13:32 - 13:35die Menschen erzeugen.
-
13:35 - 13:39Wie auch das Gehirn das Sehen
mit der Sprache verbindet, -
13:39 - 13:44entwickelten wir ein Modell,
das einen Teil der visuellen Dinge -
13:44 - 13:46wie visuelle Ausschnitte
-
13:46 - 13:50mit Wörtern und Ausdrücken
in Sätzen vereint. -
13:50 - 13:53Vor etwa vier Monaten
-
13:53 - 13:56haben wir das alles endlich
miteinander verbunden -
13:56 - 13:59und eines der ersten
Computer Vision-Modelle erzeugt, -
13:59 - 14:03das in der Lage ist, einen
menschenähnlichen Satz zu generieren, -
14:03 - 14:07wenn es ein Bild zum ersten Mal sieht.
-
14:07 - 14:12Jetzt kann ich Ihnen zeigen,
was der Computer sagt, -
14:12 - 14:14wenn er die Bilder sieht,
-
14:14 - 14:17die das kleine Mädchen am Anfang
dieser Präsentation sah. -
14:19 - 14:22(Video) Computer: Ein Mann steht
neben einem Elefanten. -
14:24 - 14:28Ein großes Flugzeug steht auf
einer Landebahn. -
14:29 - 14:33FFL: Natürlich arbeiten wir noch eifrig
daran, diese Algorithmen zu verbessern -
14:33 - 14:36und sie müssen noch immer viel lernen.
-
14:36 - 14:38(Applaus)
-
14:40 - 14:43Der Computer macht immer noch Fehler.
-
14:43 - 14:46(Video) Computer: Eine Katze liegt
unter einer Decke auf dem Bett. -
14:46 - 14:49FFL: Wenn er zu viele Katzen sieht,
-
14:49 - 14:52denkt er, alles könnte eine Katze sein.
-
14:53 - 14:56(Video) Computer: Ein kleiner Junge
hält einen Baseballschläger. -
14:56 - 14:58(Lachen)
-
14:58 - 15:03Wenn er noch nie eine Zahnbürste gesehen
hat, ist es für ihn ein Baseballschläger. -
15:03 - 15:07(Video) Computer: Ein Mann reitet
auf einem Pferd die Straße hinunter. -
15:07 - 15:09(Lachen)
-
15:09 - 15:13FFL: Wir haben den Computern das
Konzept der Kunst noch nicht beigebracht. -
15:14 - 15:17(Video) Computer: Ein Zebra
steht auf einer Wiese. -
15:17 - 15:21FFL: Er hat die phantastische Schönheit
der Natur noch nicht schätzen gelernt, -
15:21 - 15:22so wie Sie und ich es tun.
-
15:23 - 15:25Wir haben einen langen Weg hinter uns.
-
15:25 - 15:30Es war schwer von null bis zu unserem
dritten Lebensjahr zu kommen. -
15:30 - 15:35Die echte Herausforderung ist es aber,
von 3 bis 13 und noch weiter zu kommen. -
15:35 - 15:39Erinnern Sie sich an das Bild
mit dem Jungen und dem Kuchen. -
15:39 - 15:44Bisher haben wir dem Computer
beigebracht, Objekte zu sehen -
15:44 - 15:48oder uns eine einfache Geschichte
zu den Bildern zu erzählen. -
15:48 - 15:52(Video) Computer: Eine Person sitzt
an einem Tisch mit einem Kuchen. -
15:52 - 15:54FFL: Aber es steckt
viel mehr in diesem Bild -
15:54 - 15:56als nur eine Person und ein Kuchen.
-
15:56 - 16:01Der Computer erkennt nicht, dass es
ein spezieller italienischer Kuchen ist, -
16:01 - 16:04der nur zu Ostern gebacken wird.
-
16:04 - 16:07Der Junge trägt sein Lieblingsshirt,
-
16:07 - 16:11das ihm sein Vater von einer Reise
nach Sydney mitgebracht hat. -
16:11 - 16:15Sie und ich können sehen,
wie glücklich er ist -
16:15 - 16:18und was genau in diesem Moment
in seinem Kopf vor sich geht. -
16:19 - 16:22Das ist mein Sohn Leo.
-
16:22 - 16:25Auf meiner Suche nach
visueller Intelligenz -
16:25 - 16:27denke ich ständig an Leo
-
16:27 - 16:30und an die Welt der Zukunft,
in der er leben wird. -
16:30 - 16:34Wenn Maschinen sehen können,
werden Ärzte und Krankenschwestern -
16:34 - 16:37ein zusätzliches Paar
unermüdlicher Augen haben, -
16:37 - 16:41um ihnen bei der Diagnose
und Behandlung von Patienten zu helfen. -
16:41 - 16:45Autos werden klüger und sicherer
durch die Straßen fahren. -
16:45 - 16:49Roboter, nicht nur Menschen,
werden uns dabei helfen, -
16:49 - 16:53in Katastrophengebiete vorzudringen,
um Verschüttete und Verwundete zu retten. -
16:54 - 16:58Wir werden neue Arten
und bessere Materialien entdecken -
16:58 - 17:02und ungesehene Grenzen erkunden,
mit Hilfe von Maschinen. -
17:03 - 17:07Schritt für Schritt bringen wir
Maschinen das Sehen bei. -
17:07 - 17:10Erst bringen wir es ihnen bei.
-
17:10 - 17:13Später helfen sie uns dabei,
besser zu sehen. -
17:13 - 17:17Zum ersten Mal werden unsere Augen
nicht die einzigen sein, -
17:17 - 17:20die unsere Welt studieren und erkunden.
-
17:20 - 17:24Wir werden Maschinen nicht nur
wegen ihrer Intelligenz nutzen, -
17:24 - 17:30wir werden mit ihnen zusammenarbeiten,
wie es jetzt noch unvorstellbar scheint. -
17:30 - 17:32Das ist mein Ziel:
-
17:32 - 17:34Ich möchte Computern
visuelle Intelligenz geben -
17:34 - 17:40und damit eine bessere Zukunft für Leo
und die ganze Welt gestalten. -
17:40 - 17:41Danke.
-
17:41 - 17:44(Applaus)
- Title:
- Wie wir Computern das Sehen beibringen
- Speaker:
- Fei-Fei Li
- Description:
-
Wenn ein kleines Kind ein Foto anschaut, kann es einfache Elemente erkennen, wie eine Katze, ein Buch und einen Stuhl. Computer sind heute so weit, um gleichzuziehen. Wie geht es weiter? In einem spannenden TED-Talk erklärt die Expertin Fei-Fei Li, wie sie mit ihrem Team über 15 Millionen Fotos verarbeitete und damit einem Computer das Interpretieren von Bildern beibrachte - und das ist nur der Anfang.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:58
Sonja Maria Neef approved German subtitles for How we're teaching computers to understand pictures | ||
Sonja Maria Neef edited German subtitles for How we're teaching computers to understand pictures | ||
Sonja Maria Neef edited German subtitles for How we're teaching computers to understand pictures | ||
Andreas Herzog accepted German subtitles for How we're teaching computers to understand pictures | ||
Andreas Herzog edited German subtitles for How we're teaching computers to understand pictures | ||
Andreas Herzog edited German subtitles for How we're teaching computers to understand pictures | ||
Andreas Herzog edited German subtitles for How we're teaching computers to understand pictures | ||
Andreas Herzog edited German subtitles for How we're teaching computers to understand pictures |