Ο γρίφος της σγουρής πατάτας: Γιατί τα «like» στα κοινωνικά μέσα λένε περισσότερα από όσα πιστεύετε
-
0:01 - 0:03Αν θυμάστε την πρώτη δεκαετία
του διαδικτύου, -
0:03 - 0:05ήταν ένα πραγματικά στατικό μέρος.
-
0:05 - 0:07Μπορούσατε να συνδεθείτε,
να δειτε σελίδες, -
0:07 - 0:09και τις είχαν ανεβάσει
-
0:09 - 0:12είτε οργανισμοί
που είχαν ομάδες γι' αυτή τη δουλειά, -
0:12 - 0:15ή άτομα που ήταν πραγματικά
γνώστες της τεχνολογίας της εποχής. -
0:15 - 0:18Mε την άνοδο
των κοινωνικών μέσων και δικτύωσης -
0:18 - 0:20στην αρχή της δεκαετίας του 2000,
-
0:20 - 0:21το διαδίκτυο άλλαξε ολοκληρωτικά
-
0:21 - 0:25και έγινε ένα μέρος όπου
η πλειονότητα του περιεχομένου -
0:25 - 0:27με το οποίο αλληλεπιδρούμε
-
0:27 - 0:29έχει ανέβει από μέσης ικανότητας χρήστες,
-
0:29 - 0:31είτε στο YouTube,
ή σε αναρτήσεις μπλογκ, -
0:31 - 0:34ή κριτικές προϊόντων,
ή ανακοινώσεις στα κοινωνικά μέσα. -
0:34 - 0:37Έγινε επίσης πολύ πιο διαδραστικό μέρος,
-
0:37 - 0:39όπου άνθρωποι αλληλεπιδρούν με άλλους,
-
0:39 - 0:41σχολιάζουν, μοιράζονται,
-
0:41 - 0:42δεν διαβάζουν απλώς.
-
0:42 - 0:44Το Facebook δεν είναι το μόνο τέτοιο μέρος
-
0:44 - 0:46αλλά είναι το μεγαλύτερο
-
0:46 - 0:47και βοηθάει να δούμε τα νούμερα.
-
0:47 - 0:51Το Facebook έχει 1,2 δις χρήστες τον μήνα.
-
0:51 - 0:53Άρα ο μισός πληθυσμός της Γης
-
0:53 - 0:54χρησιμοποιεί το Facebook.
-
0:54 - 0:56Είναι ένας ιστοχώρος, μαζί με άλλους,
-
0:56 - 1:00που επέτρεψε στους ανθρώπους
να φτιάξουν μια διαδικτυακή προσωπικότητα -
1:00 - 1:01με ελάχιστες τεχνικές ικανότητες,
-
1:01 - 1:03και οι άνθρωποι ανταποκρίθηκαν
-
1:03 - 1:06ανεβάζοντας τεράστιες ποσότητες
προσωπικών δεδομένων. -
1:06 - 1:08Συνεπώς έχουμε δεδομένα συμπεριφοράς,
-
1:08 - 1:10προτιμήσεων, δημογραφικά
-
1:10 - 1:12για εκατοντάδες εκατομμύρια ανθρώπους,
-
1:12 - 1:14το οποίο είναι άνευ προηγουμένου.
-
1:14 - 1:17Και ως επιστήμονας πληροφορικής,
αυτό σημαίνει ότι -
1:17 - 1:19έχω μπορέσει να χτίσω μοντέλα
-
1:19 - 1:21ικανά να προβλέψουν
όλων των ειδών κρυμμένα χαρακτηριστικά -
1:21 - 1:23για όλους εσάς
και που ούτε καν γνωρίζετε -
1:23 - 1:25ότι μοιράζεστε πληροφορίες γι' αυτά.
-
1:25 - 1:27Ως επιστήμονες, τα χρησιμοποιούμε
-
1:27 - 1:30για να διευκολύνουμε την αλληλεπίδραση
των συνδεδεμένων χρηστών, -
1:30 - 1:32αλλά υπάρχουν υστερόβουλες εφαρμογές
-
1:32 - 1:36και το πρόβλημα είναι ότι οι χρήστες
δεν καταλαβαίνουν αυτές τις τεχνικές -
1:36 - 1:37και πώς λειτουργούν.
-
1:37 - 1:40όμως ακόμη και αν καταλάβαιναν,
δεν μπορούν να τις ελέγξουν. -
1:40 - 1:42Έτσι σήμερα θέλω να σας μιλήσω
-
1:42 - 1:45για κάποια πράγματα
που μπορούμε να κάνουμε, -
1:45 - 1:47και μετά να δούμε κάποιες ιδέες
για το πώς να προχωρήσουμε -
1:47 - 1:50και να φέρουμε μέρος του ελέγχου
πίσω στους χρήστες. -
1:50 - 1:52Αυτή είναι η εταιρεία Target.
-
1:52 - 1:53Δεν έβαλα εγώ το λογότυπο
-
1:53 - 1:55στην κοιλιά της άμοιρης εγκύου.
-
1:55 - 1:57Ίσως έχετε δει το ανέκδοτο
-
1:57 - 1:59που δημοσιεύτηκε στο περιοδικό Forbes
-
1:59 - 2:02όπου η Target έστειλε φυλλάδιο
σε ένα 15χρονο κορίτσι -
2:02 - 2:03με διαφημίσεις και εκπτωτικά κουπόνια
-
2:03 - 2:06για μπιμπερό, πάνες και κούνιες
-
2:06 - 2:08δύο εβδομάδες πριν πει στους γονείς της
-
2:08 - 2:09ότι ήταν έγκυος.
-
2:09 - 2:12Ναι, ο πατέρας της
πραγματικά αναστατώθηκε. -
2:12 - 2:14Είπε,
«Πώς κατάλαβε η Target -
2:14 - 2:16ότι μια μαθήτρια λυκείου ήταν έγκυος
-
2:16 - 2:18πριν αυτή να το πει στους γονείς της;»
-
2:18 - 2:20Αποδεικνύεται ότι έχουν το ιστορικό αγορών
-
2:20 - 2:22για εκατοντάδες χιλιάδες πελάτες
-
2:22 - 2:25και υπολογίζουν τον αποκαλούμενο
δείκτη εγκυμοσύνης, -
2:25 - 2:28που δεν είναι απλά
αν μια γυναίκα είναι έγκυος, -
2:28 - 2:29αλλά ποια είναι η ημέρα τοκετού.
-
2:29 - 2:31Και αυτό το υπολογίζουν
-
2:31 - 2:32όχι κοιτάζοντας προφανή πράγματα,
-
2:32 - 2:35εάν αγοράζει κούνια
ή μωρουδιακά, -
2:35 - 2:38αλλά πράγματα όπως,
αγόρασε περισσότερες βιταμίνες -
2:38 - 2:39από ότι αγόραζε συνήθως,
-
2:39 - 2:41ή αγόρασε μια τσάντα
-
2:41 - 2:43αρκετά μεγάλη για πάνες μωρού.
-
2:43 - 2:45Και από μόνες τους αυτές οι αγορές,
-
2:45 - 2:47δεν φαίνονται να φανερώνουν πολλά,
-
2:47 - 2:49αλλά είναι ένα πρότυπο συμπεριφοράς που,
-
2:49 - 2:52αν το συνυπολογίσετε
με αυτό χιλιάδων άλλων ανθρώπων, -
2:52 - 2:55αρχίζει πραγματικά να αποκαλύπτει πολλά.
-
2:55 - 2:57Αυτό λοιπόν είναι που κάνουμε
-
2:57 - 2:59όταν κάνουμε προβλέψεις για εσάς
στα κοινωνικά δίκτυα. -
2:59 - 3:02Ψάχνουμε για μικρά πρότυπα συμπεριφοράς
-
3:02 - 3:05που αν ανιχνευτούν σε εκατομμύρια ανθρώπων
-
3:05 - 3:07μας επιτρέπουν να βρούμε
όλων των ειδών τα πράγματα. -
3:07 - 3:09Έτσι, στο εργαστήριο με συναδέλφους,
-
3:09 - 3:13αναπτύξαμε μηχανισμούς
ακριβούς πρόβλεψης πραγμάτων -
3:13 - 3:14όπως πολιτικές προτιμήσεις,
-
3:14 - 3:16δείκτες προσωπικότητας, γένος,
-
3:16 - 3:18σεξουαλικό προσανατολισμό,
-
3:18 - 3:21θρησκεία, ηλικία, ευφυΐα,
-
3:21 - 3:22αλλά και πράγματα όπως
-
3:22 - 3:24πόσο εμπιστεύεστε τους οικείους σας
-
3:24 - 3:26και πόσο δυνατές είναι οι σχέσεις σας.
-
3:26 - 3:28Όλα αυτά μπορούμε
να τα κάνουμε πολύ καλά. -
3:28 - 3:30Και ξανά,
δεν προέρχονται από κάτι -
3:30 - 3:32που εσείς θεωρείτε
προφανή πληροφόρηση. -
3:32 - 3:34Το αγαπημένο μου παράδειγμα
είναι από μια μελέτη -
3:34 - 3:36που δημοσιεύτηκε φέτος
-
3:36 - 3:37στις Διαδικασίες των Εθνικών Ακαδημιών.
-
3:37 - 3:39Aναζητήστε το στο Google.
-
3:39 - 3:41Είναι 4 σελίδες, ευανάγνωστο.
-
3:41 - 3:43Εξέτασαν μόνο τα like των ανθρώπων
στο Facebook, -
3:43 - 3:45άρα μόνο αυτά
που σας αρέσουν στο Facebook -
3:45 - 3:48και τα χρησιμοποίησαν για να προβλέψουν
όλα αυτά τα χαρακτηριστικά, -
3:48 - 3:49μαζί με κάποια άλλα.
-
3:49 - 3:52Και στην εργασία τους
παρουσίασαν τα πέντε like -
3:52 - 3:55που ήταν πιο ενδεικτικά υψηλής νοημοσύνης.
-
3:55 - 3:57Ανάμεσα σε αυτά ήταν
να σας αρέσει μια σελίδα -
3:57 - 3:59για σγουρές πατάτες.
(Γέλια) -
3:59 - 4:01Οι σγουρές πατάτες είναι νοστιμότατες,
-
4:01 - 4:04αλλά το να σου αρέσουν
δεν σημαίνει απαραίτητα -
4:04 - 4:06ότι είσαι εξυπνότερος
από τον μέσο άνθρωπο. -
4:06 - 4:08Πώς γίνεται λοιπόν,
-
4:08 - 4:10μία από τις ισχυρότερες ενδείξεις ευφυίας
-
4:10 - 4:12να είναι το να σου αρέσει αυτή η σελίδα
-
4:12 - 4:15όταν το περιεχόμενο είναι τελείως άσχετο
-
4:15 - 4:17με το χαρακτηριστικό που αποδίδεται;
-
4:17 - 4:19Αποδεικνύεται ότι πρέπει να δούμε
-
4:19 - 4:20ένα πλήθος υποκειμένων θεωριών
-
4:20 - 4:23για να δούμε
γιατί μπορούμε να το κάνουμε. -
4:23 - 4:26Μία είναι η κοινωνιολογική θεωρία
που λέγεται ομοφυλία, -
4:26 - 4:29η οποία βασικά λέει ότι
οι άνθρωποι είναι φίλοι με όμοιούς τους. -
4:29 - 4:31Ο έξυπνος τείνει να έχει έξυπνους φίλους,
-
4:31 - 4:33και ο νέος τείνει να είναι φίλος
με νέους ανθρώπους, -
4:33 - 4:35και αυτό είναι αποδεδειγμένο
-
4:35 - 4:37εδώ και εκατοντάδες χρόνια.
-
4:37 - 4:38Επίσης γνωρίζουμε πολλά
-
4:38 - 4:41για τον τρόπο μετάδοσης της πληροφορίας
μέσα από τα δίκτυα. -
4:41 - 4:42Φαίνεται ότι τα ιότροπα βίντεο
-
4:42 - 4:45ή τα like στο Facebook
ή άλλες πληροφορίες -
4:45 - 4:47διαδίδονται ακριβώς με τον ίδιο τρόπο
-
4:47 - 4:49που εξαπλώνονται οι ιώσεις
στα κοινωνικά δίκτυα. -
4:49 - 4:51Το έχουμε μελετήσει για πολύ καιρό.
-
4:51 - 4:52Έχουμε καλά μοντέλα για αυτό.
-
4:52 - 4:55Και έτσι μπορείτε
να συνδυάσετε περιπτώσεις -
4:55 - 4:58και να αρχίσετε να καταλαβαίνετε
γιατί συμβαίνουν τέτοια πράγματα. -
4:58 - 4:59Αν έπρεπε να κάνω μια υπόθεση,
-
4:59 - 5:03θα έλεγα ότι ένας έξυπνος άνθρωπος
ξεκίνησε αυτή τη σελίδα, -
5:03 - 5:05ή ότι ένας από τους πρώτους
που του άρεσε η σελίδα -
5:05 - 5:07είχε αριστεύσει σε κάποιο τεστ.
-
5:07 - 5:09Και έκαναν like,
οι φίλοι τους το είδαν, -
5:09 - 5:12και από την ομοφυλία, ξέρουμε
ότι μάλλον είχαν έξυπνους φίλους, -
5:12 - 5:14έτσι διαδόθηκε σε αυτούς,
σε κάποιους από αυτούς άρεσε, -
5:14 - 5:16αυτοί είχαν έξυπνους φίλους,
-
5:16 - 5:17διαδόθηκε και σε αυτούς,
-
5:17 - 5:19και έτσι εξαπλώθηκε μέσα από το δίκτυο
-
5:19 - 5:21σε μεγάλες ομάδες έξυπνων ανθρώπων,
-
5:21 - 5:23έτσι ώστε τελικά,
-
5:23 - 5:26το like στη σελίδα της σγουρής πατάτας
-
5:26 - 5:28έγινε ένδειξη υψηλής ευφυίας,
-
5:28 - 5:29όχι εξαιτίας του περιεχομένου,
-
5:29 - 5:32αλλά επειδή η πράξη καθαυτή
του να πατήσεις like -
5:32 - 5:34αντανακλά κοινά χαρακτηριστικά
-
5:34 - 5:36με άλλους ανθρώπους που έκαναν το ίδιο.
-
5:36 - 5:39Αρκετά περίπλοκη υπόθεση, σωστά;
-
5:39 - 5:41Είναι δύσκολο να καθίσεις να το εξηγήσεις
-
5:41 - 5:44στον μέσο χρήστη,
αλλά και αν το κάνεις, -
5:44 - 5:46τι μπορεί να κάνει ο μέσος χρήστης;
-
5:46 - 5:48Πώς μπορείς να ξέρεις ότι σου άρεσε κάτι
-
5:48 - 5:50που υποδηλώνει ένα χαρακτηριστικό σου
-
5:50 - 5:53που είναι τελείως άσχετο
με το περιεχόμενο που σου άρεσε; -
5:53 - 5:56Υπάρχει πολλή δύναμη
που οι χρήστες δεν έχουν -
5:56 - 5:58για να ελέγξουν πώς χρησιμοποιούνται
αυτά τα δεδομένα. -
5:58 - 6:01Και το βλέπω ως ένα σοβαρό πρόβλημα
που ελλοχεύει. -
6:01 - 6:03Έτσι νομίζω ότι υπάρχουν κάποιοι δρόμοι
-
6:03 - 6:04που πρέπει να δούμε
-
6:04 - 6:06για να δώσουμε στους χρήστες
-
6:06 - 6:08κάποιον έλεγχο στη χρήση των δεδομένων,
-
6:08 - 6:10επειδή δεν θα χρησιμοποιούνται πάντα
-
6:10 - 6:11προς όφελός τους.
-
6:11 - 6:13Λέω συχνά σαν παράδειγμα ότι,
-
6:13 - 6:15αν ποτέ βαρεθώ να είμαι καθηγήτρια,
-
6:15 - 6:16θα φτιάξω μια εταιρεία
-
6:16 - 6:17που θα προβλέπει στοιχεία όπως,
-
6:17 - 6:19πώς αποδίδετε σε ομαδική εργασία,
-
6:19 - 6:22αν είστε χρήστης ουσιών,
αν είστε αλκοολικός. -
6:22 - 6:23Ξέρουμε πώς να τα προβλέψουμε.
-
6:23 - 6:25Και θα πουλάω αναφορές
-
6:25 - 6:27σε εταιρείες ανθρώπινου δυναμικού
-
6:27 - 6:29και επιχειρήσεις που θέλουν
να σας προσλάβουν. -
6:29 - 6:31Μπορούμε να το κάνουμε άμεσα.
-
6:31 - 6:32Μπορώ να το ξεκινήσω αύριο,
-
6:32 - 6:35και δεν θα έχετε
απολύτως κανένα έλεγχο σε εμένα -
6:35 - 6:36που χρησιμοποιώ τα δεδομένα σας έτσι.
-
6:36 - 6:39Εμένα μου ακούγεται σαν πρόβλημα.
-
6:39 - 6:41Έτσι ένας από τους δρόμους
που έχουμε -
6:41 - 6:43είναι ο πολιτικός και νομικός δρόμος.
-
6:43 - 6:46Από κάποιες απόψεις,
νομίζω ότι είναι ο πιο αποτελεσματικός, -
6:46 - 6:49αλλά το πρόβλημα είναι ότι
θα πρέπει να τον «ανοίξουμε». -
6:49 - 6:51Παρατηρώντας την πολιτική διαδικασία
στην πράξη -
6:51 - 6:54με κάνει να σκέφτομαι
ότι είναι μάλλον απίθανο -
6:54 - 6:55να πείσουμε μια ομάδα βουλευτών
-
6:55 - 6:57να καθίσουν,
να ενημερωθούν, -
6:57 - 6:59και μετά να επιφέρουν ριζικές αλλαγές
-
6:59 - 7:02στον νόμο περί
πνευματικής ιδιοκτησίας των ΗΠΑ. -
7:02 - 7:04ώστε οι χρήστες
να ελέγχουν τα δεδομένα τους. -
7:04 - 7:05Υπάρχει και ο δρόμος της πολιτικής,
-
7:05 - 7:07όπου οι εταιρείες
των κοινωνικών μέσων λένε, -
7:07 - 7:08«Δικά σου είναι τα δεδομένα.
-
7:08 - 7:11Έχεις πλήρη έλεγχο
στο πώς χρησιμοποιούνται». -
7:11 - 7:13Το πρόβλημα είναι ότι τα μοντέλα εσόδων
-
7:13 - 7:14των εταιρειών κοινωνικών μέσων
-
7:14 - 7:18βασίζονται στην αποκάλυψη ή εκμετάλλευση
των δεδομένων των χρηστών. -
7:18 - 7:20Λέγεται για το Facebook
-
7:20 - 7:23ότι οι χρήστες δεν είναι ο πελάτης,
είναι το προϊόν. -
7:23 - 7:25Πώς λοιπόν θα καταφέρεις μια εταιρεία
-
7:25 - 7:28να εκχωρήσει τον έλεγχο
του βασικού κεφαλαίου της -
7:28 - 7:29πίσω στους χρήστες;
-
7:29 - 7:31Είναι πιθανόν,
αλλά δεν νομίζω ότι είναι κάτι -
7:31 - 7:33που θα δούμε να αλλάζει σύντομα.
-
7:33 - 7:35Πιστεύω ότι ο άλλος δρόμος
-
7:35 - 7:37που θα είναι και πιο αποτελεσματικός,
-
7:37 - 7:38είναι της περισσότερης επιστήμης.
-
7:38 - 7:41Είναι η επιστήμη που μας επέτρεψε
-
7:41 - 7:43να αναπτύξουμε μηχανισμούς υπολογισμού
-
7:43 - 7:45των προσωπικών δεδομένων εξ αρχής.
-
7:45 - 7:47Στην ουσία είναι παρόμοια η έρευνα
-
7:47 - 7:48που πρέπει να κάνουμε
-
7:48 - 7:51αν θέλουμε να εξελίξουμε μηχανισμούς
-
7:51 - 7:52που να μπορούν να πουν στον χρήστη,
-
7:52 - 7:54«Αυτό είναι το ρίσκο της πράξης σου.
-
7:54 - 7:56Κάνοντας like σε αυτή
τη σελίδα του Facebook -
7:56 - 7:59ή κοινοποιώντας
αυτή την προσωπική πληροφορία, -
7:59 - 8:00βελτίωσες την ικανότητά μου
-
8:00 - 8:03να προβλέψω
κατά πόσον είσαι χρήστης ουσιών -
8:03 - 8:05ή πώς τα πας στον χώρο εργασίας σου».
-
8:05 - 8:07Και αυτό νομίζω μπορεί να επηρεάσει
-
8:07 - 8:09το κατά πόσον
θα μοιραστούν κάτι, -
8:09 - 8:12θα το διατηρήσουν ιδιωτικό,
ή θα το αφήσουν τελείως εκτός δικτύου. -
8:12 - 8:14Μπορούμε να δούμε πράγματα όπως
-
8:14 - 8:16να μπορούν οι χρήστες
να κρυπτογραφούν τα δεδομένα, -
8:16 - 8:20έτσι ώστε να είναι αόρατα ή άνευ αξίας
σε σελίδες όπως το Facebook -
8:20 - 8:22ή σε υπηρεσίες τρίτων
που έχουν πρόσβαση σε αυτά, -
8:22 - 8:24αλλά οι επιλεγμένοι χρήστες
-
8:24 - 8:27που το άτομο που έκανε την ανάρτηση
θέλει να τα δουν, -
8:27 - 8:28να μπορούν να τα δουν.
-
8:28 - 8:30Είναι πάρα πολύ συναρπαστική έρευνα
-
8:30 - 8:32από διαλεκτικής άποψης,
-
8:32 - 8:34γι' αυτό οι επιστήμονες θα συνεργαστούν.
-
8:34 - 8:37Έτσι αυτό μας δίνει πλεονέκτημα
έναντι της νομικής πλευράς. -
8:37 - 8:39Ένα από τα προβλήματα
που οι άνθρωποι αναφέρουν -
8:39 - 8:41όταν μιλάω γι' αυτό είναι,
-
8:41 - 8:43«Αν οι άνθρωποι αρχίσουν
να έχουν ιδιωτικά δεδομένα, -
8:43 - 8:45όλες αυτές οι μέθοδοι που αναπτύσσεις
-
8:45 - 8:48για πρόβλεψη χαρακτηριστικών
θα αποτύχουν». -
8:48 - 8:52Και εγώ απαντώ, σίγουρα,
και αυτό για μένα είναι επιτυχία, -
8:52 - 8:53επειδή ως επιστήμονας,
-
8:53 - 8:57στόχος μου δεν είναι να συνάγω
πληροφορίες σχετικά με τους χρήστες, -
8:57 - 9:00είναι να βελτιώνω τον τρόπο
αλληλεπίδρασής τους στο δίκτυο. -
9:00 - 9:03Μερικές φορές αυτό εμπλέκει
και την εξεύρεση στοιχείων για αυτούς, -
9:03 - 9:06αλλά αν οι χρήστες δεν θέλουν
να χρησιμοποιώ αυτά τα δεδομένα, -
9:06 - 9:08θα πρέπει να έχουν αυτό το δικαίωμα.
-
9:08 - 9:10Θέλω οι χρήστες να είναι ενημερωμένοι
-
9:10 - 9:13και να εγκρίνουν τα εργαλεία
που αναπτύσσουμε. -
9:13 - 9:16Και νομίζω ότι ενθαρρύνοντας
αυτό το είδος της επιστήμης, -
9:16 - 9:17και στηρίζοντας τους ερευνητές
-
9:17 - 9:20που θέλουν να επιστρέψουν τον έλεγχο
πίσω στους χρήστες -
9:20 - 9:23από τις εταιρείες κοινωνικών μέσων,
-
9:23 - 9:24σημαίνει ότι προοδεύουμε,
-
9:24 - 9:27καθώς τα εργαλεία αυτά
εξελίσσονται και βελτιώνονται, -
9:27 - 9:28σημαίνει ότι θα έχουμε μορφωμένους
-
9:28 - 9:30και δυναμικούς χρήστες,
-
9:30 - 9:31και νομίζω όλοι συμφωνούμε
-
9:31 - 9:34ότι αυτός είναι ο ιδανικός τρόπος
να προοδεύσουμε. -
9:34 - 9:35Ευχαριστώ.
-
9:36 - 9:38(Χειροκρότημα)
- Title:
- Ο γρίφος της σγουρής πατάτας: Γιατί τα «like» στα κοινωνικά μέσα λένε περισσότερα από όσα πιστεύετε
- Speaker:
- Τζένιφερ Γκόλμπεκ
- Description:
-
Σας αρέσουν οι σγουρές πατάτες; Κάνατε like στη σελίδα τους στο Facebook; Δείτε αυτή την ομιλία για να ανακαλύψτε τα εκπληκτικά πράγματα που το Facebook (και άλλοι) μπορούν να μαντέψουν για εσάς από όσα σας αρέσουν και κοινοποιείτε. Η καθηγήτρια πληροφορικής Τζένιφερ Γκόλμπεκ εξηγεί πώς προέκυψε αυτό, πώς μερικές εφαρμογές της τεχνολογίας δεν είναι τόσο καλοήθεις - και γιατί νομίζει ότι πρέπει να επιστρέψουμε τον έλεγχο των πληροφοριών από τους νόμιμους ιδιοκτήτες τους.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Chryssa R. Takahashi approved Greek subtitles for Your social media "likes" expose more than you think | ||
Chryssa R. Takahashi edited Greek subtitles for Your social media "likes" expose more than you think | ||
Chryssa R. Takahashi edited Greek subtitles for Your social media "likes" expose more than you think | ||
Chryssa R. Takahashi edited Greek subtitles for Your social media "likes" expose more than you think | ||
Chryssa R. Takahashi edited Greek subtitles for Your social media "likes" expose more than you think | ||
Chryssa R. Takahashi edited Greek subtitles for Your social media "likes" expose more than you think | ||
Androniki Koumadoraki accepted Greek subtitles for Your social media "likes" expose more than you think | ||
Androniki Koumadoraki edited Greek subtitles for Your social media "likes" expose more than you think |