Return to Video

Ο γρίφος της σγουρής πατάτας: Γιατί τα «like» στα κοινωνικά μέσα λένε περισσότερα από όσα πιστεύετε

  • 0:01 - 0:03
    Αν θυμάστε την πρώτη δεκαετία
    του διαδικτύου,
  • 0:03 - 0:05
    ήταν ένα πραγματικά στατικό μέρος.
  • 0:05 - 0:07
    Μπορούσατε να συνδεθείτε,
    να δειτε σελίδες,
  • 0:07 - 0:09
    και τις είχαν ανεβάσει
  • 0:09 - 0:12
    είτε οργανισμοί
    που είχαν ομάδες γι' αυτή τη δουλειά,
  • 0:12 - 0:15
    ή άτομα που ήταν πραγματικά
    γνώστες της τεχνολογίας της εποχής.
  • 0:15 - 0:18
    Mε την άνοδο
    των κοινωνικών μέσων και δικτύωσης
  • 0:18 - 0:20
    στην αρχή της δεκαετίας του 2000,
  • 0:20 - 0:21
    το διαδίκτυο άλλαξε ολοκληρωτικά
  • 0:21 - 0:25
    και έγινε ένα μέρος όπου
    η πλειονότητα του περιεχομένου
  • 0:25 - 0:27
    με το οποίο αλληλεπιδρούμε
  • 0:27 - 0:29
    έχει ανέβει από μέσης ικανότητας χρήστες,
  • 0:29 - 0:31
    είτε στο YouTube,
    ή σε αναρτήσεις μπλογκ,
  • 0:31 - 0:34
    ή κριτικές προϊόντων,
    ή ανακοινώσεις στα κοινωνικά μέσα.
  • 0:34 - 0:37
    Έγινε επίσης πολύ πιο διαδραστικό μέρος,
  • 0:37 - 0:39
    όπου άνθρωποι αλληλεπιδρούν με άλλους,
  • 0:39 - 0:41
    σχολιάζουν, μοιράζονται,
  • 0:41 - 0:42
    δεν διαβάζουν απλώς.
  • 0:42 - 0:44
    Το Facebook δεν είναι το μόνο τέτοιο μέρος
  • 0:44 - 0:46
    αλλά είναι το μεγαλύτερο
  • 0:46 - 0:47
    και βοηθάει να δούμε τα νούμερα.
  • 0:47 - 0:51
    Το Facebook έχει 1,2 δις χρήστες τον μήνα.
  • 0:51 - 0:53
    Άρα ο μισός πληθυσμός της Γης
  • 0:53 - 0:54
    χρησιμοποιεί το Facebook.
  • 0:54 - 0:56
    Είναι ένας ιστοχώρος, μαζί με άλλους,
  • 0:56 - 1:00
    που επέτρεψε στους ανθρώπους
    να φτιάξουν μια διαδικτυακή προσωπικότητα
  • 1:00 - 1:01
    με ελάχιστες τεχνικές ικανότητες,
  • 1:01 - 1:03
    και οι άνθρωποι ανταποκρίθηκαν
  • 1:03 - 1:06
    ανεβάζοντας τεράστιες ποσότητες
    προσωπικών δεδομένων.
  • 1:06 - 1:08
    Συνεπώς έχουμε δεδομένα συμπεριφοράς,
  • 1:08 - 1:10
    προτιμήσεων, δημογραφικά
  • 1:10 - 1:12
    για εκατοντάδες εκατομμύρια ανθρώπους,
  • 1:12 - 1:14
    το οποίο είναι άνευ προηγουμένου.
  • 1:14 - 1:17
    Και ως επιστήμονας πληροφορικής,
    αυτό σημαίνει ότι
  • 1:17 - 1:19
    έχω μπορέσει να χτίσω μοντέλα
  • 1:19 - 1:21
    ικανά να προβλέψουν
    όλων των ειδών κρυμμένα χαρακτηριστικά
  • 1:21 - 1:23
    για όλους εσάς
    και που ούτε καν γνωρίζετε
  • 1:23 - 1:25
    ότι μοιράζεστε πληροφορίες γι' αυτά.
  • 1:25 - 1:27
    Ως επιστήμονες, τα χρησιμοποιούμε
  • 1:27 - 1:30
    για να διευκολύνουμε την αλληλεπίδραση
    των συνδεδεμένων χρηστών,
  • 1:30 - 1:32
    αλλά υπάρχουν υστερόβουλες εφαρμογές
  • 1:32 - 1:36
    και το πρόβλημα είναι ότι οι χρήστες
    δεν καταλαβαίνουν αυτές τις τεχνικές
  • 1:36 - 1:37
    και πώς λειτουργούν.
  • 1:37 - 1:40
    όμως ακόμη και αν καταλάβαιναν,
    δεν μπορούν να τις ελέγξουν.
  • 1:40 - 1:42
    Έτσι σήμερα θέλω να σας μιλήσω
  • 1:42 - 1:45
    για κάποια πράγματα
    που μπορούμε να κάνουμε,
  • 1:45 - 1:47
    και μετά να δούμε κάποιες ιδέες
    για το πώς να προχωρήσουμε
  • 1:47 - 1:50
    και να φέρουμε μέρος του ελέγχου
    πίσω στους χρήστες.
  • 1:50 - 1:52
    Αυτή είναι η εταιρεία Target.
  • 1:52 - 1:53
    Δεν έβαλα εγώ το λογότυπο
  • 1:53 - 1:55
    στην κοιλιά της άμοιρης εγκύου.
  • 1:55 - 1:57
    Ίσως έχετε δει το ανέκδοτο
  • 1:57 - 1:59
    που δημοσιεύτηκε στο περιοδικό Forbes
  • 1:59 - 2:02
    όπου η Target έστειλε φυλλάδιο
    σε ένα 15χρονο κορίτσι
  • 2:02 - 2:03
    με διαφημίσεις και εκπτωτικά κουπόνια
  • 2:03 - 2:06
    για μπιμπερό, πάνες και κούνιες
  • 2:06 - 2:08
    δύο εβδομάδες πριν πει στους γονείς της
  • 2:08 - 2:09
    ότι ήταν έγκυος.
  • 2:09 - 2:12
    Ναι, ο πατέρας της
    πραγματικά αναστατώθηκε.
  • 2:12 - 2:14
    Είπε,
    «Πώς κατάλαβε η Target
  • 2:14 - 2:16
    ότι μια μαθήτρια λυκείου ήταν έγκυος
  • 2:16 - 2:18
    πριν αυτή να το πει στους γονείς της;»
  • 2:18 - 2:20
    Αποδεικνύεται ότι έχουν το ιστορικό αγορών
  • 2:20 - 2:22
    για εκατοντάδες χιλιάδες πελάτες
  • 2:22 - 2:25
    και υπολογίζουν τον αποκαλούμενο
    δείκτη εγκυμοσύνης,
  • 2:25 - 2:28
    που δεν είναι απλά
    αν μια γυναίκα είναι έγκυος,
  • 2:28 - 2:29
    αλλά ποια είναι η ημέρα τοκετού.
  • 2:29 - 2:31
    Και αυτό το υπολογίζουν
  • 2:31 - 2:32
    όχι κοιτάζοντας προφανή πράγματα,
  • 2:32 - 2:35
    εάν αγοράζει κούνια
    ή μωρουδιακά,
  • 2:35 - 2:38
    αλλά πράγματα όπως,
    αγόρασε περισσότερες βιταμίνες
  • 2:38 - 2:39
    από ότι αγόραζε συνήθως,
  • 2:39 - 2:41
    ή αγόρασε μια τσάντα
  • 2:41 - 2:43
    αρκετά μεγάλη για πάνες μωρού.
  • 2:43 - 2:45
    Και από μόνες τους αυτές οι αγορές,
  • 2:45 - 2:47
    δεν φαίνονται να φανερώνουν πολλά,
  • 2:47 - 2:49
    αλλά είναι ένα πρότυπο συμπεριφοράς που,
  • 2:49 - 2:52
    αν το συνυπολογίσετε
    με αυτό χιλιάδων άλλων ανθρώπων,
  • 2:52 - 2:55
    αρχίζει πραγματικά να αποκαλύπτει πολλά.
  • 2:55 - 2:57
    Αυτό λοιπόν είναι που κάνουμε
  • 2:57 - 2:59
    όταν κάνουμε προβλέψεις για εσάς
    στα κοινωνικά δίκτυα.
  • 2:59 - 3:02
    Ψάχνουμε για μικρά πρότυπα συμπεριφοράς
  • 3:02 - 3:05
    που αν ανιχνευτούν σε εκατομμύρια ανθρώπων
  • 3:05 - 3:07
    μας επιτρέπουν να βρούμε
    όλων των ειδών τα πράγματα.
  • 3:07 - 3:09
    Έτσι, στο εργαστήριο με συναδέλφους,
  • 3:09 - 3:13
    αναπτύξαμε μηχανισμούς
    ακριβούς πρόβλεψης πραγμάτων
  • 3:13 - 3:14
    όπως πολιτικές προτιμήσεις,
  • 3:14 - 3:16
    δείκτες προσωπικότητας, γένος,
  • 3:16 - 3:18
    σεξουαλικό προσανατολισμό,
  • 3:18 - 3:21
    θρησκεία, ηλικία, ευφυΐα,
  • 3:21 - 3:22
    αλλά και πράγματα όπως
  • 3:22 - 3:24
    πόσο εμπιστεύεστε τους οικείους σας
  • 3:24 - 3:26
    και πόσο δυνατές είναι οι σχέσεις σας.
  • 3:26 - 3:28
    Όλα αυτά μπορούμε
    να τα κάνουμε πολύ καλά.
  • 3:28 - 3:30
    Και ξανά,
    δεν προέρχονται από κάτι
  • 3:30 - 3:32
    που εσείς θεωρείτε
    προφανή πληροφόρηση.
  • 3:32 - 3:34
    Το αγαπημένο μου παράδειγμα
    είναι από μια μελέτη
  • 3:34 - 3:36
    που δημοσιεύτηκε φέτος
  • 3:36 - 3:37
    στις Διαδικασίες των Εθνικών Ακαδημιών.
  • 3:37 - 3:39
    Aναζητήστε το στο Google.
  • 3:39 - 3:41
    Είναι 4 σελίδες, ευανάγνωστο.
  • 3:41 - 3:43
    Εξέτασαν μόνο τα like των ανθρώπων
    στο Facebook,
  • 3:43 - 3:45
    άρα μόνο αυτά
    που σας αρέσουν στο Facebook
  • 3:45 - 3:48
    και τα χρησιμοποίησαν για να προβλέψουν
    όλα αυτά τα χαρακτηριστικά,
  • 3:48 - 3:49
    μαζί με κάποια άλλα.
  • 3:49 - 3:52
    Και στην εργασία τους
    παρουσίασαν τα πέντε like
  • 3:52 - 3:55
    που ήταν πιο ενδεικτικά υψηλής νοημοσύνης.
  • 3:55 - 3:57
    Ανάμεσα σε αυτά ήταν
    να σας αρέσει μια σελίδα
  • 3:57 - 3:59
    για σγουρές πατάτες.
    (Γέλια)
  • 3:59 - 4:01
    Οι σγουρές πατάτες είναι νοστιμότατες,
  • 4:01 - 4:04
    αλλά το να σου αρέσουν
    δεν σημαίνει απαραίτητα
  • 4:04 - 4:06
    ότι είσαι εξυπνότερος
    από τον μέσο άνθρωπο.
  • 4:06 - 4:08
    Πώς γίνεται λοιπόν,
  • 4:08 - 4:10
    μία από τις ισχυρότερες ενδείξεις ευφυίας
  • 4:10 - 4:12
    να είναι το να σου αρέσει αυτή η σελίδα
  • 4:12 - 4:15
    όταν το περιεχόμενο είναι τελείως άσχετο
  • 4:15 - 4:17
    με το χαρακτηριστικό που αποδίδεται;
  • 4:17 - 4:19
    Αποδεικνύεται ότι πρέπει να δούμε
  • 4:19 - 4:20
    ένα πλήθος υποκειμένων θεωριών
  • 4:20 - 4:23
    για να δούμε
    γιατί μπορούμε να το κάνουμε.
  • 4:23 - 4:26
    Μία είναι η κοινωνιολογική θεωρία
    που λέγεται ομοφυλία,
  • 4:26 - 4:29
    η οποία βασικά λέει ότι
    οι άνθρωποι είναι φίλοι με όμοιούς τους.
  • 4:29 - 4:31
    Ο έξυπνος τείνει να έχει έξυπνους φίλους,
  • 4:31 - 4:33
    και ο νέος τείνει να είναι φίλος
    με νέους ανθρώπους,
  • 4:33 - 4:35
    και αυτό είναι αποδεδειγμένο
  • 4:35 - 4:37
    εδώ και εκατοντάδες χρόνια.
  • 4:37 - 4:38
    Επίσης γνωρίζουμε πολλά
  • 4:38 - 4:41
    για τον τρόπο μετάδοσης της πληροφορίας
    μέσα από τα δίκτυα.
  • 4:41 - 4:42
    Φαίνεται ότι τα ιότροπα βίντεο
  • 4:42 - 4:45
    ή τα like στο Facebook
    ή άλλες πληροφορίες
  • 4:45 - 4:47
    διαδίδονται ακριβώς με τον ίδιο τρόπο
  • 4:47 - 4:49
    που εξαπλώνονται οι ιώσεις
    στα κοινωνικά δίκτυα.
  • 4:49 - 4:51
    Το έχουμε μελετήσει για πολύ καιρό.
  • 4:51 - 4:52
    Έχουμε καλά μοντέλα για αυτό.
  • 4:52 - 4:55
    Και έτσι μπορείτε
    να συνδυάσετε περιπτώσεις
  • 4:55 - 4:58
    και να αρχίσετε να καταλαβαίνετε
    γιατί συμβαίνουν τέτοια πράγματα.
  • 4:58 - 4:59
    Αν έπρεπε να κάνω μια υπόθεση,
  • 4:59 - 5:03
    θα έλεγα ότι ένας έξυπνος άνθρωπος
    ξεκίνησε αυτή τη σελίδα,
  • 5:03 - 5:05
    ή ότι ένας από τους πρώτους
    που του άρεσε η σελίδα
  • 5:05 - 5:07
    είχε αριστεύσει σε κάποιο τεστ.
  • 5:07 - 5:09
    Και έκαναν like,
    οι φίλοι τους το είδαν,
  • 5:09 - 5:12
    και από την ομοφυλία, ξέρουμε
    ότι μάλλον είχαν έξυπνους φίλους,
  • 5:12 - 5:14
    έτσι διαδόθηκε σε αυτούς,
    σε κάποιους από αυτούς άρεσε,
  • 5:14 - 5:16
    αυτοί είχαν έξυπνους φίλους,
  • 5:16 - 5:17
    διαδόθηκε και σε αυτούς,
  • 5:17 - 5:19
    και έτσι εξαπλώθηκε μέσα από το δίκτυο
  • 5:19 - 5:21
    σε μεγάλες ομάδες έξυπνων ανθρώπων,
  • 5:21 - 5:23
    έτσι ώστε τελικά,
  • 5:23 - 5:26
    το like στη σελίδα της σγουρής πατάτας
  • 5:26 - 5:28
    έγινε ένδειξη υψηλής ευφυίας,
  • 5:28 - 5:29
    όχι εξαιτίας του περιεχομένου,
  • 5:29 - 5:32
    αλλά επειδή η πράξη καθαυτή
    του να πατήσεις like
  • 5:32 - 5:34
    αντανακλά κοινά χαρακτηριστικά
  • 5:34 - 5:36
    με άλλους ανθρώπους που έκαναν το ίδιο.
  • 5:36 - 5:39
    Αρκετά περίπλοκη υπόθεση, σωστά;
  • 5:39 - 5:41
    Είναι δύσκολο να καθίσεις να το εξηγήσεις
  • 5:41 - 5:44
    στον μέσο χρήστη,
    αλλά και αν το κάνεις,
  • 5:44 - 5:46
    τι μπορεί να κάνει ο μέσος χρήστης;
  • 5:46 - 5:48
    Πώς μπορείς να ξέρεις ότι σου άρεσε κάτι
  • 5:48 - 5:50
    που υποδηλώνει ένα χαρακτηριστικό σου
  • 5:50 - 5:53
    που είναι τελείως άσχετο
    με το περιεχόμενο που σου άρεσε;
  • 5:53 - 5:56
    Υπάρχει πολλή δύναμη
    που οι χρήστες δεν έχουν
  • 5:56 - 5:58
    για να ελέγξουν πώς χρησιμοποιούνται
    αυτά τα δεδομένα.
  • 5:58 - 6:01
    Και το βλέπω ως ένα σοβαρό πρόβλημα
    που ελλοχεύει.
  • 6:01 - 6:03
    Έτσι νομίζω ότι υπάρχουν κάποιοι δρόμοι
  • 6:03 - 6:04
    που πρέπει να δούμε
  • 6:04 - 6:06
    για να δώσουμε στους χρήστες
  • 6:06 - 6:08
    κάποιον έλεγχο στη χρήση των δεδομένων,
  • 6:08 - 6:10
    επειδή δεν θα χρησιμοποιούνται πάντα
  • 6:10 - 6:11
    προς όφελός τους.
  • 6:11 - 6:13
    Λέω συχνά σαν παράδειγμα ότι,
  • 6:13 - 6:15
    αν ποτέ βαρεθώ να είμαι καθηγήτρια,
  • 6:15 - 6:16
    θα φτιάξω μια εταιρεία
  • 6:16 - 6:17
    που θα προβλέπει στοιχεία όπως,
  • 6:17 - 6:19
    πώς αποδίδετε σε ομαδική εργασία,
  • 6:19 - 6:22
    αν είστε χρήστης ουσιών,
    αν είστε αλκοολικός.
  • 6:22 - 6:23
    Ξέρουμε πώς να τα προβλέψουμε.
  • 6:23 - 6:25
    Και θα πουλάω αναφορές
  • 6:25 - 6:27
    σε εταιρείες ανθρώπινου δυναμικού
  • 6:27 - 6:29
    και επιχειρήσεις που θέλουν
    να σας προσλάβουν.
  • 6:29 - 6:31
    Μπορούμε να το κάνουμε άμεσα.
  • 6:31 - 6:32
    Μπορώ να το ξεκινήσω αύριο,
  • 6:32 - 6:35
    και δεν θα έχετε
    απολύτως κανένα έλεγχο σε εμένα
  • 6:35 - 6:36
    που χρησιμοποιώ τα δεδομένα σας έτσι.
  • 6:36 - 6:39
    Εμένα μου ακούγεται σαν πρόβλημα.
  • 6:39 - 6:41
    Έτσι ένας από τους δρόμους
    που έχουμε
  • 6:41 - 6:43
    είναι ο πολιτικός και νομικός δρόμος.
  • 6:43 - 6:46
    Από κάποιες απόψεις,
    νομίζω ότι είναι ο πιο αποτελεσματικός,
  • 6:46 - 6:49
    αλλά το πρόβλημα είναι ότι
    θα πρέπει να τον «ανοίξουμε».
  • 6:49 - 6:51
    Παρατηρώντας την πολιτική διαδικασία
    στην πράξη
  • 6:51 - 6:54
    με κάνει να σκέφτομαι
    ότι είναι μάλλον απίθανο
  • 6:54 - 6:55
    να πείσουμε μια ομάδα βουλευτών
  • 6:55 - 6:57
    να καθίσουν,
    να ενημερωθούν,
  • 6:57 - 6:59
    και μετά να επιφέρουν ριζικές αλλαγές
  • 6:59 - 7:02
    στον νόμο περί
    πνευματικής ιδιοκτησίας των ΗΠΑ.
  • 7:02 - 7:04
    ώστε οι χρήστες
    να ελέγχουν τα δεδομένα τους.
  • 7:04 - 7:05
    Υπάρχει και ο δρόμος της πολιτικής,
  • 7:05 - 7:07
    όπου οι εταιρείες
    των κοινωνικών μέσων λένε,
  • 7:07 - 7:08
    «Δικά σου είναι τα δεδομένα.
  • 7:08 - 7:11
    Έχεις πλήρη έλεγχο
    στο πώς χρησιμοποιούνται».
  • 7:11 - 7:13
    Το πρόβλημα είναι ότι τα μοντέλα εσόδων
  • 7:13 - 7:14
    των εταιρειών κοινωνικών μέσων
  • 7:14 - 7:18
    βασίζονται στην αποκάλυψη ή εκμετάλλευση
    των δεδομένων των χρηστών.
  • 7:18 - 7:20
    Λέγεται για το Facebook
  • 7:20 - 7:23
    ότι οι χρήστες δεν είναι ο πελάτης,
    είναι το προϊόν.
  • 7:23 - 7:25
    Πώς λοιπόν θα καταφέρεις μια εταιρεία
  • 7:25 - 7:28
    να εκχωρήσει τον έλεγχο
    του βασικού κεφαλαίου της
  • 7:28 - 7:29
    πίσω στους χρήστες;
  • 7:29 - 7:31
    Είναι πιθανόν,
    αλλά δεν νομίζω ότι είναι κάτι
  • 7:31 - 7:33
    που θα δούμε να αλλάζει σύντομα.
  • 7:33 - 7:35
    Πιστεύω ότι ο άλλος δρόμος
  • 7:35 - 7:37
    που θα είναι και πιο αποτελεσματικός,
  • 7:37 - 7:38
    είναι της περισσότερης επιστήμης.
  • 7:38 - 7:41
    Είναι η επιστήμη που μας επέτρεψε
  • 7:41 - 7:43
    να αναπτύξουμε μηχανισμούς υπολογισμού
  • 7:43 - 7:45
    των προσωπικών δεδομένων εξ αρχής.
  • 7:45 - 7:47
    Στην ουσία είναι παρόμοια η έρευνα
  • 7:47 - 7:48
    που πρέπει να κάνουμε
  • 7:48 - 7:51
    αν θέλουμε να εξελίξουμε μηχανισμούς
  • 7:51 - 7:52
    που να μπορούν να πουν στον χρήστη,
  • 7:52 - 7:54
    «Αυτό είναι το ρίσκο της πράξης σου.
  • 7:54 - 7:56
    Κάνοντας like σε αυτή
    τη σελίδα του Facebook
  • 7:56 - 7:59
    ή κοινοποιώντας
    αυτή την προσωπική πληροφορία,
  • 7:59 - 8:00
    βελτίωσες την ικανότητά μου
  • 8:00 - 8:03
    να προβλέψω
    κατά πόσον είσαι χρήστης ουσιών
  • 8:03 - 8:05
    ή πώς τα πας στον χώρο εργασίας σου».
  • 8:05 - 8:07
    Και αυτό νομίζω μπορεί να επηρεάσει
  • 8:07 - 8:09
    το κατά πόσον
    θα μοιραστούν κάτι,
  • 8:09 - 8:12
    θα το διατηρήσουν ιδιωτικό,
    ή θα το αφήσουν τελείως εκτός δικτύου.
  • 8:12 - 8:14
    Μπορούμε να δούμε πράγματα όπως
  • 8:14 - 8:16
    να μπορούν οι χρήστες
    να κρυπτογραφούν τα δεδομένα,
  • 8:16 - 8:20
    έτσι ώστε να είναι αόρατα ή άνευ αξίας
    σε σελίδες όπως το Facebook
  • 8:20 - 8:22
    ή σε υπηρεσίες τρίτων
    που έχουν πρόσβαση σε αυτά,
  • 8:22 - 8:24
    αλλά οι επιλεγμένοι χρήστες
  • 8:24 - 8:27
    που το άτομο που έκανε την ανάρτηση
    θέλει να τα δουν,
  • 8:27 - 8:28
    να μπορούν να τα δουν.
  • 8:28 - 8:30
    Είναι πάρα πολύ συναρπαστική έρευνα
  • 8:30 - 8:32
    από διαλεκτικής άποψης,
  • 8:32 - 8:34
    γι' αυτό οι επιστήμονες θα συνεργαστούν.
  • 8:34 - 8:37
    Έτσι αυτό μας δίνει πλεονέκτημα
    έναντι της νομικής πλευράς.
  • 8:37 - 8:39
    Ένα από τα προβλήματα
    που οι άνθρωποι αναφέρουν
  • 8:39 - 8:41
    όταν μιλάω γι' αυτό είναι,
  • 8:41 - 8:43
    «Αν οι άνθρωποι αρχίσουν
    να έχουν ιδιωτικά δεδομένα,
  • 8:43 - 8:45
    όλες αυτές οι μέθοδοι που αναπτύσσεις
  • 8:45 - 8:48
    για πρόβλεψη χαρακτηριστικών
    θα αποτύχουν».
  • 8:48 - 8:52
    Και εγώ απαντώ, σίγουρα,
    και αυτό για μένα είναι επιτυχία,
  • 8:52 - 8:53
    επειδή ως επιστήμονας,
  • 8:53 - 8:57
    στόχος μου δεν είναι να συνάγω
    πληροφορίες σχετικά με τους χρήστες,
  • 8:57 - 9:00
    είναι να βελτιώνω τον τρόπο
    αλληλεπίδρασής τους στο δίκτυο.
  • 9:00 - 9:03
    Μερικές φορές αυτό εμπλέκει
    και την εξεύρεση στοιχείων για αυτούς,
  • 9:03 - 9:06
    αλλά αν οι χρήστες δεν θέλουν
    να χρησιμοποιώ αυτά τα δεδομένα,
  • 9:06 - 9:08
    θα πρέπει να έχουν αυτό το δικαίωμα.
  • 9:08 - 9:10
    Θέλω οι χρήστες να είναι ενημερωμένοι
  • 9:10 - 9:13
    και να εγκρίνουν τα εργαλεία
    που αναπτύσσουμε.
  • 9:13 - 9:16
    Και νομίζω ότι ενθαρρύνοντας
    αυτό το είδος της επιστήμης,
  • 9:16 - 9:17
    και στηρίζοντας τους ερευνητές
  • 9:17 - 9:20
    που θέλουν να επιστρέψουν τον έλεγχο
    πίσω στους χρήστες
  • 9:20 - 9:23
    από τις εταιρείες κοινωνικών μέσων,
  • 9:23 - 9:24
    σημαίνει ότι προοδεύουμε,
  • 9:24 - 9:27
    καθώς τα εργαλεία αυτά
    εξελίσσονται και βελτιώνονται,
  • 9:27 - 9:28
    σημαίνει ότι θα έχουμε μορφωμένους
  • 9:28 - 9:30
    και δυναμικούς χρήστες,
  • 9:30 - 9:31
    και νομίζω όλοι συμφωνούμε
  • 9:31 - 9:34
    ότι αυτός είναι ο ιδανικός τρόπος
    να προοδεύσουμε.
  • 9:34 - 9:35
    Ευχαριστώ.
  • 9:36 - 9:38
    (Χειροκρότημα)
Title:
Ο γρίφος της σγουρής πατάτας: Γιατί τα «like» στα κοινωνικά μέσα λένε περισσότερα από όσα πιστεύετε
Speaker:
Τζένιφερ Γκόλμπεκ
Description:

Σας αρέσουν οι σγουρές πατάτες; Κάνατε like στη σελίδα τους στο Facebook; Δείτε αυτή την ομιλία για να ανακαλύψτε τα εκπληκτικά πράγματα που το Facebook (και άλλοι) μπορούν να μαντέψουν για εσάς από όσα σας αρέσουν και κοινοποιείτε. Η καθηγήτρια πληροφορικής Τζένιφερ Γκόλμπεκ εξηγεί πώς προέκυψε αυτό, πώς μερικές εφαρμογές της τεχνολογίας δεν είναι τόσο καλοήθεις - και γιατί νομίζει ότι πρέπει να επιστρέψουμε τον έλεγχο των πληροφοριών από τους νόμιμους ιδιοκτήτες τους.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Greek subtitles

Revisions