Return to Video

Teka-teki kentang goreng keriting: Kenapa "suka" di media sosial mengatakan lebih banyak dari yang Anda kira

  • 0:01 - 0:03
    Jika Anda ingat dekade pertama dari web
  • 0:03 - 0:05
    ia merupakan tempat yang sangat statis
  • 0:05 - 0:07
    Anda bisa online, melihat-lihat laman,
  • 0:07 - 0:10
    dan laman-laman ini milik organisasi besar
  • 0:10 - 0:11
    yang memiliki tim untuk membuatnya
  • 0:11 - 0:14
    atau oleh individu yang sangat
    mahfum teknologi
  • 0:14 - 0:15
    saat itu.
  • 0:15 - 0:17
    Dan dengan munculnya media sosial
  • 0:17 - 0:19
    dan jejaring sosial di awal tahun 2000-an,
  • 0:19 - 0:21
    web berubah secara drastis
  • 0:21 - 0:25
    kini menjadi tempat dimana
    mayoritas konten
  • 0:25 - 0:28
    yang berinteraksi dengan kita
    dimiliki oleh pengguna biasa,
  • 0:28 - 0:31
    baik video di Youtube atau posting blog
  • 0:31 - 0:34
    atau ulasan produk atau
    posting media sosial.
  • 0:34 - 0:37
    Dan menjadi tempat yang sangat interaktif
  • 0:37 - 0:39
    dimana orang dapat berinteraksi
    satu sama lain
  • 0:39 - 0:41
    saling memberi komentar, berbagi,
  • 0:41 - 0:42
    orang tidak lagi hanya membaca.
  • 0:42 - 0:44
    Facebook bukan satu-satunya,
  • 0:44 - 0:46
    tapi ia yang terbesar,
  • 0:46 - 0:47
    dan cukup untuk memberi gambaran.
  • 0:47 - 0:51
    Facebook memiliki 1,2 miliar pengguna
    setiap bulannya
  • 0:51 - 0:53
    Jadi separuh dari populasi internet Bumi
  • 0:53 - 0:54
    menggunakan Facebook.
  • 0:54 - 0:56
    Mereka adalah laman, seperti lainnya,
  • 0:56 - 1:00
    yang memungkinkan orang untuk
    menciptakan profil online
  • 1:00 - 1:01
    dengan kemampuan teknis yang minim,
  • 1:01 - 1:04
    dan orang meresponnya dengan
    menaruh sejumlah besar
  • 1:04 - 1:06
    data-data pribadi secara online
  • 1:06 - 1:08
    Sebagai hasilnya,
    kami memiliki data tentang
  • 1:08 - 1:10
    kebiasaan, preferensi, demografis
  • 1:10 - 1:12
    dari ratusan juta orang,
  • 1:12 - 1:14
    hal yang tidak pernah terjadi sebelumnya.
  • 1:14 - 1:17
    Bagi saya sebagai ilmuwan komputer,
    ini berarti
  • 1:17 - 1:19
    saya dapat membuat model-model
  • 1:19 - 1:21
    yang bisa memprediksi segala atribut tersembunyi
  • 1:21 - 1:23
    dari Anda semua, bahkan tidak mengetahui
  • 1:23 - 1:25
    bahwa informasi ini telah Anda berikan.
  • 1:25 - 1:28
    Sebagai ilmuwan, kami menggunakannya untuk
  • 1:28 - 1:30
    membantu orang berinteraksi secara online
  • 1:30 - 1:32
    tapi ada aplikasi yang kurang altruistik,
  • 1:32 - 1:35
    dan akan menjadi masalah jika pengguna
    tidak begitu
  • 1:35 - 1:37
    memahami teknik ini dan
    bagaimana cara kerjanya
  • 1:37 - 1:40
    dan walau mereka paham,
    mereka tidak punya kontrol atas hal ini.
  • 1:40 - 1:42
    Jadi yang ingin saya sampaikan
  • 1:42 - 1:45
    adalah hal-hal yang dapat kami lakukan
  • 1:45 - 1:47
    yang kemudian memberi ide
    bagaimana ke langkah berikutnya
  • 1:47 - 1:50
    untuk mengembalikan kontrol
    ke tangan para pengguna.
  • 1:50 - 1:52
    Ini adalah perusahaan Target
  • 1:52 - 1:53
    Saya tidak menaruh logo begitu saja
  • 1:53 - 1:55
    di atas perut wanita hamil ini
  • 1:55 - 1:57
    Anda mungkin pernah melihat anekdot
  • 1:57 - 1:59
    yang dicetak majalah Forbes
    dimana Target
  • 1:59 - 2:02
    mengirimkan brosur kepada gadis
    berumur 15 tahun
  • 2:02 - 2:03
    beserta iklan dan kupon belanja
  • 2:03 - 2:06
    untuk botol bayi, popok dan tempat tidur
  • 2:06 - 2:08
    2 minggu sebelum ia memberitahu
    orang tuanya
  • 2:08 - 2:09
    bahwa ia sedang hamil.
  • 2:09 - 2:12
    Yah, bapak anak ini tentu sangat marah.
  • 2:12 - 2:14
    Ia berkata, "Bagaimana Target tahu
  • 2:14 - 2:16
    bahwa anak SMA ini sedang hamil
  • 2:16 - 2:18
    sebelum dia memberitahu orang tuanya?"
  • 2:18 - 2:20
    Ternyata Target memiliki sejarah belanja
  • 2:20 - 2:22
    ratusan ribu pelanggannya
  • 2:22 - 2:25
    dan mereka menghitung skor kehamilan,
  • 2:25 - 2:28
    bukan hanya apakah hamil tidaknya
    seorang wanita
  • 2:28 - 2:29
    tapi juga kapan ia melahirkan.
  • 2:29 - 2:31
    Dan mereka menghitung
  • 2:31 - 2:32
    tidak berdasarkan hal-hal yang kentara
  • 2:32 - 2:35
    seperti membeli tempat tidur
    atau baju bayi,
  • 2:35 - 2:38
    tapi hal-hal seperti belanja lebih
    banyak vitamin
  • 2:38 - 2:39
    dari kebiasaan normalnya,
  • 2:39 - 2:41
    atau membeli tas tangan yang
  • 2:41 - 2:43
    cukup besar untuk menyimpan popok
  • 2:43 - 2:45
    Dan mereka, aktivitas belanja ini
  • 2:45 - 2:47
    tidak tampak dapat mengungkapkan banyak
  • 2:47 - 2:49
    tapi ini adalah pola tingkah laku
  • 2:49 - 2:52
    dimana ketika Anda mengambil
    konteksnya dari ribuan orang lainnya
  • 2:52 - 2:55
    mulai memunculkan informasi ini.
  • 2:55 - 2:57
    Jadi hal-hal yang kami lakukan
  • 2:57 - 2:59
    ketika kami memprediksi tentang Anda
    dari media sosial
  • 2:59 - 3:02
    Kami mencari dari pola tingkah laku
    yang kecil dimana
  • 3:02 - 3:05
    ketika Anda mendeteksinya dari
    jutaan orang
  • 3:05 - 3:07
    memungkinkan kami untuk
    menemukan banyak hal.
  • 3:07 - 3:09
    Di laboratorium saya dan beberapa kolega,
  • 3:09 - 3:11
    membangun mekanisme dimana kami dapat
  • 3:11 - 3:13
    memprediksi sesuatu dengan tepat
  • 3:13 - 3:14
    seperti pilihan politik Anda,
  • 3:14 - 3:18
    skor kepribadian, jenis kelamin, orientasi seksual Anda
  • 3:18 - 3:21
    agama, usia, kecerdasan
  • 3:21 - 3:22
    dan juga hal-hal seperti
  • 3:22 - 3:24
    seberapa Anda mempercayai
    orang yang Anda kenal
  • 3:24 - 3:26
    dan seberapa kuat hubungan tersebut.
  • 3:26 - 3:28
    Kami dapat melakukannya dengan baik.
  • 3:28 - 3:30
    Dan lagi, ini tidak datang dari
  • 3:30 - 3:32
    informasi yang Anda anggap gamblang.
  • 3:32 - 3:34
    Contoh penelitian favorit saya
    tentang hal ini
  • 3:34 - 3:36
    dipublikasikan tahun ini
  • 3:36 - 3:37
    di Proceedings of the National Academies
  • 3:37 - 3:39
    Bisa didapatkan dari Google
  • 3:39 - 3:41
    Hanya 4 halaman, mudah untuk dibaca.
  • 3:41 - 3:44
    Mereka hanya melihat hal yang
    orang "suka" di Facebook,
  • 3:44 - 3:46
    jadi hanya dengan hal yang Anda sukai
    di Facebook,
  • 3:46 - 3:48
    memakainya memprediksi semua atribut
  • 3:48 - 3:49
    bersama dengan yang lainnya.
  • 3:49 - 3:52
    Di makalahnya mereka memdaftar
    lima hal yang disukai
  • 3:52 - 3:55
    yang mengindikasikan tingkat
    kecerdasan tinggi.
  • 3:55 - 3:57
    Dan diantaranya adalah
    menyukai sebuah laman
  • 3:57 - 3:59
    tentang kentang goreng keriting. (tertawa)
  • 3:59 - 4:01
    Kentang goreng keriting memang enak,
  • 4:01 - 4:04
    tapi menyukainya tidak berarti
  • 4:04 - 4:06
    bahwa Anda lebih cerdas dari
    orang pada umumnya.
  • 4:06 - 4:09
    Jadi bagaimana kentang menjadi
    salah satu indikator terkuat
  • 4:09 - 4:11
    dari tingkat kecerdasaan Anda
  • 4:11 - 4:12
    adalah dengan menyukai laman
  • 4:12 - 4:14
    ketika kontennya tidak relevan sama sekali
  • 4:14 - 4:17
    dengan atribut yang diprediksikan?
  • 4:17 - 4:19
    Pada kenyataannya kami harus melihat
  • 4:19 - 4:20
    sejumlah besar teori pendukung
  • 4:20 - 4:23
    untuk mengetahui kenapa kami bisa melakukan hal ini.
  • 4:23 - 4:26
    Salah satu diantaranya adalah
    teori sosiologi, homofili
  • 4:26 - 4:29
    mengatakan bahwa orang berteman
    dengan orang yang mirip mereka.
  • 4:29 - 4:31
    Orang cerdas umumnya berteman
    dengan orang cerdas,
  • 4:31 - 4:33
    dan orang muda umumnya berteman
    dengan orang muda,
  • 4:33 - 4:35
    dan teori ini sudah terbukti
  • 4:35 - 4:37
    selama ratusan tahun.
  • 4:37 - 4:38
    Kami juga tahu banyak
  • 4:38 - 4:41
    tentang bagaimana informasi
    tersebar lewat jaringan.
  • 4:41 - 4:42
    Seperti video-video viral
  • 4:42 - 4:45
    atau "suka" di Facebook atau
    informasi lainnya
  • 4:45 - 4:47
    menyebar dengan cara yang sama persis
  • 4:47 - 4:49
    menyebar seperti penyakit menular
    di media sosial.
  • 4:49 - 4:51
    Inilah yang kami pelajari sejak lama.
  • 4:51 - 4:53
    Kami punya model yang bagus untuk itu.
  • 4:53 - 4:55
    Sehingga Anda dapat memahami
  • 4:55 - 4:58
    dan mulai melihat kenapa hal ini
    bisa terjadi.
  • 4:58 - 4:59
    Jika saya boleh memberikan hipotesa,
  • 4:59 - 5:02
    bahwa seorang pemuda cerdas yang
    memulai laman ini,
  • 5:02 - 5:05
    atau salah satu orang pertama
    yang menyukainya
  • 5:05 - 5:06
    mempunyai skor tinggi di tes itu.
  • 5:06 - 5:09
    Dan mereka menyukainya, lalu
    temannya melihat,
  • 5:09 - 5:12
    dan menurut homofili, dia kemungkinan
    punya teman yang cerdas,
  • 5:12 - 5:15
    kemudian menyebar di antara mereka,
    dan beberapa menyukainya
  • 5:15 - 5:16
    mereka punya teman cerdas,
  • 5:16 - 5:17
    dan meluas ke mereka,
  • 5:17 - 5:19
    dan juga tersebar melalui jejaring
  • 5:19 - 5:21
    sampai ke orang-orang cerdas,
  • 5:21 - 5:23
    hingga pada akhirnya, tindakan
  • 5:23 - 5:26
    menyukai laman kentang goreng keriting
  • 5:26 - 5:28
    mengindikasikan kecedasan tinggi,
  • 5:28 - 5:29
    bukan karena materi kontennya,
  • 5:29 - 5:32
    tetapi karena tindakan menyukai
  • 5:32 - 5:34
    merefleksikan kembali atribut umum dari
  • 5:34 - 5:36
    orang lain yang juga melakukannya.
  • 5:36 - 5:39
    Jadi lumayan rumit bukan?
  • 5:39 - 5:41
    Sulit untuk duduk dan menjelaskan
  • 5:41 - 5:44
    kepada pengguna biasa, dan bahkan jika
    Anda lakukan ini,
  • 5:44 - 5:46
    apa yang bisa mereka lakukan
    terhadap hal ini?
  • 5:46 - 5:48
    Bagaimana Anda tahu ketika
    menyukai sesuatu
  • 5:48 - 5:50
    yang mengindikasikan sifat Anda
  • 5:50 - 5:53
    yang benar-benar tidak relevan dengan
    konten yang Anda "suka" ?
  • 5:53 - 5:56
    Pengguna tidak memiliki kekuasaan untuk
  • 5:56 - 5:58
    mengendalikan bagaimana
    datanya digunakan.
  • 5:58 - 6:01
    Dan saya melihatnya sebagai masalah
    nyata di masa datang.
  • 6:01 - 6:03
    Jadi saya pikir ada dua jalur
  • 6:03 - 6:04
    yang ingin kami lihat
  • 6:04 - 6:06
    jika kami ingin memberi kendali
    ke pengguna
  • 6:06 - 6:08
    terhadap bagaimana data digunakan,
  • 6:08 - 6:10
    karena tidak selalu akan digunakan
  • 6:10 - 6:11
    untuk keuntungan mereka.
  • 6:11 - 6:13
    Contoh yang sering saya berikan,
  • 6:13 - 6:14
    jika saya bosan menjadi profesor,
  • 6:14 - 6:16
    saya akan memulai satu perusahaan
  • 6:16 - 6:17
    memprediksi semua atribut ini
  • 6:17 - 6:19
    seperti kemampuan Anda bekerja
    dalam tim
  • 6:19 - 6:22
    apakah Anda pengguna narkotika,
    atau pecandu alkohol.
  • 6:22 - 6:23
    Kami bisa memprediksi semua itu.
  • 6:23 - 6:25
    Lalu saya akan menjual laporannya
  • 6:25 - 6:27
    ke perusahaan HR dan bisnis-bisnis besar
  • 6:27 - 6:29
    yang ingin mempekerjakan Anda.
  • 6:29 - 6:31
    Kami bisa melakukannya sekarang.
  • 6:31 - 6:32
    Saya bisa memulai bisnis itu besok,
  • 6:32 - 6:34
    dan Anda sama sekali tidak
    mempunyai kendali
  • 6:34 - 6:36
    atas penggunaan data yang saya lakukan.
  • 6:36 - 6:39
    Bagi saya, itu menjadi masalahnya.
  • 6:39 - 6:41
    Salah satu jalur yang dapat kita tempuh
  • 6:41 - 6:43
    adalah jalur kebijakan dan hukum.
  • 6:43 - 6:46
    Dan dengan hormat, saya rasa
    merupakan jalur yang paling efektif,
  • 6:46 - 6:49
    tapi masalahnya adalah kita harus
    benar-benar melakukannya.
  • 6:49 - 6:51
    Memantau proses aksi politik
  • 6:51 - 6:54
    membuat saya berpikir sangat tidak mungkin
  • 6:54 - 6:55
    untuk mendapat sekelompok perwakilan
  • 6:55 - 6:57
    duduk dan mempelajari hal ini,
  • 6:57 - 6:59
    dan mempertimbangkan perubahan terhadap
  • 6:59 - 7:02
    hukum properti intelektual di AS
  • 7:02 - 7:04
    sehingga pengguna dapat
    mengendalikan data mereka.
  • 7:04 - 7:06
    Kita bisa memilih rute kebijakan
  • 7:06 - 7:07
    dimana perusahaan berkata,
  • 7:07 - 7:08
    Anda memiliki data Anda
  • 7:08 - 7:11
    Anda memiliki kendali penuh terhadap
    penggunaannya.
  • 7:11 - 7:13
    Masalahnya adalah model pendapatan
  • 7:13 - 7:14
    kebanyakan perusahaan media sosial
  • 7:14 - 7:18
    bergantung pada membagikan atau
    mengeksploitasi data pengguna.
  • 7:18 - 7:20
    Kerap dikatakan bahwa pengguna Facebook
  • 7:20 - 7:23
    bukanlah pelanggan,
    melainkan sebagai produk.
  • 7:23 - 7:25
    Jadi bagaimana kamu membuat perusahaan
  • 7:25 - 7:28
    memberikan hak kendali atas
    aset utama mereka
  • 7:28 - 7:29
    kembali ke penggunanya?
  • 7:29 - 7:31
    Itu mungkin, tapi saya rasa itu bukan hal
  • 7:31 - 7:33
    yang akan segera terlihat hasilnya.
  • 7:33 - 7:35
    Jadi, saya memikirkan jalur lain
  • 7:35 - 7:37
    yang dapat kita lakukan dan akan
    lebih efektif
  • 7:37 - 7:38
    satu jalur yang lebih ilmiah.
  • 7:38 - 7:41
    Dengan mengandalkan sains yang
    memungkinkan kami
  • 7:41 - 7:43
    mengembangkan semua mekanisme
    perhitungan
  • 7:43 - 7:45
    data personal ini di awalnya.
  • 7:45 - 7:47
    And sebenarnya, penelitian yang sama
  • 7:47 - 7:48
    yang harus kami lakukan
  • 7:48 - 7:51
    jika kita ingin mengembangkan mekanisme
  • 7:51 - 7:52
    yang bisa memberitahu si pengguna,
  • 7:52 - 7:54
    "Inilah risiko dari tindakan yang Anda ambil."
  • 7:54 - 7:56
    Dengan 'menyukai' halaman di Facebook,
  • 7:56 - 7:59
    atau dengan membagi sepotong
    informasi pribadi ini,
  • 7:59 - 8:00
    Anda meningkatkan kemampuan saya
  • 8:00 - 8:03
    memprediksi apakah Anda pengguna narkotika
  • 8:03 - 8:05
    atau apakah Anda betah di
    tempat kerja Anda.
  • 8:05 - 8:07
    Hal ini, menurut saya, dapat berdampak
  • 8:07 - 8:09
    pada apakah orang mau berbagi,
  • 8:09 - 8:12
    menyimpannya untuk diri sendiri, atau
    menyimpannya secara offline.
  • 8:12 - 8:14
    Kita juga bisa melihat hal-hal seperti
  • 8:14 - 8:16
    memungkinkan orang
    mengenkripsi data yang diunggah
  • 8:16 - 8:18
    jadi data tak tampak
    dan tidak berarti
  • 8:18 - 8:20
    bagi laman seperti Facebook
  • 8:20 - 8:22
    atau layanan pihak ketiga yang
    mengaksesnya,
  • 8:22 - 8:25
    melainkan hanya para pengguna yang
    diseleksi oleh si pemilik data
  • 8:25 - 8:28
    diberi akses untuk melihat informasi ini.
  • 8:28 - 8:30
    Ini merupakan penelitian yang
    sangat menarik
  • 8:30 - 8:32
    dari sudut pandang intelektual,
  • 8:32 - 8:34
    maka ilmuwan bersedia melakukannya.
  • 8:34 - 8:37
    Jadi hal ini memberikan kita keuntungan
    di sisi hukum.
  • 8:37 - 8:39
    Salah satu masalah yang dikemukakan
  • 8:39 - 8:41
    saat saya bicara tentang ini,
    kata mereka
  • 8:41 - 8:43
    jika orang mulai menyimpan
    datanya secara pribadi
  • 8:43 - 8:45
    semua metode yang telah kamu kembangkan
  • 8:45 - 8:48
    untuk memprediksi karakteristik mereka
    akan gagal.
  • 8:48 - 8:52
    Dan saya berkata, tentu saja, bagi saya
    itu merupakan kesuksesan,
  • 8:52 - 8:53
    karena sebagai ilmuwan,
  • 8:53 - 8:57
    gol saya adalah bukan menyimpulkan
    informasi tentang pengguna,
  • 8:57 - 9:00
    melainkan untuk meningkatkan cara
    berinteraksi online
  • 9:00 - 9:03
    Dan terkadang melibatkan penyimpulan
    tentang mereka,
  • 9:03 - 9:06
    tetapi jika pengguna tidak mau saya
    menggunakan data tersebut,
  • 9:06 - 9:08
    menurut saya, mereka berhak memutuskannya.
  • 9:08 - 9:11
    Saya ingin para pengguna mengetahui
    dan menyetujui
  • 9:11 - 9:13
    penggunaan dari alat yang
    kami kembangkan.
  • 9:13 - 9:16
    Jadi saya mendukung bentuk ilmu
    seperti ini
  • 9:16 - 9:17
    dan mendukung para peneliti
  • 9:17 - 9:20
    yang mau mengembalikan kendali
    kepada para pengguna
  • 9:20 - 9:23
    dari perusahaan-perusahaan media sosial
  • 9:23 - 9:25
    berarti kedepannya, seiring
    berkembangnya alat-alat ini
  • 9:25 - 9:27
    dan semakin canggih,
  • 9:27 - 9:29
    berarti kita akan memiliki basis pengguna
  • 9:29 - 9:30
    yang terdidik
  • 9:30 - 9:31
    saya rasa kita semua setuju
  • 9:31 - 9:33
    bahwa hal ini cukup ideal di masa datang.
  • 9:33 - 9:36
    Terima kasih.
  • 9:36 - 9:39
    (Tepuk tangan)
Title:
Teka-teki kentang goreng keriting: Kenapa "suka" di media sosial mengatakan lebih banyak dari yang Anda kira
Speaker:
Jennifer Goldbeck
Description:

Apakah Anda suka kentang goreng keriting? Apakah Anda pernah memilih "suka" untuk gambarnya di Facebook? Tontonlah pembicaraan ini untuk mengetahui hal-hal yang mengejutkan tentang bagaimana Facebook (dan media sosial lainnya) dapat memprediksi tentang diri Anda dari aktivitas acak "suka" dan berbagi yang Anda lakukan. Ilmuwan komputer, Jennifer Golbeck, menjelaskan bagaimana hal ini terjadi, bagaimana sejumlah bentuk pemanfaatan dari teknologi tidak selalu untuk hal yang baik -- dan kenapa ia berpikir bahwa kita sebaiknya mengembalikan kontrol terhadap informasi kepada pemilik yang semestinya.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Indonesian subtitles

Revisions