Return to Video

カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?

  • 0:01 - 0:03
    ウェブが最初の10年間
    どんなだったか
  • 0:03 - 0:05
    覚えていますか?
    固定的なものでした
  • 0:05 - 0:07
    ネットにつなげ
    サイトを見ることはできましたが
  • 0:07 - 0:10
    当時それは
    そのための部署を持つ組織や
  • 0:10 - 0:11
    当時それは
    そのための部署を持つ組織や
  • 0:11 - 0:13
    コンピュータに精通した個人が
    立ち上げたものでした
  • 0:13 - 0:15
    コンピュータに精通した個人が
    立ち上げたものでした
  • 0:15 - 0:17
    2000年代初期にソーシャルメディアや
    ソーシャルネットワークが登場すると
  • 0:17 - 0:19
    2000年代初期にソーシャルメディアや
    ソーシャルネットワークが登場すると
  • 0:19 - 0:21
    ウェブは大きく変容を遂げ
  • 0:21 - 0:25
    今や私たちの見る
    コンテンツの大部分が
  • 0:25 - 0:28
    一般的なユーザーによる
  • 0:28 - 0:31
    YouTubeのビデオ、ブログ
  • 0:31 - 0:34
    製品のレビューやソーシャルメディアでの
    投稿で占められています
  • 0:34 - 0:37
    また人々が互いに
  • 0:37 - 0:39
    やり取りをする場へと変化しています
  • 0:39 - 0:41
    コメントしたり 情報を共有したりし
  • 0:41 - 0:43
    ただ情報を見るだけではないのです
  • 0:43 - 0:44
    フェイスブックはこのような場として
    唯一ではないものの最大です
  • 0:44 - 0:46
    フェイスブックはこのような場として
    唯一ではないものの最大です
  • 0:46 - 0:47
    数字を見れば分ります
  • 0:47 - 0:51
    フェイスブックには
    月間ユーザーが12億います
  • 0:51 - 0:53
    つまり地球上のインターネット人口の―
  • 0:53 - 0:54
    半分がフェイスブックを利用しています
  • 0:54 - 0:56
    他のサイトと同様に
  • 0:56 - 1:00
    ITのスキルが殆どなくても
    ネット上の人格を作ることができる
  • 1:00 - 1:01
    そんなサイトであり
  • 1:01 - 1:04
    人々は個人的な情報を大量に
  • 1:04 - 1:06
    投稿してきたのです
  • 1:06 - 1:08
    その結果 何億という人々の
    行動パターン
  • 1:08 - 1:10
    好みや人口統計データなどが
  • 1:10 - 1:12
    得られるのです
  • 1:12 - 1:14
    こんなことは
    過去には有りませんでした
  • 1:14 - 1:17
    私のようなコンピュータ科学者にとって
    これは意味深く
  • 1:17 - 1:19
    私は人々が共有した情報から
  • 1:19 - 1:21
    本人が公開しているとは思いもしない
  • 1:21 - 1:23
    多くの隠された特性を予測できる
  • 1:23 - 1:25
    モデルを構築することができました
  • 1:25 - 1:28
    科学者はそれによって
    人々の—
  • 1:28 - 1:30
    ネット上での交流を
    手助け出来るのですが
  • 1:30 - 1:32
    そんなに利他的でない
    応用もあります
  • 1:32 - 1:35
    問題はユーザーが
  • 1:35 - 1:37
    この様な技術の存在やしくみを理解せず
  • 1:37 - 1:40
    たとえ知っていたとしても
    コントロールする手段が無いことです
  • 1:40 - 1:42
    私が今日お話ししたいことは
  • 1:42 - 1:45
    こういうことに対して我々が
    何をできるか
  • 1:45 - 1:47
    そして我々の手に
  • 1:47 - 1:50
    いくらかコントロールを
    取り返すアイデアについてです
  • 1:50 - 1:52
    これはTargetという会社のロゴ
  • 1:52 - 1:53
    この哀れな妊婦のお腹に
  • 1:53 - 1:55
    ロゴを意味もなく
    貼りつけたのではありません
  • 1:55 - 1:57
    雑誌フォーブスに載った逸話を
  • 1:57 - 1:59
    ご覧になったかもしれません
  • 1:59 - 2:02
    Targetはこの15歳の少女が
  • 2:02 - 2:03
    親に妊娠を打ち明ける2週も前に
  • 2:03 - 2:06
    哺乳瓶、おむつ、 ベビーベッドの
  • 2:06 - 2:07
    広告とクーポン券を
  • 2:07 - 2:09
    送りつけたのです
  • 2:09 - 2:12
    父親は激怒しました
  • 2:12 - 2:14
    Targetは 親さえ知らない
  • 2:14 - 2:16
    高校生の少女の妊娠を
  • 2:16 - 2:18
    どうして知っていたのか?
  • 2:18 - 2:20
    判明したことは 彼らには
  • 2:20 - 2:22
    何十万という顧客の
    購入履歴データがあり
  • 2:22 - 2:25
    彼らが言う所の
    妊娠スコアというものを計算したのです
  • 2:25 - 2:28
    単に妊娠の判断だけでなく
  • 2:28 - 2:29
    予定日の推定さえするのです
  • 2:29 - 2:31
    すぐそれと分かる購入品—
  • 2:31 - 2:32
    例えばベビーベッドや
    赤ちゃん服だけでなく
  • 2:32 - 2:35
    例えばベビーベッドや
    赤ちゃん服だけでなく
  • 2:35 - 2:38
    いつもよりビタミン剤を
    多めに買ったとか
  • 2:38 - 2:39
    おむつを入れるのに必要であろう
  • 2:39 - 2:41
    大きな手さげカバンを
  • 2:41 - 2:43
    買ったということから
    推測するのです
  • 2:43 - 2:45
    それぞれの物は
    購入したからと言って
  • 2:45 - 2:47
    何かがばれる訳ではなさそうですが
  • 2:47 - 2:49
    そういった購入行動のパターンを
  • 2:49 - 2:52
    他の数千人の人々のデータと
    照らし合わせることによって
  • 2:52 - 2:55
    その意味が見えてきます
  • 2:55 - 2:57
    このようにして我々は―
  • 2:57 - 2:59
    ソーシャルメディアを通して
    皆さんの事を分析しています
  • 2:59 - 3:02
    我々は数百万の人々の
  • 3:02 - 3:05
    この様な ささいな行動パターンから
  • 3:05 - 3:07
    様々なことを見出そうとしているのです
  • 3:07 - 3:09
    私の研究所では仲間たちと
  • 3:09 - 3:11
    様々なことを正確に予測する
    手法を開発しました
  • 3:11 - 3:13
    様々なことを正確に予測する
    手法を開発しました
  • 3:13 - 3:14
    人々の政治的傾向
  • 3:14 - 3:18
    個性 性別 性的傾向
  • 3:18 - 3:21
    宗教 年令 知能
  • 3:21 - 3:22
    それに加え
  • 3:22 - 3:24
    知人をどの程度信頼し
  • 3:24 - 3:26
    どれくらい深い関係か
    といったことです
  • 3:26 - 3:28
    かなり上手くいきました
  • 3:28 - 3:30
    繰り返しますが 直接的でない
    情報から結果が得られるのです
  • 3:30 - 3:32
    繰り返しますが 直接的でない
    情報から結果が得られるのです
  • 3:32 - 3:34
    私が特に気に入っている事例は
  • 3:34 - 3:36
    米国科学アカデミー紀要に載った
  • 3:36 - 3:37
    今年の論文で グーグルで
    検索すれば見つかるでしょう
  • 3:37 - 3:39
    今年の論文で グーグルで
    検索すれば見つかるでしょう
  • 3:39 - 3:41
    4ページの論文で
    すぐに読めます
  • 3:41 - 3:44
    ここでは フェイスブックで
    何を「いいね!」したかという
  • 3:44 - 3:45
    情報だけを元に
  • 3:45 - 3:48
    先ほど挙げたような
    個人の特性を
  • 3:48 - 3:49
    予測しています
  • 3:49 - 3:52
    この論文では 高い知能と
    関連性の高い
  • 3:52 - 3:55
    5つの「いいね!」の対象をリストしました
  • 3:55 - 3:57
    その一つが
  • 3:57 - 3:59
    カーリー・フライのページです (笑)
  • 3:59 - 4:01
    カーリー・フライは
    確かに美味しいですが
  • 4:01 - 4:04
    カーリー・フライが
    好きなこと自体が
  • 4:04 - 4:06
    平均以上の知性を
    意味するのではありません
  • 4:06 - 4:09
    では どうして対象物が
    予測しようとする性質と無関係なのに
  • 4:09 - 4:11
    では どうして対象物が
    予測しようとする性質と無関係なのに
  • 4:11 - 4:12
    これが知性と関連性の高い
    指標となるのでしょう
  • 4:12 - 4:14
    これが知性と関連性の高い
    指標となるのでしょう
  • 4:14 - 4:17
    これが知性と関連性の高い
    指標となるのでしょう
  • 4:17 - 4:19
    これを説き明かすために
  • 4:19 - 4:20
    背後にある ありとあらゆる
  • 4:20 - 4:23
    理論に着目すべきことが
    分りました
  • 4:23 - 4:26
    その一つが社会学で
    「同類性」といわれるもので
  • 4:26 - 4:29
    人間は基本的に似た者同士が
    集まるというものです
  • 4:29 - 4:31
    賢い人は賢い人達と
    仲間になる傾向があり
  • 4:31 - 4:33
    若者は若者同士で集まるといったことで
  • 4:33 - 4:35
    これは何百年もの前に
  • 4:35 - 4:37
    確立された理論です
  • 4:37 - 4:38
    情報がネットワークにより
  • 4:38 - 4:41
    どう広がるかも
    よく分かっています
  • 4:41 - 4:42
    話題になるビデオや
  • 4:42 - 4:45
    フェイスブックの「いいね!」
    のような情報は
  • 4:45 - 4:46
    まるで病気が伝染するように
  • 4:46 - 4:49
    ソーシャルネットワークを通して
    広がるのです
  • 4:49 - 4:51
    こういうことは長年研究され
  • 4:51 - 4:52
    良い予測モデルがあります
  • 4:52 - 4:55
    こういったことを合わせて考えてみれば
  • 4:55 - 4:58
    なぜあんな予測がなされるのか
    分ってきます
  • 4:58 - 4:59
    そこで仮説を示すとすれば―
  • 4:59 - 5:03
    そのページを作った人か
  • 5:03 - 5:05
    あるいは初期に「いいね!」をした一人が
  • 5:05 - 5:06
    知性の高い人だったのでしょう
  • 5:06 - 5:09
    彼らが気に入って
    そして その友達がこれを見て
  • 5:09 - 5:12
    類が友を呼び ― きっと彼には賢い友人が
    多いのでしょう
  • 5:12 - 5:15
    仲間の輪は広がり
    彼らも気に入り
  • 5:15 - 5:16
    そこからさらに
  • 5:16 - 5:17
    賢い友達へと広まり
  • 5:17 - 5:19
    ネットワークを通して
    たくさんの知性の高い人へと伝わっていき
  • 5:19 - 5:21
    ネットワークを通して
    たくさんの知性の高い人へと伝わっていき
  • 5:21 - 5:23
    ついにはカーリー・フライへの
  • 5:23 - 5:26
    「いいね!」という行動が
  • 5:26 - 5:28
    商品の中身とは無関係に
  • 5:28 - 5:29
    「いいね!」と投票した人たちの
  • 5:29 - 5:32
    共通の特性が反映され
  • 5:32 - 5:34
    高い知性を表すことになったのです
  • 5:34 - 5:36
    高い知性を表すことになったのです
  • 5:36 - 5:39
    とても複雑な関係ですね?
  • 5:39 - 5:41
    これを普通の方の前で
  • 5:41 - 5:44
    説明するのは難しいし
    そうしたからといって
  • 5:44 - 5:46
    普通の人はどうすべきか
    分かりませんね?
  • 5:46 - 5:48
    何かを「いいね!」したとき
  • 5:48 - 5:50
    それとは直接関係のない
  • 5:50 - 5:53
    性格をつかまれてしまうなんて
    どうして分かるでしょう?
  • 5:53 - 5:56
    ユーザーがデータの用途を
    コントロールできない
  • 5:56 - 5:58
    そんな仕組みが多くあるのです
  • 5:58 - 6:01
    そして私は実際に問題が
    起こっていることを知っています
  • 6:01 - 6:03
    私はユーザーにデータの使用方法の
  • 6:03 - 6:04
    コントロールを与える
  • 6:04 - 6:06
    2つのやり方があると
    思います
  • 6:06 - 6:08
    2つのやり方があると
    思います
  • 6:08 - 6:10
    というのもデータ利用は必ずしも
    ユーザの―
  • 6:10 - 6:11
    為になっていないからです
  • 6:11 - 6:13
    私がよく挙げる例は
  • 6:13 - 6:14
    もし私が教授職に飽きて
  • 6:14 - 6:16
    会社を立ち上げ
  • 6:16 - 6:17
    皆さんの特性だとか
  • 6:17 - 6:19
    チームワーク力とか
  • 6:19 - 6:22
    薬物使用癖やアルコール依存
    などを予測します
  • 6:22 - 6:23
    推定方法は分かっています
  • 6:23 - 6:25
    そして皆さんを雇用したがっている
  • 6:25 - 6:27
    人材派遣会社や大企業に
  • 6:27 - 6:29
    レポートを売りつけるのです
  • 6:29 - 6:31
    我々はすぐにでもできます
  • 6:31 - 6:32
    明日にだってビジネスを始められるでしょう
  • 6:32 - 6:34
    そして私が皆さんのデータを
  • 6:34 - 6:36
    そのように使うのを
    止めることはできません
  • 6:36 - 6:39
    そのことが問題だと言っているのです
  • 6:39 - 6:41
    取り得る対策の一つは
  • 6:41 - 6:43
    ポリシーや法律による方法です
  • 6:43 - 6:46
    ある意味
    これが最も効果的かもしれません
  • 6:46 - 6:49
    しかし問題は我々は
    働きかけることしかできないことです
  • 6:49 - 6:51
    政策決定のプロセスを見ていると
  • 6:51 - 6:54
    多くの議員が集まって
  • 6:54 - 6:55
    我々の話を聞いて
    事情を理解し
  • 6:55 - 6:57
    ユーザーが自分のデータの
  • 6:57 - 6:59
    用途を管理できるよう
  • 6:59 - 7:02
    米国の知的所有権法を
    大幅に変えるというのは
  • 7:02 - 7:04
    とても起こりそうな気がしません
  • 7:04 - 7:05
    ポリシーという道もあります
  • 7:05 - 7:07
    つまりソーシャルメディア会社が
  • 7:07 - 7:08
    “データは皆さんのものです
  • 7:08 - 7:11
    皆さんがすべて管理できます”
    と言うのです
  • 7:11 - 7:13
    問題は収入モデルにあります
  • 7:13 - 7:14
    ソーシャルメディア会社は
  • 7:14 - 7:18
    ユーザのデータを何らかの方法で
    共有もしくは利用することで成り立っています
  • 7:18 - 7:20
    時々言われる事ですが
    フェイスブックにとって
  • 7:20 - 7:23
    “ユーザは顧客ではなくて製品だと”
  • 7:23 - 7:25
    だから このような会社が
  • 7:25 - 7:28
    大事な資産をユーザーに返すなどという
  • 7:28 - 7:29
    譲歩をするでしょうか?
  • 7:29 - 7:31
    可能だとは思いますが
  • 7:31 - 7:33
    私は直ぐには起こりそうにないと思います
  • 7:33 - 7:35
    もう一つの道で
  • 7:35 - 7:37
    より効果的であろうものは
  • 7:37 - 7:38
    科学を使うことです
  • 7:38 - 7:41
    データから個人の特性を
    導き出すメカニズムを
  • 7:41 - 7:43
    開発できるようにしてくれた
  • 7:43 - 7:45
    科学を研究すること
  • 7:45 - 7:47
    それとごく似た
  • 7:47 - 7:48
    研究によって
  • 7:48 - 7:51
    “これにはリスクがありますよ”
    といった警告を
  • 7:51 - 7:52
    ユーザーに発するような
  • 7:52 - 7:54
    仕組みを開発できるでしょう
  • 7:54 - 7:56
    フェイスブックで「いいね!」したり
  • 7:56 - 7:59
    個人情報を共有すると
  • 7:59 - 8:01
    皆さんが ドラッグをやっているかとか
  • 8:01 - 8:03
    職場で上手くいっているかどうかとか
  • 8:03 - 8:05
    そういった事について予測される精度が
    上がったのでした
  • 8:05 - 8:07
    警告の仕組みを導入すると
  • 8:07 - 8:09
    情報を公開する
    友達に限定する
  • 8:09 - 8:12
    まったく共有しないといった
    人々の選択に影響するでしょう
  • 8:12 - 8:14
    またはアップロードする情報を
  • 8:14 - 8:16
    暗号化するという手段も
    考えられるでしょう
  • 8:16 - 8:18
    これでフェイスブックの様なサイトや
  • 8:18 - 8:20
    そこからデータを受ける
  • 8:20 - 8:22
    第三者のサービス会社には
    無意味なデータとなり
  • 8:22 - 8:25
    一方で 本人が見て欲しいと思う人は
  • 8:25 - 8:28
    見ることができます
  • 8:28 - 8:30
    これは知的な観点から
  • 8:30 - 8:32
    非常に面白い研究であり
  • 8:32 - 8:34
    科学者は喜んで取り組むでしょう
  • 8:34 - 8:37
    その点で政策に訴える手段よりも
    優れています
  • 8:37 - 8:39
    この話をすると皆さんに―
  • 8:39 - 8:41
    よく指摘されるのは
  • 8:41 - 8:43
    皆が情報を非公開に
    するようになったら
  • 8:43 - 8:45
    私たちの開発してきた
    人の行動パターンの―
  • 8:45 - 8:48
    予測手法が使えなくなるのでは
    ということです
  • 8:48 - 8:52
    その通りですが
    私にとってそれは成功なのです
  • 8:52 - 8:53
    なぜなら一科学者として
  • 8:53 - 8:57
    私の目標はユーザーの情報から
    何かをあぶりだすことではなくて
  • 8:57 - 9:00
    人々のオンラインにおける交流を
    改善することだからです
  • 9:00 - 9:03
    そのために人々のデータから
    推測をすることもありますが
  • 9:03 - 9:06
    皆さんがデータの利用を
    望まないのであれば
  • 9:06 - 9:08
    皆さんにそう言う権利が
    あるべきだと思います
  • 9:08 - 9:11
    我々が開発するツールについて
    ユーザーは知らされ
  • 9:11 - 9:13
    同意の元で使われるべきだと思います
  • 9:13 - 9:16
    データを管理する力の一部を
    ソーシャルメディアから
  • 9:16 - 9:17
    ユーザーに返すような
  • 9:17 - 9:20
    科学的研究を推し進め
  • 9:20 - 9:23
    研究者を支援することで
  • 9:23 - 9:25
    このようなツールは進化し
  • 9:25 - 9:27
    進歩を遂げることになり
  • 9:27 - 9:28
    ユーザーが知識と力を
  • 9:28 - 9:30
    持つようになるでしょう
  • 9:30 - 9:31
    これが理想的な方法だと
  • 9:31 - 9:33
    同意して頂けるものと思ってます
  • 9:33 - 9:36
    どうも有り難うございました
  • 9:36 - 9:39
    (拍手)
Title:
カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?
Speaker:
ジェニファー・ゴルベック
Description:

カーリーフライは好きですか? フェイスブックて「いいね!」しましたか? フェイスブック(やそのほかのソーシャルネット)が、一見ランダムな「いいね!」や投稿からあなたについてどれほどのことを推測できるか、この講演を見て知っておいてください。コンピュータ科学者のジェニファー・ゴルベックが、どうやってそんなことが可能なのか、この技術の応用が必ずしも好ましいとは限らないこと、そして自分の情報をコントロールする力を本来の持ち主の手に戻すべきである理由を語ります。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Japanese subtitles

Revisions