カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?
-
0:01 - 0:03ウェブが最初の10年間
どんなだったか -
0:03 - 0:05覚えていますか?
固定的なものでした -
0:05 - 0:07ネットにつなげ
サイトを見ることはできましたが -
0:07 - 0:10当時それは
そのための部署を持つ組織や -
0:10 - 0:11当時それは
そのための部署を持つ組織や -
0:11 - 0:13コンピュータに精通した個人が
立ち上げたものでした -
0:13 - 0:15コンピュータに精通した個人が
立ち上げたものでした -
0:15 - 0:172000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると -
0:17 - 0:192000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると -
0:19 - 0:21ウェブは大きく変容を遂げ
-
0:21 - 0:25今や私たちの見る
コンテンツの大部分が -
0:25 - 0:28一般的なユーザーによる
-
0:28 - 0:31YouTubeのビデオ、ブログ
-
0:31 - 0:34製品のレビューやソーシャルメディアでの
投稿で占められています -
0:34 - 0:37また人々が互いに
-
0:37 - 0:39やり取りをする場へと変化しています
-
0:39 - 0:41コメントしたり 情報を共有したりし
-
0:41 - 0:43ただ情報を見るだけではないのです
-
0:43 - 0:44フェイスブックはこのような場として
唯一ではないものの最大です -
0:44 - 0:46フェイスブックはこのような場として
唯一ではないものの最大です -
0:46 - 0:47数字を見れば分ります
-
0:47 - 0:51フェイスブックには
月間ユーザーが12億います -
0:51 - 0:53つまり地球上のインターネット人口の―
-
0:53 - 0:54半分がフェイスブックを利用しています
-
0:54 - 0:56他のサイトと同様に
-
0:56 - 1:00ITのスキルが殆どなくても
ネット上の人格を作ることができる -
1:00 - 1:01そんなサイトであり
-
1:01 - 1:04人々は個人的な情報を大量に
-
1:04 - 1:06投稿してきたのです
-
1:06 - 1:08その結果 何億という人々の
行動パターン -
1:08 - 1:10好みや人口統計データなどが
-
1:10 - 1:12得られるのです
-
1:12 - 1:14こんなことは
過去には有りませんでした -
1:14 - 1:17私のようなコンピュータ科学者にとって
これは意味深く -
1:17 - 1:19私は人々が共有した情報から
-
1:19 - 1:21本人が公開しているとは思いもしない
-
1:21 - 1:23多くの隠された特性を予測できる
-
1:23 - 1:25モデルを構築することができました
-
1:25 - 1:28科学者はそれによって
人々の— -
1:28 - 1:30ネット上での交流を
手助け出来るのですが -
1:30 - 1:32そんなに利他的でない
応用もあります -
1:32 - 1:35問題はユーザーが
-
1:35 - 1:37この様な技術の存在やしくみを理解せず
-
1:37 - 1:40たとえ知っていたとしても
コントロールする手段が無いことです -
1:40 - 1:42私が今日お話ししたいことは
-
1:42 - 1:45こういうことに対して我々が
何をできるか -
1:45 - 1:47そして我々の手に
-
1:47 - 1:50いくらかコントロールを
取り返すアイデアについてです -
1:50 - 1:52これはTargetという会社のロゴ
-
1:52 - 1:53この哀れな妊婦のお腹に
-
1:53 - 1:55ロゴを意味もなく
貼りつけたのではありません -
1:55 - 1:57雑誌フォーブスに載った逸話を
-
1:57 - 1:59ご覧になったかもしれません
-
1:59 - 2:02Targetはこの15歳の少女が
-
2:02 - 2:03親に妊娠を打ち明ける2週も前に
-
2:03 - 2:06哺乳瓶、おむつ、 ベビーベッドの
-
2:06 - 2:07広告とクーポン券を
-
2:07 - 2:09送りつけたのです
-
2:09 - 2:12父親は激怒しました
-
2:12 - 2:14Targetは 親さえ知らない
-
2:14 - 2:16高校生の少女の妊娠を
-
2:16 - 2:18どうして知っていたのか?
-
2:18 - 2:20判明したことは 彼らには
-
2:20 - 2:22何十万という顧客の
購入履歴データがあり -
2:22 - 2:25彼らが言う所の
妊娠スコアというものを計算したのです -
2:25 - 2:28単に妊娠の判断だけでなく
-
2:28 - 2:29予定日の推定さえするのです
-
2:29 - 2:31すぐそれと分かる購入品—
-
2:31 - 2:32例えばベビーベッドや
赤ちゃん服だけでなく -
2:32 - 2:35例えばベビーベッドや
赤ちゃん服だけでなく -
2:35 - 2:38いつもよりビタミン剤を
多めに買ったとか -
2:38 - 2:39おむつを入れるのに必要であろう
-
2:39 - 2:41大きな手さげカバンを
-
2:41 - 2:43買ったということから
推測するのです -
2:43 - 2:45それぞれの物は
購入したからと言って -
2:45 - 2:47何かがばれる訳ではなさそうですが
-
2:47 - 2:49そういった購入行動のパターンを
-
2:49 - 2:52他の数千人の人々のデータと
照らし合わせることによって -
2:52 - 2:55その意味が見えてきます
-
2:55 - 2:57このようにして我々は―
-
2:57 - 2:59ソーシャルメディアを通して
皆さんの事を分析しています -
2:59 - 3:02我々は数百万の人々の
-
3:02 - 3:05この様な ささいな行動パターンから
-
3:05 - 3:07様々なことを見出そうとしているのです
-
3:07 - 3:09私の研究所では仲間たちと
-
3:09 - 3:11様々なことを正確に予測する
手法を開発しました -
3:11 - 3:13様々なことを正確に予測する
手法を開発しました -
3:13 - 3:14人々の政治的傾向
-
3:14 - 3:18個性 性別 性的傾向
-
3:18 - 3:21宗教 年令 知能
-
3:21 - 3:22それに加え
-
3:22 - 3:24知人をどの程度信頼し
-
3:24 - 3:26どれくらい深い関係か
といったことです -
3:26 - 3:28かなり上手くいきました
-
3:28 - 3:30繰り返しますが 直接的でない
情報から結果が得られるのです -
3:30 - 3:32繰り返しますが 直接的でない
情報から結果が得られるのです -
3:32 - 3:34私が特に気に入っている事例は
-
3:34 - 3:36米国科学アカデミー紀要に載った
-
3:36 - 3:37今年の論文で グーグルで
検索すれば見つかるでしょう -
3:37 - 3:39今年の論文で グーグルで
検索すれば見つかるでしょう -
3:39 - 3:414ページの論文で
すぐに読めます -
3:41 - 3:44ここでは フェイスブックで
何を「いいね!」したかという -
3:44 - 3:45情報だけを元に
-
3:45 - 3:48先ほど挙げたような
個人の特性を -
3:48 - 3:49予測しています
-
3:49 - 3:52この論文では 高い知能と
関連性の高い -
3:52 - 3:555つの「いいね!」の対象をリストしました
-
3:55 - 3:57その一つが
-
3:57 - 3:59カーリー・フライのページです (笑)
-
3:59 - 4:01カーリー・フライは
確かに美味しいですが -
4:01 - 4:04カーリー・フライが
好きなこと自体が -
4:04 - 4:06平均以上の知性を
意味するのではありません -
4:06 - 4:09では どうして対象物が
予測しようとする性質と無関係なのに -
4:09 - 4:11では どうして対象物が
予測しようとする性質と無関係なのに -
4:11 - 4:12これが知性と関連性の高い
指標となるのでしょう -
4:12 - 4:14これが知性と関連性の高い
指標となるのでしょう -
4:14 - 4:17これが知性と関連性の高い
指標となるのでしょう -
4:17 - 4:19これを説き明かすために
-
4:19 - 4:20背後にある ありとあらゆる
-
4:20 - 4:23理論に着目すべきことが
分りました -
4:23 - 4:26その一つが社会学で
「同類性」といわれるもので -
4:26 - 4:29人間は基本的に似た者同士が
集まるというものです -
4:29 - 4:31賢い人は賢い人達と
仲間になる傾向があり -
4:31 - 4:33若者は若者同士で集まるといったことで
-
4:33 - 4:35これは何百年もの前に
-
4:35 - 4:37確立された理論です
-
4:37 - 4:38情報がネットワークにより
-
4:38 - 4:41どう広がるかも
よく分かっています -
4:41 - 4:42話題になるビデオや
-
4:42 - 4:45フェイスブックの「いいね!」
のような情報は -
4:45 - 4:46まるで病気が伝染するように
-
4:46 - 4:49ソーシャルネットワークを通して
広がるのです -
4:49 - 4:51こういうことは長年研究され
-
4:51 - 4:52良い予測モデルがあります
-
4:52 - 4:55こういったことを合わせて考えてみれば
-
4:55 - 4:58なぜあんな予測がなされるのか
分ってきます -
4:58 - 4:59そこで仮説を示すとすれば―
-
4:59 - 5:03そのページを作った人か
-
5:03 - 5:05あるいは初期に「いいね!」をした一人が
-
5:05 - 5:06知性の高い人だったのでしょう
-
5:06 - 5:09彼らが気に入って
そして その友達がこれを見て -
5:09 - 5:12類が友を呼び ― きっと彼には賢い友人が
多いのでしょう -
5:12 - 5:15仲間の輪は広がり
彼らも気に入り -
5:15 - 5:16そこからさらに
-
5:16 - 5:17賢い友達へと広まり
-
5:17 - 5:19ネットワークを通して
たくさんの知性の高い人へと伝わっていき -
5:19 - 5:21ネットワークを通して
たくさんの知性の高い人へと伝わっていき -
5:21 - 5:23ついにはカーリー・フライへの
-
5:23 - 5:26「いいね!」という行動が
-
5:26 - 5:28商品の中身とは無関係に
-
5:28 - 5:29「いいね!」と投票した人たちの
-
5:29 - 5:32共通の特性が反映され
-
5:32 - 5:34高い知性を表すことになったのです
-
5:34 - 5:36高い知性を表すことになったのです
-
5:36 - 5:39とても複雑な関係ですね?
-
5:39 - 5:41これを普通の方の前で
-
5:41 - 5:44説明するのは難しいし
そうしたからといって -
5:44 - 5:46普通の人はどうすべきか
分かりませんね? -
5:46 - 5:48何かを「いいね!」したとき
-
5:48 - 5:50それとは直接関係のない
-
5:50 - 5:53性格をつかまれてしまうなんて
どうして分かるでしょう? -
5:53 - 5:56ユーザーがデータの用途を
コントロールできない -
5:56 - 5:58そんな仕組みが多くあるのです
-
5:58 - 6:01そして私は実際に問題が
起こっていることを知っています -
6:01 - 6:03私はユーザーにデータの使用方法の
-
6:03 - 6:04コントロールを与える
-
6:04 - 6:062つのやり方があると
思います -
6:06 - 6:082つのやり方があると
思います -
6:08 - 6:10というのもデータ利用は必ずしも
ユーザの― -
6:10 - 6:11為になっていないからです
-
6:11 - 6:13私がよく挙げる例は
-
6:13 - 6:14もし私が教授職に飽きて
-
6:14 - 6:16会社を立ち上げ
-
6:16 - 6:17皆さんの特性だとか
-
6:17 - 6:19チームワーク力とか
-
6:19 - 6:22薬物使用癖やアルコール依存
などを予測します -
6:22 - 6:23推定方法は分かっています
-
6:23 - 6:25そして皆さんを雇用したがっている
-
6:25 - 6:27人材派遣会社や大企業に
-
6:27 - 6:29レポートを売りつけるのです
-
6:29 - 6:31我々はすぐにでもできます
-
6:31 - 6:32明日にだってビジネスを始められるでしょう
-
6:32 - 6:34そして私が皆さんのデータを
-
6:34 - 6:36そのように使うのを
止めることはできません -
6:36 - 6:39そのことが問題だと言っているのです
-
6:39 - 6:41取り得る対策の一つは
-
6:41 - 6:43ポリシーや法律による方法です
-
6:43 - 6:46ある意味
これが最も効果的かもしれません -
6:46 - 6:49しかし問題は我々は
働きかけることしかできないことです -
6:49 - 6:51政策決定のプロセスを見ていると
-
6:51 - 6:54多くの議員が集まって
-
6:54 - 6:55我々の話を聞いて
事情を理解し -
6:55 - 6:57ユーザーが自分のデータの
-
6:57 - 6:59用途を管理できるよう
-
6:59 - 7:02米国の知的所有権法を
大幅に変えるというのは -
7:02 - 7:04とても起こりそうな気がしません
-
7:04 - 7:05ポリシーという道もあります
-
7:05 - 7:07つまりソーシャルメディア会社が
-
7:07 - 7:08“データは皆さんのものです
-
7:08 - 7:11皆さんがすべて管理できます”
と言うのです -
7:11 - 7:13問題は収入モデルにあります
-
7:13 - 7:14ソーシャルメディア会社は
-
7:14 - 7:18ユーザのデータを何らかの方法で
共有もしくは利用することで成り立っています -
7:18 - 7:20時々言われる事ですが
フェイスブックにとって -
7:20 - 7:23“ユーザは顧客ではなくて製品だと”
-
7:23 - 7:25だから このような会社が
-
7:25 - 7:28大事な資産をユーザーに返すなどという
-
7:28 - 7:29譲歩をするでしょうか?
-
7:29 - 7:31可能だとは思いますが
-
7:31 - 7:33私は直ぐには起こりそうにないと思います
-
7:33 - 7:35もう一つの道で
-
7:35 - 7:37より効果的であろうものは
-
7:37 - 7:38科学を使うことです
-
7:38 - 7:41データから個人の特性を
導き出すメカニズムを -
7:41 - 7:43開発できるようにしてくれた
-
7:43 - 7:45科学を研究すること
-
7:45 - 7:47それとごく似た
-
7:47 - 7:48研究によって
-
7:48 - 7:51“これにはリスクがありますよ”
といった警告を -
7:51 - 7:52ユーザーに発するような
-
7:52 - 7:54仕組みを開発できるでしょう
-
7:54 - 7:56フェイスブックで「いいね!」したり
-
7:56 - 7:59個人情報を共有すると
-
7:59 - 8:01皆さんが ドラッグをやっているかとか
-
8:01 - 8:03職場で上手くいっているかどうかとか
-
8:03 - 8:05そういった事について予測される精度が
上がったのでした -
8:05 - 8:07警告の仕組みを導入すると
-
8:07 - 8:09情報を公開する
友達に限定する -
8:09 - 8:12まったく共有しないといった
人々の選択に影響するでしょう -
8:12 - 8:14またはアップロードする情報を
-
8:14 - 8:16暗号化するという手段も
考えられるでしょう -
8:16 - 8:18これでフェイスブックの様なサイトや
-
8:18 - 8:20そこからデータを受ける
-
8:20 - 8:22第三者のサービス会社には
無意味なデータとなり -
8:22 - 8:25一方で 本人が見て欲しいと思う人は
-
8:25 - 8:28見ることができます
-
8:28 - 8:30これは知的な観点から
-
8:30 - 8:32非常に面白い研究であり
-
8:32 - 8:34科学者は喜んで取り組むでしょう
-
8:34 - 8:37その点で政策に訴える手段よりも
優れています -
8:37 - 8:39この話をすると皆さんに―
-
8:39 - 8:41よく指摘されるのは
-
8:41 - 8:43皆が情報を非公開に
するようになったら -
8:43 - 8:45私たちの開発してきた
人の行動パターンの― -
8:45 - 8:48予測手法が使えなくなるのでは
ということです -
8:48 - 8:52その通りですが
私にとってそれは成功なのです -
8:52 - 8:53なぜなら一科学者として
-
8:53 - 8:57私の目標はユーザーの情報から
何かをあぶりだすことではなくて -
8:57 - 9:00人々のオンラインにおける交流を
改善することだからです -
9:00 - 9:03そのために人々のデータから
推測をすることもありますが -
9:03 - 9:06皆さんがデータの利用を
望まないのであれば -
9:06 - 9:08皆さんにそう言う権利が
あるべきだと思います -
9:08 - 9:11我々が開発するツールについて
ユーザーは知らされ -
9:11 - 9:13同意の元で使われるべきだと思います
-
9:13 - 9:16データを管理する力の一部を
ソーシャルメディアから -
9:16 - 9:17ユーザーに返すような
-
9:17 - 9:20科学的研究を推し進め
-
9:20 - 9:23研究者を支援することで
-
9:23 - 9:25このようなツールは進化し
-
9:25 - 9:27進歩を遂げることになり
-
9:27 - 9:28ユーザーが知識と力を
-
9:28 - 9:30持つようになるでしょう
-
9:30 - 9:31これが理想的な方法だと
-
9:31 - 9:33同意して頂けるものと思ってます
-
9:33 - 9:36どうも有り難うございました
-
9:36 - 9:39(拍手)
- Title:
- カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?
- Speaker:
- ジェニファー・ゴルベック
- Description:
-
カーリーフライは好きですか? フェイスブックて「いいね!」しましたか? フェイスブック(やそのほかのソーシャルネット)が、一見ランダムな「いいね!」や投稿からあなたについてどれほどのことを推測できるか、この講演を見て知っておいてください。コンピュータ科学者のジェニファー・ゴルベックが、どうやってそんなことが可能なのか、この技術の応用が必ずしも好ましいとは限らないこと、そして自分の情報をコントロールする力を本来の持ち主の手に戻すべきである理由を語ります。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Natsuhiko Mizutani approved Japanese subtitles for Your social media "likes" expose more than you think | ||
Natsuhiko Mizutani edited Japanese subtitles for Your social media "likes" expose more than you think | ||
Natsuhiko Mizutani edited Japanese subtitles for Your social media "likes" expose more than you think | ||
Natsuhiko Mizutani edited Japanese subtitles for Your social media "likes" expose more than you think | ||
Yasushi Aoki accepted Japanese subtitles for Your social media "likes" expose more than you think | ||
Tomoyuki Suzuki edited Japanese subtitles for Your social media "likes" expose more than you think | ||
Tomoyuki Suzuki edited Japanese subtitles for Your social media "likes" expose more than you think | ||
Yasushi Aoki declined Japanese subtitles for Your social media "likes" expose more than you think |