Twitterの規模がもたらす変なこと
-
0:01 - 0:02Twitterでの
私の仕事は -
0:02 - 0:04ユーザーの信頼を確保し
-
0:04 - 0:07ユーザーの権利を守り
安全を保つということです -
0:07 - 0:08他のユーザーから
-
0:08 - 0:12そして 時には
彼ら自身から -
0:12 - 0:17Twitterの規模が どのようなものか
見てみましょう -
0:17 - 0:192009年1月には
-
0:19 - 0:231日に200万以上の
ツイートがありました -
0:23 - 0:241日に200万以上の
ツイートがありました -
0:24 - 0:302014年1月には1日のツイート数は
5億以上になりました -
0:30 - 0:33200万のツイートが
-
0:33 - 0:356分足らずの間に行われます
-
0:35 - 0:4224,900%増加したわけです
-
0:42 - 0:45Twitter上の活動の大多数は
誰かを危険にさらすことはありません -
0:45 - 0:47Twitter上の活動の大多数は
誰かを危険にさらすことはありません -
0:47 - 0:49何のリスクもありません
-
0:49 - 0:54私の仕事は 危険な可能性のある
活動をなくし 予防することです -
0:54 - 0:56単純な話に聞こえるでしょう?
-
0:56 - 0:58簡単そうだと
-
0:58 - 1:00なにしろTwitter上の
活動の大多数は -
1:00 - 1:04無害なものなのですから
-
1:04 - 1:06ではなぜ そのような
害のない活動の中から -
1:06 - 1:09潜在的な危険を探すために
-
1:09 - 1:11多くの時間を
費やしているのでしょう? -
1:11 - 1:14Twitterの規模を考えたなら
-
1:14 - 1:17百万に1つの可能性は
-
1:17 - 1:221日に500回起きるのです
-
1:22 - 1:23これは こんな規模を扱う
他の企業でも同様です -
1:23 - 1:24これは こんな規模を扱う
他の企業でも同様です -
1:24 - 1:26私たちにとって
-
1:26 - 1:30起きそうにない
まれなケースというのが -
1:30 - 1:32日常的に起きるのです
-
1:32 - 1:3699.999%のツイートに
-
1:36 - 1:38何ら危険が
-
1:38 - 1:39なかったとしましょう
-
1:39 - 1:42オーストラリアの
ハートリーフのような場所で -
1:42 - 1:44旅の記録を
取っているのか -
1:44 - 1:47参加しているコンサートのことを
つぶやいているのか -
1:47 - 1:52あるいは かわいい動物の赤ちゃんの
写真を見せているのかもしれません -
1:52 - 1:56そのような99.999%を
取り除いた後に残る -
1:56 - 2:00ごくわずかの
ツイートの数は -
2:00 - 2:02おおよそ
-
2:02 - 2:06月に15万になります
-
2:06 - 2:08私たちの扱っている
規模の大きさが -
2:08 - 2:11難題を生み出しているのです
-
2:11 - 2:12私の仕事を
難しくする -
2:12 - 2:15もう1つのものが
何かわかりますか? -
2:15 - 2:20人間って変なことをする
ということです -
2:20 - 2:22(笑)
-
2:22 - 2:24彼らが何を
なぜやっているのか -
2:24 - 2:26そこに危険がないか
見極めなければなりません -
2:26 - 2:29あまり文脈や背景の
-
2:29 - 2:30情報なしにです
-
2:30 - 2:33私がTwitterで
仕事する中で出会った -
2:33 - 2:35例をいくつか
お目にかけましょう -
2:35 - 2:36いずれも実際の事例です
-
2:36 - 2:39一見ありきたりの
状況に見えながら -
2:39 - 2:40真実はまったく異なる—
-
2:40 - 2:42という例です
-
2:42 - 2:44細部は 罪のない人の
あるいは -
2:44 - 2:45罪ある人かもしれませんが
-
2:45 - 2:49プライバシーを守るため
変えてあります -
2:49 - 2:52簡単なのから いきましょう
-
2:52 - 2:53[“Yo bitch” (おう メス犬)]
-
2:53 - 2:57このツイートだけ見たら
-
2:57 - 2:58罵り言葉だと
-
2:58 - 3:00思うことでしょう
-
3:00 - 3:03誰が「おう メス犬」
なんてメッセージを -
3:03 - 3:05受け取りたいと
思うでしょう -
3:05 - 3:10私は最近のトレンドや
ミームには -
3:10 - 3:12敏感であろうと
努めていますので -
3:12 - 3:15“Yo bitch”が
-
3:15 - 3:18友達同士の挨拶に
使われることや -
3:18 - 3:23人気ドラマ『ブレーキング・バッド』の台詞の
引用でありうることは承知しています -
3:23 - 3:25しかしこの第4の用法は
-
3:25 - 3:28正直予期していませんでした
-
3:28 - 3:31これはTwitterで
犬のフリをして話す時に -
3:31 - 3:34使われるということです
-
3:34 - 3:39[“Yo bitch” (おう メス犬)] (笑)
-
3:39 - 3:41この場合には
-
3:41 - 3:43罵り言葉でないだけでなく
-
3:43 - 3:46むしろ状況に即した
正しい挨拶と言えるでしょう -
3:46 - 3:49(笑)
-
3:49 - 3:51何かの言葉が
口汚いかどうかを -
3:51 - 3:52文脈抜きに判断するのは
-
3:52 - 3:54困難なのです
-
3:54 - 3:57スパムを考えてみましょう
-
3:57 - 3:59これは典型的な
スパマーの行動です -
3:59 - 4:00これは典型的な
スパマーの行動です -
4:00 - 4:02まったく同一のメッセージを
何千という人に送りつけます -
4:02 - 4:04まったく同一のメッセージを
何千という人に送りつけます -
4:04 - 4:07これは私自身のアカウントで
真似て見せたものですが -
4:07 - 4:10このようなものは
しょっちゅう目にしています -
4:10 - 4:12すごく分かりやすいですよね
-
4:12 - 4:14このようなことを
しているアカウントは -
4:14 - 4:17自動的に閉鎖して
しまうべきでしょう -
4:17 - 4:20しかし例外があることが
分かりました -
4:20 - 4:23あのようなメッセージが
-
4:23 - 4:27頭上を通過する
国際宇宙ステーションを -
4:27 - 4:29外に出て見られるよう
通知してくれる -
4:29 - 4:31サービスかもしれないのです
-
4:31 - 4:32これをスパムとみなして
-
4:32 - 4:34アカウントを閉鎖してしまったら
-
4:34 - 4:36みんな宇宙ステーションを
見逃してしまうでしょう -
4:36 - 4:40より重大なケースを
考えてみましょう -
4:40 - 4:41再び私のアカウントで
-
4:41 - 4:45典型的な問題行動を
模倣してみました -
4:45 - 4:48多数の同一メッセージを
リンク付きで送るというものです -
4:48 - 4:50これはフィッシングと呼ばれるものに
よく見受けられます -
4:50 - 4:54他のサイトに
誘導することで -
4:54 - 4:56アカウント情報を
盗もうとするのです -
4:56 - 5:00明らかに良くないことです
-
5:00 - 5:02このような活動を
しているアカウントは -
5:02 - 5:05停止したいし
実際停止していますが -
5:05 - 5:08ではなぜこれが
重大だというのでしょう? -
5:08 - 5:11これは もしかしたら
-
5:11 - 5:13無抵抗の抗議者に
-
5:13 - 5:16暴力を振るう警官を
目撃者が録画し -
5:16 - 5:19世界に伝えようと
しているのかもしれないのです -
5:19 - 5:21それをスパムに分類して
-
5:21 - 5:23重要な言論を封じて
しまうような危険を -
5:23 - 5:26冒したくはありません
-
5:26 - 5:29だからアカウントの
活動を見る時には -
5:29 - 5:31何百という尺度を
使っていますが -
5:31 - 5:33それでも時には間違い
-
5:33 - 5:35再確認を要することが
あり得ます -
5:35 - 5:39私が直面している難題の
種類を考えるなら -
5:39 - 5:41惨事を予想するだけでなく
-
5:41 - 5:45予想外のことから守る仕組みを
設けることも重要です -
5:45 - 5:47これは私やTwitterにとって
だけの問題ではなく -
5:47 - 5:49皆さんの問題でもあるのです
-
5:49 - 5:52みんなが素晴らしいことを
できるようにする -
5:52 - 5:54何かすごいものを
作ろうとしている -
5:54 - 5:57すべての人にとっての
問題です -
5:57 - 5:59ではどうするのか?
-
5:59 - 6:03立ち止まって
こう考えるんです -
6:03 - 6:05「まったく酷いことが
-
6:05 - 6:09これから起きるとしたら
どのようにしてか?」 -
6:09 - 6:13惨事を思い描くのです
-
6:13 - 6:16これは難しいことです
-
6:16 - 6:18一種の認知的不協和があります
-
6:18 - 6:20結婚の誓いの言葉と同時に
-
6:20 - 6:23婚前同意書を作ろうとする
ようなものです -
6:23 - 6:25(笑)
-
6:25 - 6:27でもやらなければ
ならないんです -
6:27 - 6:311日5億のツイートと
結婚すると決めたなら -
6:31 - 6:34惨事を思い描くというのは
-
6:34 - 6:37猫の写真のような
害のないものが -
6:37 - 6:40いかに人の死に
つながりうるか -
6:40 - 6:42それを いかに防げるか
考えるということです -
6:42 - 6:44それを いかに防げるか
考えるということです -
6:44 - 6:46次のケースが
まさにその例です -
6:46 - 6:49これは私の猫のイーライです
-
6:49 - 6:51私たちはツイートに写真を
-
6:51 - 6:53付けられるように
したいと思いました -
6:53 - 6:55百聞は一見にしかずです
-
6:55 - 6:57たった140文字のツイートに
-
6:57 - 6:58写真を付けたなら
-
6:58 - 7:01どれほど内容が
豊かになるでしょう -
7:01 - 7:03ツイートに写真を付けることで
-
7:03 - 7:05可能になる素晴らしいことが
たくさんあります -
7:05 - 7:07でもそれを考えるのは
私の仕事ではありません -
7:07 - 7:10それがどうマズくなりうるか
考えるのが私の仕事です -
7:10 - 7:12この写真がどうしたら
-
7:12 - 7:15私の死につながりうるのか?
-
7:15 - 7:19たとえば こんな可能性があります
-
7:19 - 7:22この写真に写っていのは
猫だけではありません -
7:22 - 7:24GPS情報があります
-
7:24 - 7:26携帯やデジカメで
-
7:26 - 7:27写真を撮る時
画像とともに保存される -
7:27 - 7:29写真を撮る時
画像とともに保存される -
7:29 - 7:31様々な情報があります
-
7:31 - 7:32この画像には
-
7:32 - 7:34これと同等の情報
-
7:34 - 7:37より具体的には
この位置情報が含まれています -
7:37 - 7:39私が撮った猫の写真の
-
7:39 - 7:42付随情報から
私の居所を突き止め -
7:42 - 7:43悪さをしようという人が
-
7:43 - 7:45いるとも思えませんが
-
7:45 - 7:49しかし私は最悪のことは起こると
仮定するところから始めます -
7:49 - 7:51私たちがツイートに写真を
付けられるようにした時 -
7:51 - 7:55GPS情報が取り除かれる
ようにしたのは そのためです -
7:55 - 8:01(拍手)
-
8:01 - 8:04常に最悪のことを仮定し
-
8:04 - 8:05保守的に構えることで
-
8:05 - 8:07私たちの作る守りが
間違いなく -
8:07 - 8:09予期されることにも
-
8:09 - 8:11予期せざることにも
働くようにできます -
8:11 - 8:14起こりうる最悪のことを
-
8:14 - 8:16いつも想像して
過ごしていたら -
8:16 - 8:21私の世界観が暗いものになったとしても
不思議はないでしょう -
8:21 - 8:22(笑)
-
8:22 - 8:24でもそうではありません
-
8:24 - 8:28私が目にする
やりとりの大多数は -
8:28 - 8:32本当にたくさん見ていますが
ポジティブなのです -
8:32 - 8:34人々が助けの手を伸ばし
-
8:34 - 8:37互いに繋がり合い
情報を共有し合っています -
8:37 - 8:40ただ私たちのような
大規模のものを扱い -
8:40 - 8:44人々の安全を保つことを
仕事とする者は -
8:44 - 8:47最悪のことは起こると
仮定せざるを得ないのです -
8:47 - 8:51私たちにとって
百万に1つという可能性というのは -
8:51 - 8:54至極起きがちなことだからです
-
8:54 - 8:56ありがとうございました
-
8:56 - 9:00(拍手)
- Title:
- Twitterの規模がもたらす変なこと
- Speaker:
- デル・ハーヴェイ
- Description:
-
何億というツイートが毎日飛び交う時、ユーザーに危害をもたらすシナリオがありそうにない百万に1つという可能性のものであっても、それは1日500回起きることになります。Twitterの信頼と安全部門のリーダーであるデル・ハーヴェイにとって、この確率はありがたいものではありません。セキュリティの達人である彼女は、世界の人々に発言の場を与えながら最悪のシナリオをいかに防ぐか考えることに日々を費やしています。まじめな顔で冗談を交えながら、彼女がいかに2億4千万のユーザーの安全を保っているのか垣間見せてくれます。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:19
Natsuhiko Mizutani edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Natsuhiko Mizutani edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Natsuhiko Mizutani edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Natsuhiko Mizutani approved Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Takafusa Kitazume edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Takafusa Kitazume edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Takafusa Kitazume accepted Japanese subtitles for Protecting Twitter users (sometimes from themselves) | ||
Takafusa Kitazume edited Japanese subtitles for Protecting Twitter users (sometimes from themselves) |