0:00:00.710,0:00:05.250 人们借助各种媒体来谈性[br]已经有着很长的历史了 0:00:05.710,0:00:09.000 比如说情书、电话性爱以及裸照 0:00:09.590,0:00:15.580 甚至有这样一个女孩与一个通过[br]电报认识的男子私奔的故事 0:00:15.580,0:00:17.070 在1886年 0:00:18.580,0:00:23.540 直到今天,我们演变出了一种短信称之为[色情短信][br]我是这方面的专家 0:00:23.680,0:00:26.170 我作为专家是研究它的[br]可不擅长于发这个 0:00:26.830,0:00:31.000 嗯,我想在座的各位和我一样[br]十分清楚这代表着什么 0:00:31.030,0:00:32.400 (这指代着男性的阴茎) 0:00:32.400,0:00:34.480 (观众笑声) 0:00:36.370,0:00:42.380 自从2008年媒体开始关注以来[br]我一直致力于研究色情短信 0:00:42.500,0:00:45.700 我撰写了一本书专门讨论[br]色情短信的出现所引起的道德恐慌 0:00:45.720,0:00:47.340 这是我发现的: 0:00:47.360,0:00:50.560 大部分的人都在担心[br]错误的事情 0:00:50.560,0:00:54.530 他们试图从根源上[br]防止色情短信的产生 0:00:54.800,0:00:55.950 但是我不禁要问: 0:00:56.220,0:01:00.940 只要是完全自愿的[br]色情短信的问题在哪儿? 0:01:01.240,0:01:05.260 人们试图去理清各种各样的事[br]甚至是与自己毫不相干的事 0:01:05.280,0:01:07.410 比如蓝奶酪或香菜 0:01:07.600,0:01:09.240 (观众笑声) 0:01:10.600,0:01:14.740 色情短信和其它好玩的事情一样[br]是绝对有风险性的 0:01:14.760,0:01:21.460 但是只要你给愿意接受的人们发 0:01:21.480,0:01:22.660 也未尝不可 0:01:23.200,0:01:25.900 我认为这其中一个严重的问题 0:01:25.920,0:01:29.180 是人们未经他人同意 0:01:29.200,0:01:30.720 分享他人的隐私照片 0:01:31.360,0:01:33.770 与其忧心于色情短信本身 0:01:33.770,0:01:38.280 我想我们该更关注的[br]是数字时代的个人隐私 0:01:38.880,0:01:40.670 关键是同意 0:01:41.680,0:01:44.980 现在很多人在想着[br]色情短信本身 0:01:45.000,0:01:47.710 而完全忽略了[br]“他人的同意” 0:01:48.400,0:01:52.340 你们知道我们现在在将青少年[br]发送色情短信违法化吗? 0:01:53.400,0:01:56.860 它可以是一个罪犯是由于[br]它可以被当作儿童色情 0:01:56.880,0:01:59.740 如果有一个当事人18岁以下的照片 0:01:59.780,0:02:02.990 是否他们自愿拍照以及自愿[br]分享照片 0:02:02.990,0:02:05.320 是无关紧要的 0:02:05.800,0:02:08.780 结果我们就有了这种[br]怪异的法律情况 0:02:08.800,0:02:13.230 即在美国大多数州[br]两个17岁的孩子可以合法性交 0:02:13.230,0:02:15.240 但不能把它拍出来 0:02:16.560,0:02:20.820 一些州还试图对色情短信立法 0:02:20.840,0:02:23.860 但是这些立法都重复了同样的问题 0:02:23.880,0:02:27.640 因为他们仍然使得[br]两厢情愿的性短信违法 0:02:28.520,0:02:32.390 通过禁止所有形式的色情短信[br]来试图解决隐私侵权问题 0:02:32.390,0:02:34.390 其实都是徒劳 0:02:34.570,0:02:36.100 这种做法就像是 0:02:36.100,0:02:41.520 让我们通过宣布约会违法[br]来解决约会强奸的问题 0:02:43.120,0:02:48.590 大部分青少年不会因发送色情短信而被捕[br]不过你们能猜到谁被捕了? 0:02:48.590,0:02:53.540 就是那些不被发送色情短信的[br]对象的父母喜欢的人 0:02:53.540,0:02:58.320 这也许源于阶层差异[br]种族歧视以及对同性恋的憎恶 0:02:58.960,0:03:01.780 大部分的检举人还很明智 0:03:01.780,0:03:07.400 不对青少年以儿童色情罪起诉[br]但是有一些人这么做 0:03:07.720,0:03:11.370 根据新罕布什尔大学的调查研究 0:03:11.370,0:03:17.060 因儿童色情被捕的人群中[br]有百分之七都是青少年 0:03:17.080,0:03:20.080 而他们都是两厢情愿的发送色情短信 0:03:21.480,0:03:24.020 儿童色情是重罪 0:03:24.040,0:03:27.720 但是与青少年的色情短信[br]还是有所差异的 0:03:29.040,0:03:32.460 很多父母和教育工作者[br]也都往往不假思索的 0:03:32.480,0:03:35.620 对色情短信作出反应[br]而不去认真思考同意的问题 0:03:35.640,0:03:39.760 他们往往冷冰冰的告诉孩子们[br]不要这么做 0:03:40.200,0:03:43.900 我也完全明白[br]这其中包含很严重的法律风险 0:03:43.900,0:03:47.010 当然,也可能触犯私人隐私 0:03:47.400,0:03:48.660 你们还是青少年的时候 0:03:48.680,0:03:52.080 肯定也按吩咐办事,对吧? 0:03:53.440,0:03:56.900 你可能认为[br]我的孩子从不发色情短信 0:03:56.920,0:04:00.380 的确,你的小宝贝[br]可能不会发色情短信 0:04:00.400,0:04:03.540 因为16到17岁这个年龄段里 0:04:03.560,0:04:05.920 只有百分之三十三的人[br]会发送色情短信 0:04:07.200,0:04:11.820 但是,当他们长大些[br]概率是他们会发送色情短信 0:04:11.840,0:04:18.040 每一个我所看过的研究显示[br]18到24岁人群中发送色情短信的人数过半 0:04:18.640,0:04:21.540 大多情况下,这也没有出现什么问题 0:04:21.800,0:04:27.180 人们总问我[br]发色情短信不是很危险吗? 0:04:27.200,0:04:30.780 就像你不会把你的钱包[br]落在公园椅子上 0:04:30.800,0:04:34.240 因为你觉得这样做[br]钱包会被偷,对吧? 0:04:34.880,0:04:36.340 我觉得是这样的: 0:04:36.360,0:04:40.300 发色情短信就如把钱包[br]丢在了男友家里一样 0:04:40.320,0:04:42.040 如果你第二天回来 0:04:42.040,0:04:45.040 发现钱都没了的话 0:04:45.040,0:04:47.290 你真的可以把他甩了 0:04:47.690,0:04:49.860 (观众笑声) 0:04:51.360,0:04:53.730 所以,与其将发送色情短信[br]违法化 0:04:53.730,0:04:56.340 以此来试图防止[br]隐私侵犯 0:04:56.550,0:04:59.620 我们可以将同意当作 0:04:59.620,0:05:03.670 我们如何看待我们隐私信息的[br]传播的中心 0:05:04.370,0:05:08.740 每个新的媒体技术[br]都会引起隐私问题 0:05:08.760,0:05:13.380 实际上,在美国[br]关于隐私的最初辩论 0:05:13.400,0:05:17.900 是对当时崭新的科技[br]的回应 0:05:17.920,0:05:21.720 19世纪末,人们担心那较过去 0:05:21.720,0:05:25.300 突然轻便许多的照相机 0:05:25.320,0:05:27.820 以及报纸上的八卦板块 0:05:27.840,0:05:31.660 他们担心照相机会获取他们的信息 0:05:31.680,0:05:34.880 断章取义[br]大肆宣扬 0:05:35.240,0:05:36.860 听起来是不是很熟悉? 0:05:36.880,0:05:41.740 就像我们担忧社交媒体[br]和无人机摄像头 0:05:41.760,0:05:43.400 当然,还有色情短信 0:05:43.920,0:05:45.470 这些对于科技的恐惧 0:05:45.470,0:05:47.200 不无道理 0:05:47.200,0:05:50.640 因为科技能够展露出 0:05:50.640,0:05:53.560 并放大我们最为糟糕的品质与行为 0:05:54.220,0:05:56.670 但这是有解决方法的 0:05:56.670,0:06:00.290 我们就曾经历过一个危险的新科技 0:06:00.420,0:06:04.500 1908年,福特推出了T系车 0:06:04.520,0:06:07.100 交通死亡率不断上升 0:06:07.120,0:06:09.920 这曾是一个严重的问题--[br]它看起来很安全,对吧? 0:06:12.080,0:06:16.060 我们第一反应是[br]尝试改变司机的驾驶行为 0:06:16.080,0:06:19.800 所以我们建立了速度限制[br]并通过罚款来强制实行 0:06:20.240,0:06:22.100 但在此后的几十年里 0:06:22.120,0:06:27.620 我们开始认识到汽车技术[br]本身不是一成不变的 0:06:27.640,0:06:30.860 我们可以设计出更安全的汽车 0:06:30.880,0:06:34.340 于是上世纪20年代,我们有了[br]抗碎挡风玻璃 0:06:34.360,0:06:36.860 到了50年代有了安全带 0:06:36.880,0:06:39.960 到了90年代,安全气囊 0:06:40.440,0:06:42.820 这三个领域: 0:06:42.840,0:06:47.220 法律,个人及工业[br]可以随着时间的推移集合在一起 0:06:47.220,0:06:51.420 来帮助解决新科技[br]所造成的问题 0:06:51.440,0:06:54.680 我们在数字信息隐私[br]上亦可以如法炮制 0:06:55.160,0:06:57.920 当然,这又回到同意的话题上来 0:06:58.360,0:06:59.580 我有个想法 0:06:59.600,0:07:03.420 在任何人可以传播[br]你的个人信息之前 0:07:03.440,0:07:05.680 他们应该得到你的同意 0:07:06.240,0:07:11.060 明确同意的观点源自于反性侵害人士 0:07:11.080,0:07:14.860 他们告诉我们对于每个性行为[br]都需要得到双方同意 0:07:14.880,0:07:19.320 我们在很多领域对待同意[br]都有着极高的标准 0:07:19.340,0:07:21.340 比如做手术 0:07:21.360,0:07:22.980 医生需要确认 0:07:23.000,0:07:27.040 你了解并同意医疗程序 0:07:27.520,0:07:31.220 这可不像你同意iTunes服务条款一样 0:07:31.240,0:07:34.900 直接滑到屏幕底部[br]然后一个劲地点同意 0:07:34.920,0:07:36.640 (观众笑声) 0:07:37.160,0:07:42.420 如果我们多考虑他人是否同意[br]我们会有更好隐私法 0:07:42.440,0:07:45.860 现在,我们没有[br]那么多的保护 0:07:45.880,0:07:49.460 如果你的前夫或前妻[br]为人很不好 0:07:49.480,0:07:53.700 他们可以把你的裸照[br]发到色情网站上去 0:07:53.720,0:07:56.940 想把那些照片删掉[br]是很难的 0:07:56.960,0:07:58.180 在许多州里 0:07:58.200,0:08:02.020 你自己拍照其实会更好点 0:08:02.040,0:08:04.840 因为这样你就可以[br]申请版权了 0:08:05.320,0:08:07.380 (观众笑声) 0:08:07.400,0:08:10.380 现在,如果再有人侵犯了你的隐私 0:08:10.400,0:08:14.600 不管是个人还是[br]企业还是美国国安局 0:08:15.280,0:08:18.020 你都可以提起诉讼 0:08:18.040,0:08:20.180 尽管诉讼结果可能并不成功 0:08:20.200,0:08:24.980 因为很多法院觉得[br]保护数字信息隐私是不可能的 0:08:25.000,0:08:28.440 所以他们不愿意去[br]惩罚那些触犯的人 0:08:29.200,0:08:32.100 我还是能听到[br]人们不停的问我 0:08:32.120,0:08:37.420 数字图像模糊了公共和私人的界限 0:08:37.440,0:08:39.080 因为它是数字的,对吗? 0:08:39.600,0:08:40.940 不!不! 0:08:40.960,0:08:44.300 每一个数位化产品并不是[br]自然而然就成为公众的 0:08:44.320,0:08:46.220 那太没道理了 0:08:46.240,0:08:49.740 正如纽约大学法学者[br]Helen Nissenbaum告诉我们 0:08:49.760,0:08:52.380 我们有着法律,政策以及准则 0:08:52.400,0:08:55.540 来保护各类私人信息 0:08:55.560,0:08:58.980 不论它是不是数字信息 0:08:59.000,0:09:01.660 你所有的医疗记录都是数字化的 0:09:01.680,0:09:04.820 但你的医生却不能[br]将它们分享给任何人 0:09:04.840,0:09:09.300 你所有的财务信息[br]都储存在数字数据库里 0:09:09.320,0:09:13.560 但你的信用卡公司不能将[br]你的购买记录发布到网上 0:09:15.080,0:09:20.540 更好的法律可以在侵犯隐私的问题[br]发生之后帮助解决 0:09:20.560,0:09:23.080 但我们可以做的最为简便的事情之一 0:09:23.080,0:09:27.640 就是从个人上做出改变来[br]帮助保护他人的隐私 0:09:28.360,0:09:30.170 我们总是被告知隐私 0:09:30.170,0:09:33.340 是我们自己的,独有的[br]个人的责任 0:09:33.360,0:09:37.620 我们被告知要经常监控[br]并更新隐私设置 0:09:37.640,0:09:42.440 我们被告知永远别把不想被[br]全世界知道的东西分享出去 0:09:43.400,0:09:44.620 这很没道理 0:09:44.640,0:09:47.620 数字媒体就是社会环境 0:09:47.640,0:09:51.920 我们每天无时无刻地将[br]事情分享给我们所信任的人 0:09:52.760,0:09:55.740 就如普林斯顿研究员Janet Vertesi表示 0:09:55.760,0:09:59.780 我们的数据和隐私[br]不单单是私人的 0:09:59.800,0:10:02.380 它们实际上是一种人与人之间相互的 0:10:02.400,0:10:05.660 所以,我们能做的[br]很简单的一件事 0:10:05.680,0:10:10.780 就是在你分享别人信息之前[br]取得别人的同意 0:10:10.800,0:10:15.340 你想把某人的照片传到网上[br]先经过那人的同意 0:10:15.360,0:10:17.610 如果你想转寄一封电子邮件 0:10:17.680,0:10:19.220 先经过当事人同意 0:10:19.240,0:10:22.020 如果你想分享某人的裸体自拍 0:10:22.040,0:10:24.320 显然,先经过当事人同意 0:10:25.560,0:10:30.020 这些个人行为的改变可以[br]帮助我们保护彼此的隐私 0:10:30.040,0:10:33.840 但我们同样需要科技公司的帮忙 0:10:34.360,0:10:38.860 科技公司几乎没有动机[br]来保护我们的隐私 0:10:38.880,0:10:40.930 因为他们的业务模式依靠于[br]我们分享我们的每件事 0:10:40.930,0:10:44.440 与尽可能多的人 0:10:45.080,0:10:47.020 现在,如果我发给你一张照片 0:10:47.040,0:10:50.140 你可以转发给任何人 0:10:50.160,0:10:54.420 但如果我来决定这张照片[br]可不可以被转发会怎样? 0:10:54.440,0:10:58.500 这就会告诉你,你没有我的[br]批准去发送这张照片 0:10:58.520,0:11:02.660 我们一直这样做[br]来保护我们的版权 0:11:02.680,0:11:07.460 如果你买了本电子书[br]你不能随意把它寄给别人 0:11:07.480,0:11:10.040 所以为什么不[br]如法炮制到手机上去呢? 0:11:10.960,0:11:15.740 我们可以让科技公司[br]给我们的设备和平台 0:11:15.760,0:11:19.500 默认装上这些保护 0:11:19.520,0:11:22.940 毕竟,你可以选择[br]你自己车子的颜色 0:11:22.960,0:11:25.800 但安全气囊总是有固定标准的 0:11:28.080,0:11:31.900 如果我们不多思考[br]数字隐私和同意的问题 0:11:31.920,0:11:34.640 就可能会有严重后果 0:11:35.360,0:11:37.620 有一位来自俄亥俄的少女-- 0:11:37.640,0:11:40.480 为了保护她的隐私[br]我们就叫她Jennifer吧 0:11:41.120,0:11:44.700 她把她的裸照分享给了[br]她高中的男朋友 0:11:44.720,0:11:46.240 觉得他可以信任 0:11:47.720,0:11:49.660 不幸的是,男友背叛了她 0:11:49.680,0:11:52.660 把她的照片传遍学校 0:11:52.680,0:11:56.200 让Jennifer难堪,备受羞辱 0:11:56.800,0:12:00.940 她的同学非但没有同情她[br]反而对她进行骚扰 0:12:00.960,0:12:02.820 他们说她是个荡妇,妓女 0:12:02.840,0:12:04.800 使她的生活痛苦不堪 0:12:05.360,0:12:09.040 Jennifer开始缺课,成绩下滑 0:12:09.520,0:12:13.320 最终,Jennifer决定[br]结束了她的生命 0:12:14.720,0:12:17.420 Jennifer没做错什么 0:12:17.440,0:12:19.700 她不过将她的裸照分享 0:12:19.720,0:12:22.540 给了她认为[br]可以信任的人 0:12:22.560,0:12:25.180 可我们的法律告诉她 0:12:25.200,0:12:29.360 她犯了和儿童色情一样[br]可怕的罪行 0:12:29.920,0:12:31.420 我们的性别规范告诉她 0:12:31.440,0:12:34.660 给自己拍裸照 0:12:34.680,0:12:37.880 是她做过的最为可怕[br]羞耻的事 0:12:38.400,0:12:42.620 当我们觉得保护隐私[br]在数字媒体环境下是不可能的时候 0:12:42.640,0:12:48.160 我们完全无视男朋友的[br]不道德行为 0:12:49.200,0:12:54.940 人们还是在不停地对那些[br]隐私受侵犯的受害者们说 0:12:54.960,0:12:56.220 “你在想些什么啊? 0:12:56.240,0:12:58.720 你就不该发那照片的” 0:12:59.640,0:13:03.640 如果你尝试换种说法[br]试试这个 0:13:04.160,0:13:07.680 想象下你碰到一个[br]滑雪时摔断腿的朋友 0:13:08.240,0:13:12.600 他们当时冒险做了些好玩的动作[br]结果腿摔断了 0:13:12.840,0:13:15.380 但你不太可能蠢到说 0:13:15.400,0:13:17.840 ”唉,我觉得你就不该去滑雪的。” 0:13:20.080,0:13:22.220 如果我们多考虑他人是否同意 0:13:22.240,0:13:25.500 我们便能看见[br]侵犯隐私的受害者们 0:13:25.520,0:13:27.260 得到了我们的同情 0:13:27.280,0:13:31.880 而不是遭到定罪,羞辱[br]骚扰或是惩罚 0:13:32.440,0:13:36.940 我们可以支持这些受害者[br]通过法律,个人和科技上的改变 0:13:36.960,0:13:41.280 来防止侵权隐私的发生 0:13:41.840,0:13:47.660 因为问题不在于色情信息的发送[br]而在于数字隐私 0:13:47.680,0:13:50.040 解决方法之一就是获得他人的同意 0:13:50.680,0:13:55.260 所以下次一个隐私受侵犯的人[br]来找你的时候 0:13:55.280,0:13:58.020 不要责备他们[br]而是这么做 0:13:58.040,0:14:01.460 让我们转变我们对数字隐私的看法 0:14:01.480,0:14:04.120 并以同情作为回应 0:14:04.680,0:14:05.900 谢谢