Skip to content
Privacy

为什么我支持隐私

作者:维塔利克·布特林 2025 年 4 月 14 日 原文链接

特别感谢Balvi志愿者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu和Luozhu Zhang的讨论和反馈。

最近,我越来越关注改善以太坊生态系统中的隐私状况隐私是去中心化的重要保障:谁掌握信息,谁就拥有权力,因此我们需要避免对信息的中心化控制。当现实世界中的人们对中心化运营的技术基础设施表示担忧时,有时担忧的是运营商突然改变规则或将用户除名,但同样常见的是对数据收集的担忧。虽然加密货币领域起源于像Chaumian Ecash这样将保护数字金融隐私放在首位的项目,但它近年来却低估了隐私的重要性,这本质上是出于一个不恰当的原因:在ZK-SNARKs出现之前,我们没有办法以去中心化的方式提供隐私保护,因此我们淡化了这一点,转而专注于当时我们能够提供的其他保障。

然而,如今隐私问题不容忽视。人工智能极大地增强了中心化数据收集和分析的能力,同时大大扩展了我们自愿分享的数据范围。在未来,像脑机接口这样的新技术带来了更多挑战:我们可能真的面临人工智能读取我们思想的情况。同时,我们拥有比1990年代密码朋克(注重加密与隐私的技术社区)所能想象的更强大的工具来保护隐私,特别是在数字领域:高效的零知识证明(ZK-SNARKs)可以保护我们的身份,同时揭示足够的信息来证明我们是值得信任的;全同态加密(FHE)可以让我们在不查看数据的情况下对数据进行计算;混淆技术可能很快会提供更多保护。

隐私不是关于独立存在,而是关于共同站立。

此时,值得退一步思考这个问题:我们为什么首先想要隐私?每个人的答案都会不同。在这篇文章中,我将给出我自己的答案,我将其分为三个部分:

  • 隐私是自由:隐私给我们提供了按照满足我们需求的方式生活的空间,而不必不断担心我们的行为在各种政治和社会游戏中如何被感知
  • 隐私是秩序:支撑社会基本运作的一系列机制依赖于隐私才能发挥作用
  • 隐私是进步:如果我们获得新的方式有选择地分享我们的信息,同时保护它不被滥用,我们可以释放大量价值并加速技术和社会进步

隐私即自由

回到2000年代初期,流行的观点类似于大卫·布林1998年的著作《透明社会》中所表达的:技术将使全球信息变得更加透明,虽然这会带来一些负面影响并需要适应,但总体上这是一件非常好的事情,我们可以通过确保人民也能监视(或者说,反监视(sousveil))政府来保证公平。1999年,太阳微系统公司CEO斯科特·麦克尼利著名地宣称:"隐私已死,接受现实吧!"这种心态在Facebook早期的构思和发展中很常见,Facebook禁止使用假名身份。我个人记得在2015年参加深圳华为的一个活动时,亲身体验了这种心态的余波,当时一位(西方)演讲者随口提到"隐私时代已经结束"。

《透明社会》代表了"隐私已结束"意识形态所能提供的最好、最明智的观点:它承诺一个更好、更公正、更公平的世界,利用透明度的力量使政府负责,而不是压制个人和少数群体。然而,回顾过去,很明显,即使这种方法也是其时代的产物,写于全球合作、和平以及"历史终结"的热情高涨时期,它依赖于一些过于乐观的关于人性的假设。主要是:

  1. 全球政治的最高层面通常会是善意的和理性的,这使得纵向隐私(即不向有权势的人和机构透露信息)变得越来越不必要。权力滥用通常是地区性的,所以打击这些滥用的最佳方式是将它们暴露在阳光下。
  2. 文化会不断改善,以至于横向隐私(即不向公众其他成员透露信息)变得不必要。极客、同性恋者,最终所有人都可以停止躲在柜子里,因为社会将不再对人们的独特特质苛刻和评判,而是变得开明和包容。

今天,没有一个主要国家被广泛认为符合第一个假设,而有相当多的国家被广泛认为不符合这一假设。在第二个方面,文化包容性也在迅速倒退——仅仅在推特上搜索诸如"欺凌是好事"这样的短语就是一个证据,尽管很容易找到更多。

我个人不幸经常遇到"透明社会"的弊端,因为我在外面采取的每一个行动都有一定概率意外地成为公共媒体报道的故事:

最糟糕的侵犯者是一个人,他在清迈拍摄了我用笔记本电脑工作的一分钟视频,然后将其发布在小红书上,立即获得了数千个点赞和转发。当然,我自己的情况远非普通人的生活状态——但隐私问题一直如此:隐私对于生活状况相对正常的人来说需求较少,而对于生活状况偏离常态的人(无论朝着任何方向偏离)来说需求更大。当你把所有重要的不同方向加起来时,真正需要隐私的人数量最终会相当多——而且你永远不知道什么时候你会成为其中之一。这就是为什么隐私常常被低估的一个重要原因:这不仅关乎你今天的处境和信息,还关乎那些信息(以及它如何影响你)在未来可能带来的我们尚未意识到的各种风险。

如今,对企业定价机制的隐私保护即使在AI倡导者中也只是一个小众关注点,但随着基于AI的分析工具的兴起,这可能会成为一个日益严重的问题:公司对你了解得越多,他们就越有可能向你提供个性化价格,以最大化他们能从你那里提取的金额乘以你愿意付款的概率。

我可以用一句话表达我对隐私作为自由的一般论点:

隐私给予你按照最适合你个人目标和需求的方式生活的自由,而不必在"私人游戏"(你自己的需求)和"公共游戏"(各种其他人,通过社交媒体级联、商业激励、政治、机构等各种中介机制,如何感知和回应你的行为)之间不断权衡每一个行动

没有隐私,一切都变成了一场关于"其他人(和机器人)会怎么看待我所做的事"的持续战斗——无论是有权势的人、公司、同行,还是今天和未来的人。有了隐私,我们才能保持平衡。如今,这种平衡正在迅速被侵蚀,尤其是在物理世界中,而现代技术资本主义的默认发展路径,以其寻找从用户那里获取价值而不要求他们明确付费的商业模式的渴望,正在进一步侵蚀它(甚至延伸到高度敏感的领域,如最终可能涉及我们自己的思想)。因此,我们需要抵制这种趋势,更明确地支持隐私保护,特别是在我们最能实际行动的地方:数字领域。

但为什么不允许政府后门?

对上述推理有一个常见的回应:我所描述的隐私的缺点主要是公众对我们私人生活了解过多的缺点,即使是在权力滥用方面,也是关于_企业、老板和政治家_了解过多。但我们不会让公众、企业、老板和政治家拥有所有这些数据。相反,我们会让一小群经过高度训练和严格审查的执法专业人员查看从街道上的安全摄像头和互联网电缆及聊天应用的监听中获取的数据,执行严格的问责程序,其他人不会发现。

这是一个悄然但广泛存在的立场,因此明确地解决它很重要。即使以良好的意图实施高质量标准,这类策略本质上也不稳定,原因如下:

  1. 实际上,不仅仅是政府,还有各种各样质量水平不一的企业实体。在传统金融系统中,KYC和支付信息被支付处理商、银行和各种其他中介机构持有。电子邮件提供商可以看到各种大量数据。电信公司知道你的位置,并定期非法转售。总的来说,以足够严格的方式监管所有这些实体,确保它们真正高度关注用户数据,对监管者和被监管者都是如此费力,可能与维持一个竞争性自由市场不相容。

  2. 有访问权限的个人总会感受到滥用它的诱惑(包括出售给第三方)。2019年,几名Twitter员工因向沙特阿拉伯出售异见人士的个人信息而被指控后来被定罪

  3. 数据总是可能被黑客攻击。2024年,美国电信公司依法要求收集的数据被黑客攻击,据称是来自中国的国家附属黑客。2025年,乌克兰政府持有的大量敏感个人数据被俄罗斯黑客攻击。而在另一方面,中国的高度敏感的政府和企业数据库也被黑客攻击,包括被美国政府攻击

  4. 政权可能会变化。今天值得信任的政府明天可能不值得信任。今天掌权的人明天可能会被迫害。一个今天保持无可挑剔的高标准尊重和礼节的警察机构,十年后可能会沦为各种残忍行为的温床。

从个人角度来看,如果数据被从他们那里获取,他们无法知道这些数据将来是否以及如何被滥用。处理大规模数据最安全的方法是从一开始就尽可能少地集中收集。数据应该最大限度地由用户自己持有,并使用加密手段来实现有用统计数据的汇总,而不损害个人隐私。

认为政府应该有能力通过搜查令访问任何信息,因为这一直是事情运作的方式的论点忽略了一个关键点:历史上,可通过搜查令获得的信息量远低于今天可获得的信息量,甚至低于如果采用最强大的互联网隐私保护形式后可能存在的信息量。在19世纪,普通对话只发生一次,通过语音,从未被任何人记录。因此:关于"信息黑暗化"的道德恐慌是不符合历史的:普通对话,甚至金融交易,完全且无条件地保持私密是数千年来的历史常态。

1950年的一次普通对话。对话中的每一个字都从未被记录、监视、进行"合法拦截"、AI分析,或在对话发生时被参与者以外的任何人在任何时候查看。

减少中央化数据收集的另一个重要原因是全球通信和经济互动的大部分本质上具有国际性。如果每个人都在同一个国家,至少可以连贯地主张"政府"应该有权访问他们互动中的数据。但如果人们在不同的国家呢?当然,原则上你可以尝试提出一个天马行空的方案,将每个人的数据映射到负责他们的某个合法访问实体——尽管即使这样,你也必须处理大量涉及多人相关数据的边缘情况。但即使你能做到,这也不是现实中的默认结果。政府后门的现实默认结果是:数据集中在少数控制应用程序的中央司法管辖区,因为他们控制着应用程序——本质上是全球技术霸权。强隐私是迄今为止最稳定的替代方案

隐私即秩序

一个多世纪以来,人们已经认识到使民主运作的一个关键技术组成部分是秘密投票:没有人知道你投票给谁,而且,即使你真的想要,你也没有能力向其他人证明你投票给了谁。如果秘密投票不是默认选项,那么选民将面临各种影响他们投票方式的外部激励:贿赂、事后奖励的承诺、社会压力、威胁等等。

通过一个简单的数学论证可以看出,这些外部激励会完全破坏民主:在有N人参与的选举中,你影响结果的概率仅约为1/N,因此任何与哪个候选人更好、哪个更差相关的考虑本质上都被除以N。同时,**"旁门游戏"(如选民贿赂、胁迫、社会压力)**直接基于你如何投票而作用于你(而不是基于整体投票结果),因此它们不会被除以N。因此,除非这些旁门游戏受到严格控制,否则它们默认会压倒整个正式游戏,淹没任何关于哪个候选人的政策实际上更好的考虑。

这不仅适用于国家规模的民主。理论上,它适用于几乎任何企业或政府的委托代理问题:

  • 法官决定如何裁决案件
  • 政府官员决定将合同或拨款授予哪家公司
  • 移民官员决定批准或拒绝签证
  • 社交媒体公司的员工决定如何执行内容审核政策
  • 公司员工为商业决策做出贡献(例如从哪个供应商购买)

所有情况下的根本问题是相同的:如果代理人诚实行事,他们只能获得其代表实体行动收益的一小部分,而如果他们遵循某些旁门游戏的激励,那么他们将获得这些收益的全部份额。因此,即使在今天,我们也依赖于大量的道德善意,以确保我们所有的机构不会被完全淹没在一个混乱的旁门游戏推翻旁门游戏的漩涡中。如果隐私进一步减少,那么这些旁门游戏会变得更加强大,而维持社会运转所需的道德善意可能会变得不切实际地高

社会系统能否重新设计以避免这个问题?不幸的是,博弈论几乎明确地表明这是不可能的(有一个例外:完全独裁)。在专注于个人选择的博弈论版本中——即假设每个参与者独立做出决策,不允许代理人群体为了共同利益作为一个整体工作的版本中,机制设计者有很大的自由度来"设计"游戏以实现各种特定结果。事实上,有数学证明表明,对于任何游戏,至少存在一个稳定的纳什均衡,因此分析这类游戏变得容易处理。但在允许联盟合作(即"串通")可能性的博弈论版本中,称为合作博弈论我们可以证明存在大类游戏没有任何稳定的结果(在博弈论中称为"")。在这类游戏中,无论当前事态如何,总有一些联盟可以通过偏离现状而获利。

回合ABC
11/31/31/3
21/21/20
32/301/3
401/32/3

如果我们认真对待数学,我们会得出结论创建稳定社会结构的唯一方法是对参与者之间可能发生的协调程度设置一些限制——这意味着需要强隐私(包括可否认性)。如果你不单凭数学本身认真对待这个问题,那么只需观察现实世界,或者至少思考一下上述委托-代理情况如果被副游戏接管会变成什么样子,就能得出相同的结论。

请注意,这引入了政府后门风险的另一个论点。如果所有人都有无限能力在所有事情上与所有人协调,结果将是混乱。但如果只有少数人能够这样做,因为他们拥有信息的特权访问权,那么结果就是他们会主导一切。一个政党拥有对另一个政党通信的后门访问权,很容易导致多政党制度的可行性终结。

另一个依赖于限制共谋才能运作的社会秩序的重要例子是知识和文化活动。参与知识和文化活动本质上是一项内在动机驱动的公共精神任务:很难制定针对社会积极贡献的外在激励,恰恰是因为知识和文化活动部分是确定社会中哪些行为是积极行为的活动。我们可以制定大致指向正确方向的商业和社会激励,但它们也需要内在动机的大量补充。但这也意味着这种活动很容易受到不一致的外在动机的影响,特别是社会压力和胁迫等副游戏。为了限制这种不一致外在动机的影响,再次需要隐私。

隐私即进步

想象一个完全不存在公钥和对称密钥加密的世界。在这个世界里,安全地发送远距离消息将本质上变得极其困难——并非不可能,但非常困难。这将导致国际合作大幅减少,结果是更多事务将继续通过面对面的线下渠道进行。这会使世界变得更加贫穷,不平等也会更加严重。

我认为,相比于一个假设的未来世界——那里有更强大的加密形式被广泛使用,我们今天正处于类似的境地。特别是可编程加密,辅以更强大的全栈安全和形式验证,为我们提供强有力的保证,确保这些加密技术被正确使用。

埃及神协议:三种强大且高度通用的构造,可以让我们在计算数据的同时保持数据完全私密。

医疗保健是一个极好的例子来源。如果你与过去十年中任何从事长寿研究、抗疫或其他健康领域工作的人交谈,他们会一致告诉你,治疗和预防的未来是个性化的,有效的应对高度依赖高质量数据,包括关于个人的数据和环境数据。有效保护人们免受空气传播疾病的侵害需要了解哪些地区的空气质量较高或较低,以及在任何给定时间病原体在哪些地区出现。最先进的长寿诊所都会根据你的身体数据、食物偏好和生活方式提供定制化的建议和治疗。

然而,这些事情同时也带来了巨大的隐私风险。我个人知道一起事件,一名员工获得了一个会向公司"自动回传数据"的空气监测器,收集的数据足以确定该员工何时在进行性行为。由于这类原因,我预计默认情况下,许多最有价值的数据形式根本不会被收集,恰恰是因为人们担心隐私后果。即使数据确实被收集了,它几乎总是不会被广泛共享或提供给研究人员——部分原因是商业考量,但同样常见的是因为涉及的隐私问题。

同样的模式在其他领域也重复出现。在我们撰写的文档、通过各种应用程序发送的消息以及社交媒体上的各种行为中,有大量关于我们自己的信息,这些都可以用来更有效地预测和提供我们日常生活中需要的东西。关于我们如何与物理环境互动的大量信息与医疗无关。今天,我们缺乏有效利用这些信息的工具,而不会创造反乌托邦式的隐私噩梦。明天,我们可能会拥有这些工具。

解决这些挑战的最佳方式是使用强密码学,它可以让我们在共享数据的同时避免不利影响。在人工智能时代,获取数据(包括个人数据)的需求只会变得更加重要,因为能够在本地训练和运行"数字孪生"有着巨大价值,这些"数字孪生"可以基于对我们偏好的高保真近似来代表我们做出决策。最终,这还将涉及使用脑机接口(BCI)技术,从我们的思想中读取高带宽输入。为了防止这种情况导致高度中央集权的全球霸权,我们需要在尊重强隐私的前提下完成这些工作。可编程加密是最值得信赖的解决方案。

我的 AirValent 空气质量监测器。想象一下这样一个设备,它收集空气质量数据,在开放数据地图上公开汇总统计数据,并因提供数据而奖励你——所有这些都在使用可编程加密技术的同时,避免泄露你的个人位置数据并验证数据的真实性。

隐私可以成为保障社会安全的进步

可编程密码学技术如零知识证明之所以强大,是因为它们就像信息流动的乐高积木。它们可以精细控制谁能看到什么信息,更重要的是,哪些信息能被看到。例如,我可以证明我持有一本显示我已满18岁的加拿大护照,而无需透露关于我自己的任何其他信息。

这使得各种令人着迷的组合成为可能。我可以举几个例子:

  • 零知识身份证明:证明你是一个独特的个体(通过各种形式的ID:护照生物识别、去中心化基于社交图谱的方式),而不需要透露你具体是谁的任何信息。这可以用于"证明不是机器人"、各种"每人最多N次使用场景"等,同时在仅仅证明规则没有被破坏的前提下保持完全的隐私。
  • 隐私池,一种无需后门就能排除不良行为者的金融隐私解决方案。在支出时,用户可以证明他们的资金来源不属于公开已知的黑客攻击和盗窃名单;黑客和小偷自己是唯一无法生成这种证明的人,因此他们无法隐藏。Railgunprivacypools.com目前已经上线并使用这种方案。
  • 设备端反欺诈扫描:这虽然不依赖于零知识证明,但感觉属于这一类别。你可以使用设备端过滤器(包括大型语言模型)来检查收到的消息,并自动识别潜在的虚假信息和诈骗。如果在设备上完成,它不会损害用户的隐私,并且可以以赋能用户的方式进行,让每个用户选择订阅哪些过滤器。
  • 物理物品的来源证明:通过区块链和零知识证明的组合,可以追踪物品在其制造链中的各种属性。这可以实现例如对环境外部性定价,而不公开揭示供应链。

左:隐私池的图示。右:台湾的信息检查器应用,让用户可以选择开启或关闭多个过滤器,这里从上到下是:URL检查、加密货币地址检查、谣言检查

隐私与人工智能

最近,ChatGPT宣布它将开始将你过去的对话作为上下文输入到人工智能中,用于你未来的对话。这种趋势将继续朝这个方向发展是不可避免的:人工智能查看你过去的对话并从中获取洞见从根本上来说是有用的。在不久的将来,我们可能会看到人们开发出更深入侵犯隐私的人工智能产品:被动收集你的互联网浏览模式、电子邮件和聊天记录、生物识别数据等等。

理论上,你的数据对你来说是私密的。但实际上,情况似乎并非总是如此:

"哇!ChatGPT有一个bug,它把别人问的问题推送给我!这是一个重大的隐私泄露。我问了一个问题,遇到了错误,然后'重试'生成了一个我永远不会问的问题。"

也许隐私保护功能运行良好,而在这种情况下,人工智能通过生成Bruce从未问过的问题并回答它而产生了幻觉。但是没有办法验证这一点。同样,也无法验证我们的对话是否被用于训练。

这一切都令人深感担忧。更令人不安的是明确的人工智能监控用例,人们的(物理和数字)数据在未经其同意的情况下被大规模收集和分析。面部识别技术已经在帮助专制政权大规模镇压政治异见。而最令人担忧的是人工智能数据收集和分析不可避免的最终前沿:人类思维

原则上,脑机接口技术具有提升人类潜能的巨大力量。以Noland Arbaugh的故事为例,他是Neuralink去年的第一位患者:

这种实验性设备给了Arbaugh(现年30岁)一种独立感。以前,使用口含棒需要有人帮他摆正姿势。如果他掉了口含棒,需要有人帮他捡起来。而且他不能长时间使用它,否则会产生疮痛。有了Neuralink设备,他几乎可以完全控制电脑。他可以随时浏览网页和玩电脑游戏,Neuralink表示他已经创下了人类使用脑机接口控制光标的记录

今天,这些设备已经强大到足以赋能受伤和生病的人。明天,它们将强大到足以给完全健康的人提供与计算机合作的机会,并让人们以我们现在无法想象的效率水平进行心灵感应式的交流(!!)。但实际解释大脑信号以实现这种通信需要人工智能

有一个暗淡的未来可能会自然而然地出现,作为这些趋势的汇合点,我们会得到硅基超级agent,它们会吸收和分析关于每个人的信息,包括他们如何写作、行动和思考。但也有一个更光明的未来,我们可以获得这些技术的好处,同时保护我们的隐私。

这可以通过几种技术的组合来实现:

  • 尽可能在本地运行计算 - 许多任务(例如基本图像分析、翻译、转录、用于脑机接口(BCI)的基本脑电波分析)足够简单,可以完全在本地设备上完成。实际上,本地运行的计算甚至在减少延迟和提高可验证性方面提供了优势。如果某项任务可以在本地完成,就应该在本地完成。这包括那些各种中间步骤涉及访问互联网、登录社交媒体账户等的计算过程。
  • 使用密码学使远程计算完全私密 - 全同态加密(FHE)可以用来在远程执行AI计算,而不允许远程服务器查看数据或结果。从历史上看,FHE非常昂贵,但是(i)最近它在效率方面迅速提高,并且(ii)LLM是一种独特的结构化计算形式,渐近地几乎所有计算都是线性操作,这使得它可能非常适合超高效的FHE实现。涉及多方私人数据的计算可以通过多方计算来完成;两方的常见情况可以通过混淆电路等技术非常高效地处理。
  • 使用硬件验证将保障扩展到物理世界 - 我们可以坚持认为能够读取我们思想的硬件(无论是从头骨内部还是外部)必须是开放和可验证的,并使用像IRIS这样的技术来验证它。我们也可以在其他领域这样做:例如,我们可以有安全摄像头,只有在本地LLM将其标记为物理暴力或医疗紧急情况时才会保存和转发视频流,并在所有其他情况下删除它,并通过IRIS进行社区驱动的随机检查,以验证摄像头的实现是否正确。

未来并不完美

2008年,自由意志主义哲学家大卫·弗里德曼撰写了一本名为《未来并不完美》的书,书中他描绘了一系列关于新技术可能带来的社会变革的场景,这些变革并非都对他(或我们)有利。在其中一个章节中,他描述了一个潜在的未来,在这个未来中,隐私和监控之间存在着复杂的相互作用,数字隐私的增长与物理世界监控的增长相互平衡:

如果有一只微型视频监控装置(像蚊子一样小)停在墙上监视我打字,那么为我的电子邮件使用强加密就没有任何用处。因此,在一个透明的社会中实现强隐私需要某种方式来保护我的现实世界身体与网络空间之间的接口……一个低技术的解决方案是在罩子下打字。一个高技术的解决方案是在思维和机器之间建立某种不通过手指——或任何外部观察者可见的东西——的连接。24

现实世界透明性和网络空间隐私之间的冲突也朝着另一个方向发展……我的口袋电脑用你的公钥加密我的信息,并将其传输到你的口袋电脑,后者解密信息并通过你的VR眼镜显示出来。为了确保没有东西在你肩膀后面读取眼镜上的内容,这些护目镜不是通过屏幕显示图像,而是使用微型激光将其直接写在你的视网膜上。如果幸运的话,你眼球内部仍然是私人空间。

我们可能最终会生活在一个物理行为完全公开,信息交易完全私密的世界。这有一些吸引人的特点。普通公民仍然能够利用强隐私来找到杀手,但雇佣杀手可能会花费比他们愿意支付的更多的钱,因为在一个足够透明的世界里,所有的谋杀行为都无处遁形。每个杀手执行一次任务后就会直接进监狱。

这些技术与数据处理之间的互动又如何呢?一方面,正是现代数据处理使透明社会成为如此大的威胁——如果没有数据处理,即使你录下了世界上发生的一切,也无关紧要,因为没有人能在每天产生的数百万英里录像带中找到他想要的特定六英寸录像带。另一方面,支持强隐私的技术提供了即使在拥有现代数据处理的世界中重新建立隐私的可能性,方法是防止关于你的交易的信息传递给除你之外的任何人。

这样的世界很可能是所有可能世界中最好的:如果一切顺利,我们将看到一个几乎没有物理暴力的未来,同时保留我们在网上的自由,并确保社会中依赖于对完全信息透明性的某些限制才能持续运作的政治、公民、文化和知识进程的基本功能。

即使这不是理想的情况,但它也比物理数字隐私降为零的版本要好得多,最终甚至包括我们自己思想的隐私,到2050年代中期,我们会看到一些文章论述当然期望有不受合法监听的思想是不现实的,而对这些文章的回应则是链接到最近的事件,即某AI公司的LLM遭到漏洞利用,导致3000万人一年的内心独白泄露到整个互联网。

社会一直依赖于隐私和透明度之间的平衡。在某些情况下,我也支持对隐私的限制。举一个与人们在这方面通常给出的论点完全无关的例子,我支持美国政府禁止合同中的竞业禁止条款,主要不是因为它们对工人的直接影响,而是因为它们是一种迫使公司的隐性领域知识部分开源的方式。迫使公司比他们希望的更加开放是对隐私的一种限制——但我认为这是一种净益处。但从宏观角度来看,近未来技术最紧迫的风险是隐私将接近历史最低点,而且方式极不平衡,最有权力的个人和最强大的国家获得大量关于每个人的数据,而其他人几乎看不到任何东西。因此,为每个人支持隐私,并使必要的工具开源、普遍、可靠和安全,是我们这个时代的重要挑战之一

ETHStudy (An Ethereum Ecosystem Initiative)
Supported by Uweb(University of Web3)