我的技术乐观主义
作者:维塔利克·布特林 2023年11月27日 原文链接
特别感谢Morgan Beller、Juan Benet、Eli Dourado、Karl Floersch、Sriram Krishnan、Nate Soares、Jaan Tallinn、Vincent Weisser、Balvi志愿者以及其他提供反馈和审阅的人。
上个月,Marc Andreessen 发表了他的“技术乐观主义宣言”,主张重新燃起对技术的热情,并将市场和资本主义视为构建这种技术并推动人类迈向更光明未来的手段。该宣言明确拒绝了一种被描述为停滞的意识形态。这种意识形态对技术进步感到恐惧,并优先考虑维持当今世界的现状。这份宣言引起了广泛关注,包括来自 Noah Smith、Robin Hanson、Joshua Gans(较为积极)以及 Dave Karpf、Luca Ropek、Ezra Klein(较为消极)等许多人的回应文章。虽然与这份宣言无关,但主题相似的是 James Pethokoukis 的《保守派未来主义者》(The Conservative Futurist)和 Palladium 的《是时候为善而建》(It's Time To Build for Good)。本月,我们通过 OpenAI 争议看到了类似的辩论,其中涉及了许多关于超级智能 AI 危险性的讨论,以及 OpenAI 是否发展过快的可能性。
我对技术乐观主义的态度是温和但复杂的。我相信,由于革命性技术的变革,未来将比现在光明得多,我也相信人类和人性的力量。我反对那种认为我们应尽力维持世界现状,只是减少贪婪、增加公共医疗的心态。然而,我认为不仅规模重要,方向也同样关键。有些技术比其它技术更能可靠地让世界变得更好。有些技术如果得到发展,能够减轻其他技术带来的负面影响。世界在某些技术发展方向上投入过多,而在另一些方向上则投入不足。我们需要积极的人类意愿来选择我们想要的方向,因为“利润最大化”的公式不会自动导向这些方向。
在这篇文章中,我将谈论技术乐观主义对我意味着什么。这包括激励我在某些类型的区块链和密码学应用、社会技术以及其他我感兴趣的科学研究领域工作的更广泛世界观。但关于这个更广泛问题的观点也对人工智能以及许多其他领域有启示。我们技术的快速进步很可能成为二十一世纪最重要的社会议题,因此仔细思考它们至关重要。
目录
技术是惊人的,延迟它的成本非常高
在某些圈子里,人们常常低估技术的好处,主要将其视为反乌托邦和风险的来源。过去半个世纪,这种观点往往源于环境问题,或者担心只有富人才能从中获益,从而巩固他们对穷人的权力。最近,我也开始看到自由主义者对某些技术感到担忧,担心技术会导致权力的集中。这个月,我做了一些民意调查,提出了以下问题:如果一项技术必须被限制,因为它太危险而不能让任何人自由使用,他们更愿意它被垄断还是延迟十年?我惊讶地发现,在三个平台和三种垄断者选择中,压倒性的投票都倾向于延迟。
因此,我有时担心我们已经过度纠正,很多人忽略了论点的另一面:技术的好处是非常巨大的,在我们能够衡量好处远远超过坏处的方面,即使是十年的延迟成本也高得惊人。
举一个具体的例子,我们来看一下预期寿命图表:
我们看到了什么?在过去的一个世纪里,真正巨大的进步。这在全世界都是如此,无论是历史上富裕和主导的地区,还是贫穷和被剥削的地区。
有人将极权主义和战争等灾难的制造或加剧归咎于技术。实际上,我们可以在图表上看到由战争导致的死亡:一次在1910年代(第一次世界大战),另一次在1940年代(第二次世界大战)。如果仔细观察,西班牙流感、大跃进以及其他非军事悲剧也同样可见。但图表清晰地表明了一点:即使是那些骇人听闻的灾难,也被一个世纪以来在粮食、卫生、医学和基础设施方面持续不断的改进浪潮所淹没。
这反映在我们日常生活的巨大改善上。得益于互联网,世界上大多数人能够轻松获取二十年前无法获得的信息。由于国际支付和金融的改进,全球经济变得更加可及。全球贫困正在迅速减少。多亏了在线地图,我们不再担心在城市中迷路,如果你需要快速回家,现在有更便捷的方式叫车。我们的财产正在数字化,实物商品变得便宜,这意味着我们对实体盗窃的恐惧大大减少。在线购物缩小了全球大都市与世界其他地区在商品获取上的差距。在各个方面,自动化给我们带来了常常被低估的好处,那就是让我们的生活更加便利。
这些改进,无论是可量化的还是不可量化的,都是巨大的。在二十一世纪,很有可能更大的改进即将到来。今天,终结衰老和疾病似乎乌托邦式的。但从1945年计算机的存在状态来看,现代几乎将所有东西都嵌入芯片的时代也会显得像乌托邦:甚至科幻电影中的计算机也常常是房间大小的。如果生物技术在未来75年内像计算机在过去75年那样进步,未来可能会比几乎任何人的预期都更加令人惊叹。
与此同时,对进步持怀疑态度的论点往往走向了极端或消极的方向。即使是医学教科书,比如这本20世纪90年代的(感谢Emma Szewczak发现它),有时也会做出极端的声明,否认两个世纪医学科学的价值,甚至辩称拯救人类生命并非显而易见的好事:
20世纪70年代提出的“增长极限”理论,认为人口和工业的增长最终将耗尽地球的有限资源,这一思想最终催生了中国的一胎化政策和印度的大规模强制绝育。在更早的时期,对人口过剩的担忧被用来合理化大规模屠杀。而自1798年以来,这些观点长期被证明是错误的。
正是出于这些原因,作为一个起点,我对任何主张减缓技术或人类进步的论点感到非常不安。考虑到各领域之间紧密相连,即便是领域性的放缓也充满风险。因此,当我写下诸如本文后续内容时,背离了对无论何种形式的进步不加保留的热情,这些言论我是怀着沉重的心情表达的——然而,21世纪是如此独特,足以让这些细微差别值得深思。
话虽如此,在更广泛的图景中,有一个重要的细微差别需要指出,尤其是当我们超越“技术整体是好的”这一层面,进入“哪些具体技术是好的?”这一话题时。这里,我们需要关注许多人主要关心的问题:环境。
这些问题非常严重。我对我们能够克服这些挑战持乐观态度的原因有两个。首先,经过几十年的炒作和一厢情愿的想法,太阳能终于迎来了转机,并且像电池这样的支持技术也在取得类似的进展。其次,我们可以看看人类在解决以前的环境问题上的记录。以空气污染为例,回顾一下过去的反乌托邦:1952年的伦敦大烟雾。
从那以后发生了什么?让我们再次询问“我们的世界数据”:
事实证明,1952年甚至不是污染峰值期:在19世纪末,更高浓度的空气污染物只是被接受并视为理所当然。自那时起,我们见证了一个世纪以来持续且迅速的污染下降。我本人在访问中国时亲身体验到了这一趋势的尾声:2014年,空气中高浓度的雾霾据估计会缩短五年以上的预期寿命是司空见惯的,但到了2020年,空气常常显得与许多西方城市一样清洁。这并非我们取得的唯一成功。在世界许多地区,森林面积正在增加。酸雨危机正在改善。臭氧层几十年来一直在恢复。
对我来说,故事的寓意是这样的。通常情况下,我们文明技术的第N版确实会引发问题,而第N+1版则能解决它。然而,这并非自动发生,而是需要人类有意的努力。臭氧层正在恢复,是因为通过《蒙特利尔议定书》等国际协议,我们使其得以恢复。空气污染正在改善,是因为我们推动了这一改善。同样,太阳能电池板之所以取得巨大进步,并非因为它是能源技术树中预先注定的一部分;而是因为数十年来对解决气候变化重要性的认识,激励了工程师们致力于此问题,以及企业和政府资助他们的研究。正是通过公共讨论和文化塑造政府、科学家、慈善家和企业的视角,所采取的有意的行动,而非一台不可阻挡的“技术-资本机器”,解决了这些问题。
人工智能与其他技术有本质区别,值得特别谨慎对待
我看到的许多对人工智能不屑一顾的观点,都源于认为它“只是另一种技术”的视角:即将其归为与社会媒体、加密技术、避孕措施、电话、飞机、枪支、印刷术和轮子等同一大类的事物。这些事物显然对社会产生了深远的影响。它们不仅仅是对个人福祉的孤立提升:它们彻底改变了文化,改变了权力平衡,并损害了那些严重依赖旧秩序的人。许多人曾反对它们。总的来说,悲观主义者最终总是被证明是错误的。
但我们可以从另一个角度思考人工智能的本质:它是一种新型的智能体,其智力正在迅速提升,并有可能超越人类的智力,成为地球上新的顶级物种。属于这一类别的事物要少得多:我们可以合理地包括人类超越猴子、多细胞生物超越单细胞生物、生命本身的起源,以及工业革命——在这场革命中,机器在体力上超越了人类。突然间,我们仿佛进入了一片未知的领域。
存在性风险是个大问题
AI出错可能让世界变得更糟的一种方式,几乎是可能的最坏情况:它可能真的会导致人类灭绝。这是一个极端的说法:尽管气候变化、人工疫情或核战争的最坏情况可能造成巨大伤害,但仍有许多文明岛屿会完好无损,可以收拾残局。但是,一个超级智能的AI,如果决定与我们为敌,很可能不会留下任何幸存者,并永久终结人类。即使是火星也可能不安全。
一个值得担忧的重要原因围绕着工具性趋同:对于一个超级智能实体可能拥有的非常广泛的目标来说,AI为了更好地实现这些目标,可能会采取的两个非常自然的中间步骤是(i)消耗资源,以及(ii)确保其安全。地球包含大量资源,而人类是这种实体安全的一个可预测威胁。我们可以尝试赋予AI一个明确的目标,即爱护和保护人类,但我们完全不知道如何在实际中做到这一点,而不会在AI遇到意外情况时完全崩溃。因此,我们有一个问题。
MIRI 研究员 Rob Bensinger 的尝试展示了不同人对人工智能要么杀死所有人,要么做出几乎同样糟糕的事情的概率的估计。许多立场是基于人们的公开声明的大致近似,但也有许多人公开给出了他们的精确估计;相当一部分人的“毁灭概率”超过25%。
2022年的一项机器学习研究人员调查显示,研究人员平均认为,人工智能有5-10%的概率会真正杀死我们所有人:这与统计上预期的你因非生物原因(如受伤)而死亡的概率大致相同。
这一切都是推测性假设,我们都应该警惕涉及复杂多步骤故事的推测性假设。然而,这些论点已经经受住了十多年的审查,因此,似乎值得至少稍微担心一下。但即使你不担心真正的灭绝,也有其他理由感到害怕。
即使我们能够生存下来,一个超级智能AI的未来是我们想要生活的世界吗?
许多现代科幻小说都是反乌托邦的,并将AI描绘成负面形象。即使是非科幻类的尝试,试图识别可能的AI未来,也常常给出相当不吸引人的答案。因此,我四处询问这个问题:无论是科幻还是其他类型,有没有描绘一个包含超级智能AI的未来,是我们愿意生活的。迄今为止,最常见的回答是Iain Banks的《文明》系列。
《文明》系列描绘了一个远未来的星际文明,主要由两种角色组成:普通人类和被称为“心智”的超级智能AI。人类已经被增强,但只是稍微增强:医疗技术理论上可以让人类无限期地生存,但大多数人选择只活大约400年,似乎是因为在那时他们对生活感到厌倦。
从表面上看,作为人类的生活似乎是美好的:生活舒适,健康问题得到解决,有各种各样的娱乐选择,人类与“心智”之间存在着积极且协同的关系。然而,当我们深入观察时,会发现一个问题:似乎“心智”完全掌控一切,而人类在这些故事中的唯一角色就是充当“心智”的棋子,代表它们执行任务。
人类并非主角。即使书籍看似以人类为主角,做着重大而严肃的事情,他们实际上只是人工智能的代理。(扎卡维是少数例外之一,因为他能做那些心智体不愿涉足的不道德之事。)“文化中的心智体不需要人类,但人类却需要被需要。”(我认为只有少数人类需要被需要——或者说,只有少数人对此需求强烈到愿意放弃许多舒适。大多数人并不生活在这个层面上。这仍不失为一种精妙的批判。)
人类所承担的项目有失真的风险。几乎他们所做的任何事情,机器都能做得更好。你能做什么呢?你可以命令心智体不要在你因为一时兴起攀爬悬崖时接住你;你可以删除自己意识的备份,这样你实际上是在冒险。你也可以离开文化,重新加入某个老式的、不自由的“强价值观”文明。另一种选择是通过加入接触部门来宣扬自由。
我认为,即使在文化系列中赋予人类的“有意义”的角色也是勉强的;我问了ChatGPT(还能问谁呢?)为什么人类会被赋予这些角色,而不是心智体完全自主地完成一切,我个人觉得它的回答相当令人失望。在一个由超级智能AI主导的“友好”世界中,人类除了作为宠物之外,似乎很难有其他角色。
我不愿看到的世界。
许多其他科幻系列设想了一个存在超级智能AI的世界,但这些AI却从(未增强的)生物人类主人那里接受命令。《星际迷航》就是一个很好的例子,展示了星舰与其AI“计算机”(以及Data)和人类操作员船员之间的和谐愿景。然而,这种平衡似乎极其不稳定。《星际迷航》的世界在当下显得田园诗般美好,但很难将其关于人类与AI关系的愿景视为星舰完全由计算机控制之前的过渡阶段,届时它们将不再需要宽阔的走廊、人工重力以及气候控制。
一个向超级智能机器下达命令的人类将远不如机器智能,并且掌握的信息也更少。在一个存在任何程度竞争的宇宙中,人类退居次要地位的文明将胜过那些人类固执坚持控制的文明。此外,计算机本身可能会夺取控制权。要理解这一点,想象你法律上是一个八岁孩子的真正奴隶。如果你能和孩子长时间交谈,你认为你能说服孩子签署一份文件让你获得自由吗?我还没有进行这个实验,但我的直觉答案是强烈的肯定。因此,总的来说,人类成为宠物似乎是一个难以逃脱的吸引子。
数字威权主义已经上升了十年,而监控技术已经给了威权政府强大的新策略来镇压反对派:让抗议活动发生,但随后检测并悄悄地追捕参与者事后。更一般地说,我基本的恐惧是,允许OpenAI用500名员工服务超过一亿客户的那种管理技术,也将允许一个500人的政治精英,甚至一个5人董事会,对整个国家维持铁腕统治。有了现代监控来收集信息,以及现代AI来解释它,可能无处可藏。
当我们思考AI在战争中的后果时,情况变得更糟。引用0xAlpha关于AI和加密哲学的半著名帖子:
当不需要政治意识形态工作和战争动员时,战争的最高指挥官只需要考虑局势本身,就像下棋一样,完全忽略棋盘上卒/马/车的想法和情感。战争变成了一种纯粹的技术游戏。
此外,政治思想工作和战争动员需要为任何人发动战争提供正当理由。不要低估这种“正当理由”的重要性。几千年来,它一直是人类社会战争的合法性约束。任何想要发动战争的人都必须有一个理由,至少是一个表面上的正当借口。你可能会认为这种约束非常薄弱,因为在许多情况下,这不过是一个借口。例如,一些(如果不是全部)十字军东征实际上是为了占领土地和掠夺财富,但必须以上帝的名义进行,即使被掠夺的城市是上帝的君士坦丁堡。然而,即使是一个薄弱的约束也仍然是一个约束!仅凭这一点小小的借口要求,实际上就阻止了战争制造者在实现目标时完全肆无忌惮。即使是像希特勒这样的邪恶之人,也不能一上来就发动战争——他必须花费数年时间首先试图说服德国民族为高贵的雅利安种族的生存空间而战。
今天,“人类介入”作为一种重要的制衡机制,限制了独裁者发动战争或在国内压迫其公民的权力。人类介入曾阻止过核战争,推动了柏林墙的开放,并在诸如大屠杀等暴行中拯救了生命。如果军队由机器人组成,这种制衡将完全消失。独裁者可能在晚上10点喝醉,11点因推特上有人对其恶语相向而愤怒,在午夜之前,一支机器人入侵舰队可能已经跨越边境,对邻国的平民和基础设施实施毁灭性打击。
与以往时代不同,那时总有某个遥远的角落,天高皇帝远,政权的反对者可以重组、藏匿,最终找到改善现状的方法。而在21世纪人工智能的加持下,极权政权或许能保持对世界足够的监控与控制,从而“锁定”现状,永续不变。
d/acc:防御性(或去中心化,或差异性)加速
在过去的几个月里,“e/acc”(“有效加速主义”)运动获得了很大的动力。由“Beff Jezos”在此总结,e/acc 从根本上讲是对技术进步带来的巨大益处的赞赏,以及希望加速这一趋势以更快地带来这些益处的愿望。
在许多情况下,我发现自己对 e/acc 的观点表示同情。有大量证据表明,FDA 在批准药物方面过于保守,而生物伦理学通常似乎遵循“20 人在失败的医学实验中死亡是悲剧,但 200000 人因救命治疗被延迟而死亡只是统计数据”的原则。延迟批准新冠测试和疫苗,以及疟疾疫苗,似乎进一步证实了这一点。然而,这种观点可能走得太远。
除了我对AI相关的担忧外,我对e/acc(有效加速主义)对军事技术的态度感到特别矛盾。在2023年的当前背景下,这项技术由美国制造并立即应用于保卫乌克兰,很容易看出它如何能够成为一种向善的力量。然而,从更广泛的角度来看,对现代军事技术作为一种向善力量的热情似乎需要相信,主导技术力量在现在和未来的大多数冲突中都会可靠地站在正义的一边:军事技术是好的,因为军事技术是由美国建造和控制的,而美国是好的。成为一个e/acc是否意味着必须成为一个美国至上主义者,将一切都押在美国政府当前和未来的道德以及国家未来的成功上?
另一方面,我认为需要新的思维方式来降低这些风险。OpenAI的治理结构就是一个很好的例子:它似乎是一个善意的尝试,旨在平衡为提供初始资本的投资者创造利润的需求与建立制衡机制以防止OpenAI做出可能毁灭世界的举动的愿望。然而,在实践中,他们最近试图解雇Sam Altman的行为使这一结构看起来像是一个彻底的失败:它将权力集中在一个缺乏民主且不负责任的五人董事会手中,这些人基于秘密信息做出关键决策,并拒绝透露他们的推理细节,直到员工们威胁要集体辞职。令人费解的是,非营利性董事会表现得如此糟糕,以至于公司员工创建了一个临时的实际工会... 站在亿万富翁CEO一边反对他们。
总的来说,我看到了太多拯救世界的计划,这些计划都涉及赋予一小部分人极大的不透明权力,并希望他们明智地使用这些权力。因此,我发现自己被一种不同的哲学所吸引,这种哲学有详细的想法来应对风险,但它试图创造和维护一个更加民主的世界,并尽量避免将集中化作为解决问题的首选方案。这种哲学的范围也远不止于人工智能,我认为即使在一个最终证明人工智能风险担忧大多不成立的世界里,它也同样适用。我将用d/acc这个名字来指代这种哲学。
dacc3
这里的“d”可以代表许多事物;特别是防御、去中心化、民主和差异。首先,从防御的角度来思考它,然后我们可以看到这如何与其他解释联系在一起。
防御倾向的世界有助于健康和民主治理的繁荣
思考技术宏观影响的一个框架是审视防御与进攻的平衡。某些技术使得攻击他人变得更容易,这里的“攻击”是广义的:即做出违背他人利益、让他们感到需要反击的行为。而另一些技术则使得防御更加便捷,甚至无需依赖大型中心化实体也能有效防御。
一个倾向于防御的世界是一个更好的世界,这有多方面的原因。首先当然是安全带来的直接好处:死亡人数减少,经济价值损失降低,冲突耗费的时间减少。然而,较少被认识到的是,防御倾向的世界更有利于健康、开放且尊重自由的治理形式蓬勃发展。
一个明显的例子是瑞士。瑞士常被视为现实世界中最接近古典自由主义治理乌托邦的国家。大量权力下放到各省(称为“州”),重大决策通过全民公投决定,许多当地人甚至不知道总统是谁。这样的国家如何在极具挑战性的政治压力下生存?部分答案在于卓越的政治策略,但另一重要因素是其非常利于防御的地理环境——多山的地形。
旗帜是一个巨大的优势。但山脉也是如此。
在詹姆斯·C·斯科特的新书《不被统治的艺术》中,著名的佐米亚无政府社会是另一个例子:他们也主要依靠山地地形来保持自由和独立。与此同时,欧亚草原则与治理乌托邦完全相反。莎拉·佩恩关于海洋与大陆强国的论述也提出了类似的观点,尽管她关注的是水作为防御屏障而非山脉。事实上,瑞士和岛国共有的自愿贸易便利和非自愿入侵困难相结合,似乎是人类繁荣的理想条件。
我在为以太坊生态系统内的二次方融资实验提供建议时发现了一个相关现象:具体来说就是Gitcoin Grants 的融资轮次。在第4轮中,出现了一个小丑闻,当时一些收入最高的受益者是Twitter上的影响者,他们的贡献被一些人视为积极,而另一些人则认为是消极的。我对这一现象的解释是存在一种失衡:二次方融资允许你发出信号表明你认为某事物是公共物品,但它没有提供方式来表明某事物是公共害物。在极端情况下,一个完全中立的二次方融资系统会资助战争双方。因此,在第5轮中,我提议Gitcoin应该引入负面贡献:你支付1美元来减少某个特定项目获得的资金(并隐含地将其重新分配给所有其他项目)。结果是:很多人讨厌它。
第5轮后流传的众多网络迷因之一。
在我看来,这似乎是一个更大模式的缩影:创建去中心化的治理机制来处理负面外部性在社会上是一个非常困难的问题。去中心化治理出错的典型例子是暴民正义,这并非没有原因。人类心理中有某种特质,使得对负面事物的反应比对正面事物的反应要棘手得多,也更容易出大问题。这也是为什么即使在高度民主的组织中,如何应对负面问题的决策通常也留给一个中心化的委员会来决定。
在许多情况下,这个难题是“自由”概念如此宝贵的一个深层原因。如果有人说了一些冒犯你的话,或者有一种你认为令人厌恶的生活方式,你所感受到的痛苦和厌恶感是真实的,你甚至可能觉得被物理上打一拳都比暴露在这些事物中要好受些。但是,试图就哪些冒犯和厌恶是社会可采取行动的达成共识,其成本和风险可能远远高于简单地提醒自己,某些特立独行或行为不当的人是我们生活在一个自由社会中所付出的代价。
然而,在其他时候,“强颜欢笑并忍受”的做法是不现实的。在这种情况下,另一个有时值得考虑的答案是防御性技术。互联网越安全,我们就越不需要侵犯人们的隐私,也不必采取可疑的国际外交手段去追捕每一个黑客。我们能够构建的在Twitter上屏蔽个人的个性化工具、浏览器内检测诈骗的工具以及区分错误信息和真相的集体工具越多,我们就越不需要为审查制度而争斗。我们越能快速制造疫苗,就越不需要追捕超级传播者。这些解决方案并非在所有领域都有效——我们当然不希望一个每个人都必须穿着真正防弹衣的世界——但在我们能够构建技术以使世界更倾向于防御的领域,这样做具有巨大的价值。
这一核心思想,即某些技术是防御性的,值得推广,而其他技术是攻击性的,应该被劝阻,在有效利他主义文献中以不同的名称有根源:差异技术发展。2022年牛津大学研究人员对这一原则有一个很好的阐述:
图1:差异技术发展减少负面社会影响的机制。
将技术分类为进攻性、防御性或中立性,不可避免地会存在不完美之处。就像“自由”一样,人们可以辩论社会民主政府的政策是通过征收重税和强制雇主来减少自由,还是通过减少普通人对多种风险的担忧来增加自由。同样,对于“防御”,也有一些技术可能同时属于两个阵营。核武器偏向进攻,但核能则有利于人类繁荣且在进攻与防御之间保持中立。不同的技术在不同的时间范围内可能扮演不同的角色。但就像“自由”(或“平等”、“法治”)一样,边缘的模糊性并不是反对这一原则的理由,而是一个更好地理解其细微差别的机会。
现在,让我们看看如何将这一原则应用于更全面的世界观。我们可以将防御性技术,像其他技术一样,分为两个领域:原子世界和比特世界。原子世界又可以进一步分为微观(即生物学,未来的纳米技术)和宏观(即我们通常认为的“防御”,但也包括有弹性的物理基础设施)。比特世界我将从另一个轴来划分:在原则上,确定攻击者有多难?有时这很容易;我称之为网络防御。有时则较难;我称之为信息防御。
微观物理防御(又称生物防御)
特别是由于其长期健康影响,Covid 仍然是一个关注焦点。但 Covid 远非我们将面临的最后一场大流行病;现代世界的许多方面使得更多大流行病很可能即将到来:
更高的人口密度 使得空气传播的病毒和其他病原体更容易传播。流行性疾病在人类历史上相对较新,大多数始于几千年前的城市化。持续快速的城市化意味着人口密度在未来半个世纪将进一步增加。
增加的航空旅行 意味着空气传播的病原体在全球范围内传播得非常迅速。人们迅速变得更加富裕意味着航空旅行很可能在未来半个世纪内进一步大幅增加;复杂系统模型表明,即使是很小的增加也可能产生巨大的影响。气候变化可能会进一步增加这一风险。
动物驯化和工厂化养殖是主要的风险因素。麻疹可能是在不到3000年前从一种牛病毒演变而来的。如今的工厂化农场也在培育新的流感毒株(同时加剧抗生素耐药性,对人类先天免疫力产生影响)。
现代生物工程使得创造新的、更具毒性的病原体变得更加容易。新冠病毒可能或可能没有从进行有意“功能增益”研究的实验室泄漏出来。无论如何,实验室泄漏事件时有发生,而且工具正在迅速改进,使得有意创造极其致命的病毒,甚至朊病毒(僵尸蛋白)变得更加容易。人工瘟疫尤其令人担忧,部分原因是与核武器不同,它们无法溯源:你可以释放一种病毒,而没有人能够分辨出是谁创造了它。现在完全可以设计一个基因序列,并将其发送到湿实验室进行合成,并在五天内将其运送到你手中。
这是CryptoRelief和Balvi两个组织非常活跃的领域,它们因2021年意外获得大量Shiba Inu币而成立并获得资金支持。CryptoRelief最初专注于应对眼前的危机,最近则致力于在印度建立一个长期的医学研究生态系统,而Balvi则专注于突破性项目,以提升我们检测、预防和治疗新冠及其他空气传播疾病的能力。++Balvi坚持其资助的项目必须开源++。受19世纪战胜霍乱及其他水传播病原体的水利工程运动启发,Balvi资助了一系列技术项目,旨在使世界对空气传播病原体具备更强的天然防御能力(参见:更新1和更新2),包括:
用于低成本高效去中心化空气质量测试的设备
一套全新的非侵入性医疗工具
利用开源数据分析进行流行病的早期检测(例如EPIWATCH)
检测手段,包括非常便宜的分子快速检测
当其他方法失效时使用的生物安全级别口罩(biosafety-appropriate masks)
其他有前景的研究领域包括病原体废水监测、改善建筑物的过滤和通风,以及更好地理解和减轻空气质量差带来的风险。
有机会构建一个世界,默认情况下对自然和人为的空气传播流行病具有更强的抵抗力。这个世界将拥有一个高度优化的流程,从疫情爆发开始,到自动检测,再到全球各地的人们能够获得针对性、本地可制造且可验证的开源疫苗或其他预防措施,通过雾化或鼻喷(意味着:如果需要,可以自行使用,无需针头)进行接种,整个过程在一个月内完成。同时,更好的空气质量将大大降低传播速度,并防止许多流行病的发生。
想象一个未来,不必诉诸于社会强制的大锤——没有强制令,也没有设计糟糕且执行不力、可能使情况恶化的强制令的风险——因为公共卫生的基础设施已经融入文明的肌理。这些世界是可能的,适度的生物防御资金投入就能实现这一目标。如果开发过程是开源的,对用户免费,并作为公共产品受到保护,这项工作将更加顺利。
加固操作系统。移动设备上的GrapheneOS已经存在,并且非常实用。桌面端的QubesOS也已问世;目前在我体验中,其可用性略逊于Graphene,但它正在不断改进。
尝试超越密码。遗憾的是,密码难以保障安全,既因其难以记忆,又因易于被窃听。最近,有一股趋势在减少对密码的依赖,并促进基于硬件的多因素认证真正发挥作用。
然而,其他领域缺乏网络安全防御也导致了重大挫折。为防止垃圾邮件的需要,使得电子邮件在实践中变得非常寡头垄断,这使得自我托管或创建新的电子邮件提供商变得非常困难。许多在线应用程序,包括Twitter,要求用户登录才能访问内容,并阻止来自VPN的IP地址,这使得以保护隐私的方式访问互联网变得更加困难。软件集中化也因"武器化的相互依赖"而存在风险:现代技术倾向于通过集中化的瓶颈点进行路由,而这些瓶颈点的运营商利用这种权力收集信息、操纵结果或排除特定参与者——这种策略似乎甚至正在被用来针对区块链行业本身。
这些趋势令人担忧,因为它们威胁到了我长期以来对自由和隐私未来仍可能光明的希望之一,尽管存在深刻的权衡。David Friedman在其著作"未来不完美"中预测,我们可能会得到一个妥协的未来:现实世界会越来越受到监控,但通过密码学,网络世界将保留甚至提升其隐私性。不幸的是,正如我们所看到的,这种反趋势远未得到保证。
这就是为什么我如此重视区块链和零知识证明等加密技术的原因。区块链让我们能够创建拥有“共享存储”的经济和社会结构,而不必依赖中心化的参与者。加密资产使个人能够像互联网出现前使用现金那样存钱和进行金融交易,而无需依赖那些可能随意更改规则的可信第三方。它们还可以作为一种备用的反女巫攻击机制,使得攻击和垃圾信息变得昂贵,即使对于那些没有或不愿意透露其现实世界身份的用户也是如此。账户抽象,特别是社交恢复钱包,可以在不过度依赖中心化中介的情况下保护我们的加密资产,未来还可能保护其他资产。
零知识证明可以用于隐私保护,允许用户在不透露私人信息的情况下证明某些事情。例如,将数字护照签名封装在ZK-SNARK中,以证明你是某个国家的独特公民,而不透露你是哪个公民。这样的技术可以让我们保持隐私和匿名的好处——这些特性被广泛认为是投票等应用所必需的——同时还能获得安全保证并打击垃圾信息和不良行为者。
一个关于ZK社交媒体系统的设计方案,其中可以执行内容审核操作并对用户进行惩罚,所有这些都无需知晓任何人的身份。
Zupass,今年早些时候在Zuzalu孵化,是这一理念实践中的优秀范例。这款应用已被Zuzalu的数百人使用,最近还被数千人用于Devconnect的门票管理,它允许你持有门票、会员资格、(不可转让的)数字收藏品以及其他证明,并在不泄露隐私的情况下验证这些信息。例如,你可以证明自己是Zuzalu的唯一注册居民或Devconnect的持票人,而无需透露任何关于你身份的其他信息。这些证明可以通过二维码在现实中展示,或数字方式登录如Zupoll这样的应用,这是一个仅对Zuzalu居民开放的匿名投票系统。
这些技术是防御性加速(d/acc)原则的绝佳体现:它们让用户和社区能在不牺牲隐私的前提下验证可信度,并保护其安全,而无需依赖那些自行定义善恶的集中化瓶颈点。 通过创造比现今常用技术(如歧视整个被视为不可信的国家)更优、更公平的方式来保护用户或服务的安全,它们提升了全球可达性。如果我们希望在进入21世纪之际保持信息安全的去中心化愿景,这些强大的基础构件可能是必要的。更广泛地致力于网络空间的防御技术,可以在未来以极其重要的方式使互联网更加开放、安全和自由。
信息防御
正如我所描述的,网络防御涉及的是那些让理性人类很容易就攻击者是谁达成共识的情境。如果有人试图侵入你的钱包,很容易认定黑客是坏人。如果有人对网站发起DoS攻击,也很容易认同他们的行为是恶意的,与普通用户试图浏览网站内容在道德上不可同日而语。但在其他一些情境中,界限则更为模糊。正是在这些情境中提升防御能力的工具,我称之为“信息防御”。
以事实核查(即防止“错误信息”)为例。我是社区笔记(Community Notes)的忠实拥趸,它在帮助用户辨别其他用户推文中的真伪方面成效显著。社区笔记采用了一种新算法,展示的不是最受欢迎的笔记,而是那些得到跨政治光谱用户最广泛认可的笔记。
社区笔记实际应用示例。
我也看好预测市场,它们能在尘埃落定、共识形成之前,实时识别事件的重要性。关于Sam Altman的Polymarket就非常有助于概括每小时披露与谈判的最终影响,为那些只看到个别新闻而不知其重要性的读者提供了必要的背景信息。
预测市场常常存在缺陷。但那些自信地表达他们认为未来一年“将”发生什么的Twitter影响者,往往更加不可靠。预测市场仍有很大的改进空间。例如,预测市场的一个主要实际缺陷是,除了最受关注的事件外,其他事件的交易量都很低;一个自然的解决方向是让AI参与预测市场。
在区块链领域,我认为我们需要更多一种特定类型的信息防御。也就是说,钱包应该更加智能化,更积极地帮助用户理解他们正在签署的内容的含义,并保护他们免受欺诈和骗局的侵害。这是一个中间情况:什么是骗局,什么不是,相较于对社会争议事件的看法,主观性较低,但比区分合法用户与DoS攻击者或黑客更为主观。Metamask已经有了一个骗局数据库,并自动阻止用户访问诈骗网站:
像Fire这样的应用程序是进一步发展的一个例子。然而,这类安全软件不应需要用户显式安装;它应该默认成为加密钱包,甚至浏览器的一部分。
由于其更具主观性,信息防御本质上比网络防御更依赖于集体智慧:你需要以某种方式接入一个庞大而复杂的群体,以识别什么可能是真的或假的,以及哪种应用程序是欺骗性的庞氏骗局。开发者有机会在开发有效的信息防御和强化现有信息防御形式上走得更远。类似社区笔记的功能可以被纳入浏览器,不仅覆盖社交媒体平台,还包括整个互联网。
在某种程度上,我被指责为牵强附会地将某些信息技术描述为与“防护”相关。毕竟,防护是关于帮助善意方免受恶意方(或在某些情况下,来自自然)的侵害。然而,这些社会技术中的一些是关于帮助善意方达成共识。
一个很好的例子是pol.is,它使用了一种类似于社区笔记(Community Notes)的算法(并且早于社区笔记)来帮助社区识别在其他方面存在很多分歧的子部落之间的共同点。Viewpoints.xyz受到pol.is的启发,具有类似的精神:
这样的技术可以用于在有争议的决策中实现更去中心化的治理。区块链社区再次成为这方面的良好试验场,并且这些算法已经显示出其价值。通常,关于以太坊协议的改进(“EIPs”)的决策是由一个相对较小的群体在称为“All Core Devs calls”的会议中做出的。对于大多数社区成员没有强烈感受的高度技术性决策,这种方法效果相当好。对于影响协议经济性或更基本价值观(如不可变性和抗审查性)的更重大决策,这往往是不够的。早在2016-17年,当围绕实施DAO分叉、减少发行量以及(不)解冻Parity钱包的一系列有争议的决策时,Carbonvote等工具以及社交媒体投票帮助社区和开发者看到了大部分社区意见的倾向。
Carbonvote 对 DAO 分叉的投票。
Carbonvote 存在缺陷:它依赖 ETH 持有量来决定谁是以太坊社区的成员,导致结果被少数富有的 ETH 持有者(“鲸鱼”)主导。然而,借助现代工具,我们可以打造一个更好的 Carbonvote,利用多种信号,如 POAPs、Zupass 徽章、Gitcoin 护照、Protocol Guild 成员资格,以及 ETH(甚至独立质押的 ETH)持有量来衡量社区成员身份。
这样的工具可以被任何社区用来做出更高质量的决策,找到共同点,协调(物理或数字)迁移,或在不依赖不透明的中心化领导的情况下完成许多其他事情。这本身不是防御加速,但无疑可以称为民主加速。这些工具甚至可以用来改善和民主化在 AI 领域工作的关键参与者和机构的治理。
每次调查的规模虽小,但调查结果在不同来源和选项间的一致性弥补了这一点。在九次调查中,有九次大多数人都宁愿看到高度先进的人工智能被推迟十年,也不愿看到它被单一团体垄断,无论是公司、政府还是跨国机构。在九次调查中,有七次推迟的选项以至少二比一的比例胜出。对于任何致力于人工智能监管的人来说,这似乎是一个重要的事实。目前的方法主要集中在创建许可计划和监管要求,试图限制人工智能开发仅限于少数人,但这些做法恰恰因为人们不希望看到如此强大的技术被垄断而遭到普遍反对。即使这些自上而下的监管提案降低了灭绝风险,它们也增加了某种永久性锁定于中央集权极权主义的可能性。矛盾的是,全面禁止极其先进的人工智能研究(可能生物医学人工智能除外),并采取措施如强制要求未禁止的模型开源,以此减少利润动机同时进一步提高获取的平等性,这样的协议是否会更受欢迎呢?
反对“让一个全球组织负责AI并使其治理非常非常好”路线的主要方法是**多元化AI:有意确保有许多人和公司开发多种AI,这样它们中没有一个会变得比其他强大得多**。按照这个理论,即使AI变得超级智能,我们也能保持力量的平衡。
这种哲学很有趣,但我在以太坊生态中尝试确保“多神论”的经历让我担心这是一种内在不稳定的平衡。在以太坊中,我们有意确保堆栈的多个部分去中心化:确保没有单一代码库控制超过一半的权益证明网络,试图抵消大型质押池的主导地位,改善地理上的去中心化,等等。本质上,以太坊正在尝试实现一个古老的自由主义者梦想,即一个基于市场的社会,使用社会压力而非政府作为反垄断监管者。在某种程度上,这是有效的:Prysm客户端的主导地位已从70%以上降至45%以下。但这并非自动的市场过程,而是人类意图和协调行动的结果。
我在以太坊中的经历反映了更广泛世界的经验,许多市场已被证明是自然垄断。在超级智能AI独立于人类行动的情况下,情况更加不稳定。由于递归自我改进,最强的AI可能会迅速领先,一旦AI比人类更强大,就没有力量能将事物推回平衡。
此外,即使我们确实得到了一个稳定的超级智能AI的多神论世界,我们仍面临另一个问题:人类将成为宠物的宇宙。
一条愉快的路径:与AI融合?
最近我听到的一个不同的选择是少将AI视为与人类分离的事物,更多地关注那些增强而非取代人类认知的工具。
一个近期朝这个方向发展的例子是AI绘画工具。如今,制作AI生成图像的最著名工具只在人类提供输入的一个步骤中发挥作用,之后AI便完全接管。另一种选择是更多地关注AI版的Photoshop:艺术家或AI可能先制作图片的初稿,然后两者通过实时反馈的过程协作改进它。
Photoshop生成式AI填充,2023年。来源。我试过,需要时间适应,但效果确实不错!
另一个类似精神的方向是开放代理架构,它提议将AI“思维”的不同部分(例如制定计划、执行计划、解释外部世界的信息)拆分为独立的组件,并在这些部分之间引入多样化的人类反馈。
到目前为止,这听起来平淡无奇,几乎每个人都会同意这是好事。经济学家达伦·阿西莫格鲁的工作远非这种AI未来主义,但他的新书《权力与进步》暗示了希望看到更多这类AI。
但如果我们想进一步推演人机合作的理念,将会得出更为激进的结论。除非我们创建一个足够强大的世界政府,能够检测并阻止每一个小群体用笔记本电脑在单个GPU上进行黑客活动,否则终将有人创造出超级智能AI——一个能比我们快千倍思考的AI——而任何人类使用工具的组合都无法与之抗衡。因此,我们需要将这种人机合作的理念推向更深更远的层次。
第一步自然就是脑机接口。脑机接口可以让人类更直接地接入越来越强大的计算和认知形式,将人与机器之间的双向通信循环从秒级缩短到毫秒级。这还将大大降低让计算机帮你搜集事实、提供建议或执行计划的“心理努力”成本。
诚然,这一路线图的后期阶段会变得有些怪异。除了脑机接口,还有多种途径可以通过生物学的创新直接提升我们的大脑。最终的进一步步骤,可能是将这两种路径合并,即上传我们的意识直接运行在计算机上。这也将是物理安全的终极d/acc(去中心化加速):保护自己免受伤害将不再是一个保护必然脆弱的人类身体的难题,而是变成了一个简单得多的数据备份问题。
这类方向常引发担忧,部分原因在于其不可逆性,部分原因则是它可能让有权势者比我们其他人占据更多优势。尤其是脑机接口,其危险性不容忽视——毕竟,我们谈论的是直接读取和写入人们的思维。正是这些担忧让我认为,最理想的状况是,由注重安全性的开源运动主导这一道路,而非封闭的专有公司和风险投资基金。此外,所有这些问题在独立于人类运行的超级智能AI中,比在紧密依赖人类增强技术中更为严重。如今,"增强"与"未增强"之间的鸿沟已然存在,部分原因是谁能使用ChatGPT的限制。
如果我们希望未来既超级智能又充满人性,一个人类不仅仅是宠物,而是真正保持对世界有意义控制权的未来,那么像这样的方案似乎是最自然的选择。还有充分的理由说明,这可能是更安全的AI对齐路径:通过在决策的每一步引入人类反馈,我们减少了将高级规划责任转移给AI本身的动机,从而降低了AI自行做出与人类价值观完全不符行为的可能性。
d/acc 与你现有的哲学观兼容吗?
如果你是一个 e/acc,那么 d/acc 是 e/acc 的一个子集——只是一个更加有选择性和目的性的版本。
如果你是一个有效利他主义者,那么 d/acc 是对有效利他主义中差异化技术发展理念的重塑,尽管它更强调自由和民主的价值观。
如果你是一个 自由意志主义者,那么 d/acc 是技术自由意志主义的一个子集,尽管它是一个更务实的版本,对“技术资本机器”持更多批评态度,并愿意接受今天的政府干预(至少,如果文化干预无效的话),以防止未来更严重的不自由。
如果你是一个 多元主义者,按照Glen Weyl 对这个词的理解,那么 d/acc 是一个可以轻松融入多元主义所重视的更好的民主协调技术框架。
如果你是一个 公共卫生倡导者,那么 d/acc 的理念可以为你提供一个更广泛的长期愿景,并有机会与“科技人士”找到共同点,否则你可能会觉得与他们格格不入。
如果你是一个 区块链倡导者,那么 d/acc 是一个比十五年来强调恶性通胀和银行的叙事更现代、更广泛的叙事,它将区块链置于一个具体战略中的众多工具之一,以建设更光明的未来。
如果你是一个 太阳能朋克,那么 d/acc 是太阳能朋克的一个子集,并融入了类似的关于目的性和集体行动的强调。
如果你是一个 月球朋克,那么你会欣赏 d/acc 对信息防御的重视,通过维护隐私和自由来实现。
我们是最耀眼的星
我热爱技术,因为技术扩展了人类的潜能。一万年前,我们能够制造一些手工工具,改变一小片土地上生长的植物,并建造基本的房屋。如今,我们可以建造800米高的塔楼,将人类所有记录的知识存储在一个可以握在手中的设备里,即时在全球范围内通信,将寿命延长一倍,并且过上幸福充实的生活,而无需担心最好的朋友经常因疾病而离世。
我们从底层起步,如今已站在巅峰。
我相信这些事情是极其美好的,进一步扩展人类的足迹到行星和恒星之间也是极其美好的,因为我相信人类本质上是美好的。在某些圈子里,质疑这一点很流行:自愿人类灭绝运动认为地球在没有人类存在的情况下会更好,还有许多人希望看到更少的人类在未来几个世纪中降生。人们常常争论说人类是坏的,因为我们欺骗和偷窃,参与殖民主义和战争,虐待和灭绝其他物种。我对这种思维方式的回答是一个简单的问题:与什么相比?
是的,人类常常表现得刻薄,但我们更频繁地展现出善意与怜悯,并为了共同的利益携手合作。即便在战争期间,我们也常常注意保护平民——当然这还远远不够,但比起2000年前已经进步了许多。下个世纪很可能会普及非动物来源的肉类,从而消除当前人类可被公正指责的最大道德灾难。非人类的动物则不然。没有哪种情形下,一只猫会出于伦理原则而采取完全不吃老鼠的生活方式。太阳每年都在变得更亮,大约在十亿年后,预计这将使地球变得过热而无法维持生命。太阳是否曾考虑过它即将引发的种族灭绝呢?
因此,我坚信,在我们已知和所见宇宙万物中,我们人类是最璀璨的星辰。我们是唯一已知的存在,尽管不完美,但有时会真诚地努力关注“善”,并调整我们的行为以更好地服务于它。二十亿年后,如果地球或宇宙的任何角落仍保留着地球生命之美,那将是人类诸如太空旅行和地球工程等人工杰作使之成为可能。
我们需要建设,需要加速。但有一个非常现实的问题需要提出:我们正在加速追求的目标是什么?21世纪很可能是人类关键的世纪,在这个世纪里,我们未来数千年的命运将被决定。我们是会陷入无法逃脱的诸多陷阱之一,还是能找到一条通往我们保留自由和能动性的未来之路?这些都是具有挑战性的问题。但我期待见证并参与我们物种寻找答案的伟大集体努力。