Skip to content
AI + Human

AI作为引擎,人类作为方向盘

作者:维塔利克·布特林 2025 年 2 月 28 日 原文链接

特别感谢Devansh Mehta、Davide Crapis和Julian Zawistowski的反馈和审阅。

如果你询问人们他们喜欢民主结构的什么,无论是政府、工作场所还是基于区块链的DAO,你经常会听到相同的论点:它们避免了权力集中,它们给用户提供了强有力的保障,因为没有任何一个人能够随意完全改变系统的方向,而且它们能够通过收集多人的观点和智慧做出更高质量的决策。

如果你询问人们他们不喜欢民主结构的什么,他们通常会提出相同的抱怨:普通选民不够成熟,因为每个选民只有很小的机会影响结果,很少有选民会认真思考他们的决定,而且你经常会遇到要么参与度低(使系统容易受到攻击)要么事实上的中心化,因为每个人都只是默认信任并复制某些意见领袖的观点。

这篇文章的目标将是探索一种范式,这种范式可能利用AI来为我们带来民主结构的好处,而不会带来其缺点。"AI作为引擎,人类作为方向盘"。人类只向系统提供少量信息,也许只有几百比特,但每一个比特都是经过深思熟虑的高质量比特。AI将这些数据视为"目标函数",并不知疲倦地做出大量决策,尽最大努力符合这些目标。具体而言,本文将探讨一个有趣的问题:我们能否在不将单一AI置于中心的情况下做到这一点,而是依靠一个任何AI(或人机混合体)都可以自由参与的竞争性开放市场?

为什么不直接让单个AI来负责?

将人类偏好融入基于AI的机制的最简单方法是制作一个单一的AI模型,并让人类以某种方式将他们的偏好输入其中。这有一些简单的方法:你可以直接在系统提示中放入一个包含人们指令列表的文本文件。然后使用众多"AI代理框架"中的一个来赋予AI访问互联网的能力,将你组织的资产和社交媒体账号的控制权交给它,这样就完成了。

经过几次迭代,这对许多使用场景来说可能已经足够好了。我完全预期在不久的将来,我们会看到许多涉及AI读取群组指令(甚至实时读取群聊)并据此采取行动的结构。

这种结构不理想的地方在于作为长期存在机构的治理机制。对于长期存在的机构来说,一个有价值的特性是可信中立性(翻译版见本文附录)。在我介绍这个概念的文章中,我列出了对可信中立性有价值的四个特性:

  1. 不要在机制中写入特定的人或特定的结果
  2. 开源且可公开验证执行
  3. 保持简单
  4. 不要过于频繁地改变

LLM(或AI代理)满足了0/4。该模型不可避免地通过其训练过程编码了大量特定人群和结果偏好。有时这会导致AI在令人惊讶的方向上产生偏好,例如看看这项最近的研究表明,主要的LLM对巴基斯坦生命的重视程度远高于美国生命(!!)。它可以是开放权重的,但这远非开源;我们真的不知道在模型深处隐藏着什么魔鬼。它与简单相反:LLM的柯氏复杂度达数百亿比特,大约相当于所有美国法律(联邦+州+地方)的总和。而且由于AI的快速发展,你必须每三个月更改一次。

因此,对于许多使用场景,我倾向于探索的另一种方法是让简单机制作为游戏规则,让AI成为玩家。这与使市场如此有效的见解相同:规则是一个相对简单的产权系统,边缘情况由一个缓慢积累和调整先例的法院系统决定,所有的智能都来自于在"边缘"运营的企业家。

个别的"游戏玩家"可以是LLM、相互交互并调用各种互联网服务的LLM群体、各种AI+人类组合,以及许多其他构造;作为机制设计者,你不需要知道。理想的目标是拥有一个作为自动机运行的机制——如果机制的目标是选择资助什么,那么它应该尽可能感觉像比特币或以太坊区块奖励。

这种方法的优势在于:

  • 避免将任何单一模型固化到机制中;相反,你得到的是一个开放的市场,其中有许多不同的参与者和架构,它们都有自己不同的偏见。开源模型、闭源模型、智能体群、人类+AI混合体、赛博格、无限猴子理论等都可以公平参与;这个机制不存在歧视。
  • 这个机制是开源的。虽然参与者不是开源的,但游戏规则是开源的——这是一个已经被广泛理解和接受的模式(例如,政党和市场都是这样运作的)。
  • 这个机制很简单,因此机制设计者很难在设计中植入他们自己的偏见。
  • 这个机制保持不变,即使从现在到奇点来临之前,底层参与者的架构每三个月都需要重新设计一次。

引导机制的目标是忠实地表达参与者的基本目标。它只需要提供少量信息,但这些信息必须是高质量的。

这个机制的原理在于利用了解题与验证之间的难度差异。就像数独游戏,解题很困难,但验证答案是否正确却很容易。你需要(i)创建一个由"解题者"组成的开放市场,然后(ii)维护一个由人类运行的机制,负责执行相对简单的解决方案验证任务。

Futarchy 期货治理

Futarchy(期货治理)最初由Robin Hanson提出,其理念是"用投票确定价值,用博弈验证信念"。投票机制选择一组目标(可以是任何可度量的目标),这些目标被组合成一个指标M。当需要做出决策时(为简单起见,假设是YES/NO选择),你需要建立条件市场:让人们对以下内容进行投注:(i)是否会选择YES或NO,(ii)如果选择YES时M的值(否则为零),(iii)如果选择NO时M的值(否则为零)。根据这三个变量,你可以判断市场是认为YES还是NO对M的价值更有利。

"公司股价"(或对于加密货币而言是代币)是最常被引用的指标,因为它易于理解和衡量,但该机制可以支持多种类型的指标:月活跃用户数、某群体自报的幸福感中位数、某种可量化的去中心化指标等。

期货治理最初是在人工智能时代之前发明的。然而,期货治理非常自然地符合前一节所述的"复杂求解者,简单验证者"范式。期货治理中的交易者也可以是AI(或人类+AI组合)。"求解者"(预测市场交易者)的角色是确定每个提议的方案将如何影响未来指标的价值。这是一项困难的任务。求解者如果判断正确就能赚钱,判断错误就会亏钱。而验证者(对指标进行投票的人、在发现指标被"操纵"或过时时调整指标的人,以及在未来某个时间点确定指标实际值的人)只需回答一个更简单的问题:"现在指标的值是多少?"

提炼人类判断(Distilled human judgement)

提炼人类判断是一类按以下方式运作的机制。需要回答的问题数量非常庞大(设想:100万个)。自然的例子包括:

  • 这份名单中的每个人对某个项目或任务的贡献应该获得多少荣誉?
  • 哪些评论违反了社交媒体平台(或子社区)的规则?
  • 这些给定的以太坊地址中哪些代表真实且唯一的人?
  • 这些实物对其环境的美学效果有积极还是消极影响?

你有一个陪审团可以回答这些问题,但回答每个问题都需要花费大量精力。你只让陪审团回答其中一小部分问题(例如,如果总清单有100万个项目,陪审团可能只需要回答其中100个)。你甚至可以向陪审团提出间接问题:比如与其问"Alice应得多少比例的荣誉?",不如问"Alice和Bob谁更应该得到荣誉,多几倍?"。在设计陪审团机制时,你可以重用现实世界中经过时间考验的机制,如拨款委员会、法院(判定价值)、评估等。当然,陪审团成员也欢迎使用新兴的AI研究工具来帮助他们得出答案。

然后你允许任何人提交对整个问题集的数值回答(例如,为清单上每个参与者应得的荣誉提供估计)。鼓励参与者使用AI来完成这项工作,但他们可以使用任何技术:AI、人机混合、具有互联网搜索功能并能自主雇用其他人类或AI工作者的AI、经过改造的猴子等。

一旦完整清单提供者和陪审团都提交了他们的答案,就会将完整清单与陪审团的答案进行对比,最终答案将采用与陪审团答案最相符的完整清单的某种组合

提炼人类判断机制与预测市场(futarchy)不同,但有一些重要的相似之处:

  • 预测市场中,"解决者"进行预测,而用于检验其预测(以奖励或惩罚解决者)的"基准数据"是由陪审团运行的输出指标值的预言机
  • 提炼人类判断中,"解决者"提供大量问题的答案,而用于检验其答案的"基准数据"是由陪审团提供的这些问题中一小部分的高质量答案

荣誉分配的提炼人类判断示例,参见这里的Python代码。该脚本请你担任陪审团,并包含一些AI生成(和人类生成)的预置完整清单。该机制识别出最符合陪审团答案的完整清单的线性组合。在这个例子中,获胜组合是0.199 * Claude的答案 + 0.801 * Deepseek的答案;这个组合比任何单个模型都更匹配陪审团的答案。这些系数也将作为提交者的奖励。

在这个"打败索伦"的例子中,"人类作为引导者"的特点体现在两个方面。首先,每个具体问题都应用了高质量的人类判断,尽管这仍然是将评审团作为"专业技术型"的表现评估者。其次,存在一个隐含的投票机制,用来决定"打败索伦"是否真的是正确的目标(比如,是否应该选择与他结盟,或者将某条关键河流以东的所有领土让给他以换取和平)。在其他提炼人类判断的使用案例中,评审团的任务可能更直接地涉及价值观:例如,设想一个去中心化的社交媒体平台(或子社区),评审团的工作是标记随机选择的论坛帖子是否遵循社区规则。

在提炼人类判断的范式中存在几个开放变量:

  • 如何进行抽样?完整列表提交者的职责是提供大量答案;评审员的职责是提供高质量答案。我们需要选择评审员,并为评审员选择问题,使得模型匹配评审员答案的能力最大程度地反映其整体表现。主要考虑因素包括:
    • 专业性与偏见的权衡:熟练的评审员通常在其专业领域有特长,让他们选择要评价的内容会获得更高质量的输入。然而,过多的选择权可能导致偏见(评审员偏向与他们有联系的人的内容),或抽样缺陷(某些内容系统性地未被评价)
    • 古德哈特定律:会出现试图"操纵"人工智能机制的内容,例如,贡献者生成大量表面上令人印象深刻但实际无用的代码。这表明评审团可以检测到这种行为,但静态AI模型若不刻意设计则难以识别。一个可能的解决方案是添加挑战机制,允许个人标记此类尝试,确保评审团进行判断(从而激励AI开发者确保正确识别这些行为)。如果评审团认同标记者的判断,标记者获得奖励;反之则需支付罚金。
  • 使用什么评分函数?目前在深度资助试点中采用的一个方法是询问评审员"A还是B更值得获得信用,差距有多大?"。评分函数是score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 for (A, B, juror_ratio) in jury_answers):即对于每个评审员的答案,计算完整列表中的比率与评审员提供的比率之间的差距,并添加与距离平方(在对数空间中)成比例的惩罚。这说明存在丰富的评分函数设计空间,评分函数的选择与向评审员提出的问题类型密切相关。
  • 如何奖励完整列表提交者?理想情况下,应当经常给多个参与者非零奖励,以避免机制被垄断,同时还要确保参与者无法通过多次提交相同(或略微修改)的答案集来增加奖励。一个有前景的方法是直接计算最适合评审员答案的完整列表的线性组合(系数非负且和为1),并用相同的系数来分配奖励。当然,可能还存在其他方法。

总的来说,目标是借鉴那些已经证明有效、能最小化偏见并经受住时间考验的人类判断机制(例如,法院系统的对抗性结构,包括争议双方——信息充分但带有偏见,以及法官——信息较少但相对公正),并使用开放的AI市场作为这些机制的高保真度且低成本的预测器(这与LLM的"提炼"原理类似)。

深度资助(Deep funding)

深度资助是将人类经过提炼的判断应用于解决图形边缘权重的问题,这个图形表示"X的功劳有多少百分比应该归功于Y?"

最直观的方式是通过一个例子来说明:

两层深度资助示例的输出:以太坊的思想起源。参见这里的Python代码

在这里,目标是分配导致以太坊诞生的哲学贡献的功劳。让我们看一个例子:

  • 在这个模拟的深度资助轮次中,将20.5%的功劳分配给密码朋克运动,9.2%分配给技术进步主义。
  • 对于这些节点,你需要回答这样的问题:在多大程度上它是原创贡献(因此它本身应得到功劳),在多大程度上它是其他上游影响的重组?以密码朋克运动为例,40%是新的贡献,60%来自依赖项。
  • 然后你可以查看这些节点更上游的影响:自由意志主义最小政府主义和无政府主义获得密码朋克运动17.3%的功劳,而瑞士直接民主制仅获得5%。
  • 值得注意的是,自由意志主义最小政府主义和无政府主义也启发了比特币的货币哲学,因此它通过两条路径影响了以太坊的哲学。
  • 要计算自由意志主义最小政府主义和无政府主义对以太坊的总贡献份额,你需要将每条路径上的边缘相乘,然后将路径相加:0.205 * 0.6 * 0.173 + 0.195 * 0.648 * 0.201 ~= 0.0466。因此,如果你要捐赠100美元来奖励所有为以太坊哲学做出贡献的人,根据这次模拟的深度资助轮次,自由意志主义最小政府主义者和无政府主义者将获得4.66美元。

这种方法旨在适用于那些工作建立在先前工作基础上,且结构高度清晰的领域。学术界(例如引用图谱)和开源软件(例如库依赖和分叉)就是两个典型的例子。

一个运作良好的深度资助系统的目标是创建和维护一个全球图谱,任何对支持特定项目感兴趣的资助者都能够向代表该节点的地址发送资金,这些资金会根据图谱边缘的权重自动传播到其依赖项(并递归地传播到它们的依赖项等)。

你可以设想一个使用内置深度资助工具来发行代币的去中心化协议:协议内的去中心化治理将选择一个评审团,评审团负责运行深度资助机制,同时协议自动发行代币并将其存入对应自身的节点。通过这种方式,协议能够以类似比特币或以太坊区块奖励矿工的方式,奖励其所有直接和间接贡献者。通过影响边缘的权重,评审团获得了一种持续定义其所重视的贡献类型的方式。这种机制可以作为挖矿、销售或一次性空投的去中心化和长期可持续的替代方案。

增加隐私保护

通常,对上述示例中的问题做出正确判断需要访问私密信息:组织的内部聊天记录、社区成员机密提交的信息等。"仅使用单一AI"的一个好处是,特别是在小规模环境下,让一个AI访问这些信息比将信息公开给所有人要更容易被接受。

为了让提炼人类判断或深度资助在这些场景中发挥作用,我们可以尝试使用密码学技术来安全地让AI访问私密信息。这个想法是使用多方计算(MPC)、全同态加密(FHE)、可信执行环境(TEEs)或类似机制来使私密信息可用,但仅限于那些输出仅为"完整列表提交"并直接输入到机制中的情况。

如果这样做,那么你就必须将机制的范围限制在仅使用AI模型(而不是人类或AI+人类组合,因为你不能让人类看到数据),特别是在某些特定基础设施(如MPC、FHE、可信硬件)上运行的模型。一个主要的研究方向是找出近期可行的实践版本,使其效率足够高,具有实际意义。

引擎与方向盘模式设计的优势(engine + steering wheel)

这种设计模式具有诸多潜在优势。其中最为重要的是,它使得我们能够构建这样的DAO组织:人类投票者可以掌控发展方向,同时又不会被过多的决策所困扰。这种设计找到了一个完美的平衡点:每个人既不必做出过多决定,又比简单的单一决策(传统的委托方式)拥有更大的权力,而且能够更好地表达那些难以直接阐述的复杂偏好。

此外,这类机制似乎具有激励平滑的特性。这里所说的"激励平滑"包含两个要素:

  • 扩散: 投票机制的任何单一行为都不会对任何个体参与者的利益产生过大影响。
  • 混淆: 投票决策与其对参与者利益的影响之间的关系更为复杂,难以计算。

这里的混淆扩散概念源自密码学,它们是确保密码和哈希函数安全性的关键特性。

当今现实世界中激励平滑的典型例子就是法治:政府最高层通常不会直接做出"给予爱丽丝公司2亿美元"、"对鲍勃公司罚款1亿美元"之类的决定,而是制定旨在平等适用于广大群体的规则,然后由专门的执法机构来解释和执行这些规则。当这种机制有效运作时,能够大大降低贿赂和其他形式腐败的可能性。而当这种机制被破坏时(这在实践中时有发生),相关问题就会迅速恶化。

AI显然将成为未来发展的重要组成部分,这必然包括在未来治理中发挥关键作用。然而,在治理中引入AI存在明显风险:AI可能存在偏见,可能在训练过程中被刻意操纵,而且AI技术发展速度如此之快,以至于"让AI来负责"实际上可能变成"让负责升级AI的人来负责"。经过提炼的人类集体智慧为我们提供了另一条道路,让我们能够以开放的市场化方式利用AI的力量,同时确保由人类主导的民主制度保持控制权。

如果您有兴趣深入探索和参与这些机制,欢迎查看目前正在进行的深度融资轮:https://cryptopond.xyz/modelfactory/detail/2564617

附录:可信中立性作为指导原则

2020年1月3日 Vitalik Buterin/文,https://nakamoto.com/credible-neutrality/

Credible Neutrality 可信中立性

考虑以下情况:

  • 人们有时会对政府将GDP的5%用于支持特定公共项目或特定行业感到不满,但这些人往往不会对同一政府通过执行产权而造成的更大规模资本重新分配感到不满
  • 人们有时会对区块链项目直接分配(或"预挖")大量代币给开发者手选的接收者感到不满,但这些人往往不会对比特币和以太坊等主要区块链向工作量证明矿工发放价值数十亿美元的代币感到不满
  • 人们有时会对社交媒体平台审查或降低特定不受欢迎政治意识形态内容的优先级感到不满,即使这些对审查感到不满的人自己也不认同这些意识形态,但这些人往往不会对拼车平台因评分过低而将司机踢出平台的做法感到不满

对这些情况的一种可能反应是大喊"抓到你了!"并沉浸在似乎揭露了一个伪君子的快感中。确实,有时这种反应是正确的。在我看来,将碳税视为国家干预主义,而将政府执行产权视为自然法则的执行,这确实是一个错误。同样,将为保护区块链安全而工作的矿工视为应该得到补偿的进行"真实热力学工作"的劳动者,而将任何试图补偿改进区块链代码的开发者的行为视为"凭空印钱",这也是一个错误。

但即使试图将直觉系统化的尝试往往会偏离轨道,这种深层的道德直觉也很少完全没有价值。在这种情况下,我认为这里存在着一个非常重要的原则。这个原则很可能成为未来的关键:如何构建能够影响和管理我们生活各个领域的高效、自由、公平且包容的制度。这个原则就是:在建立决定重要结果的机制时,使这些机制具有可信中立性是非常重要的

机制是算法加激励

首先,什么是机制?这里我使用的术语与博弈论文献中谈论机制设计时的用法类似:本质上,机制是算法加激励。机制是一个工具,它接收来自多个人的输入,并利用这些输入来确定参与者的价值取向,从而做出人们关心的某种决策。在一个运作良好的机制中,机制做出的决策既要高效——即在参与者偏好的前提下实现最佳可能结果,又要具有激励相容性,即人们有动力"诚实"参与。

举例说明机制并不困难。以下是一些例子:

  • 私有财产和交易。"输入"是用户通过捐赠或交易重新分配所有权的能力,"输出"是一个(有时正式化,有时仅隐含的)数据库,记录谁有权决定如何使用每个物品。其目标是鼓励生产有用的物品,并将其交到最能善用它们的人手中。
  • 拍卖。输入是出价,输出是谁获得被售物品,以及买家必须支付多少钱。
  • 民主。输入是选票,输出是谁控制参与选举的政府席位。
  • 社交媒体上的赞同、反对、点赞和转发。输入是赞同、反对、点赞和转发,输出是谁看到什么内容。博弈论学究可能会说这只是一个算法,而不是机制,因为它缺乏内置激励;但未来的版本可能会有内置激励(过去的版本也有;参见Slashdot元管理)。
  • 区块链对工作量证明和权益证明的奖励。输入是参与者产生的区块和其他消息,输出是网络接受为权威的链,奖励用于鼓励"正确"行为。

我们正在进入一个高度网络化、高度中介化且快速发展的信息时代,在这个时代,中心化机构正在失去公众信任,人们正在寻找替代方案。因此,不同形式的机制——作为一种智能聚合群众智慧(并将其与同样普遍存在的群众非理性区分开来)的方式——在我们的互动方式中必将变得越来越重要。

什么是可信中立性(Credible Neutrality)?

现在,让我们来谈谈这个至关重要的概念"可信中立性"。本质上,如果仅通过查看机制的设计,就能轻易看出该机制不会对任何特定群体进行歧视或偏袒,那么这个机制就是可信中立的。在一个每个人的能力和需求都如此不同的世界里,这种机制会在可能的范围内公平对待每个人。"任何挖出区块的人都能获得2个ETH"是可信中立的,而"因为我们知道Bob写了很多代码所以要奖励他1000个币"则不是。"任何被五个人标记为不良的帖子都不会显示"是可信中立的,而"任何被我们审核团队认定为歧视蓝眼睛人的帖子都不会显示"则不是。"政府对任何发明授予20年的有限垄断权"是可信中立的(尽管在确定哪些发明符合条件方面存在严重挑战),而"政府认为治愈癌症很重要,因此指定一个委员会在致力于治愈癌症的人群中分配10亿美元"则不是。

当然,中立性永远不会是绝对的。区块奖励会偏袒那些拥有特殊关系、能够获得硬件和廉价电力的人。资本主义偏袒集中利益和富人,而歧视穷人和那些严重依赖公共物品的人。政治话语会歧视任何陷入社会期望偏差错误一方的内容。任何纠正协调失败的机制都必须对这些失败做出一些假设,并会歧视那些被低估了协调失败程度的人。但这并不影响一个事实:某些机制比其他机制更加中立。

这就是为什么私有财产如此有效:不是因为它是上天赋予的权利,而是因为它是一个可信中立的机制,能够解决社会中的许多问题——虽然不是所有问题,但确实很多。这就是为什么按人气过滤可以接受,而按政治意识形态过滤则有问题:相比于说服一群不同立场的人某个特定的政治观点黑名单是正确的,更容易让人们同意一个中立机制能够相对公平地对待每个人。这也是为什么链上开发者奖励比链上挖矿奖励更容易受到质疑:相比于验证谁是开发者,验证谁是矿工更容易,而且在实践中,大多数识别开发者的尝试都容易遭到偏袒的指控。

请注意,这里需要的不仅仅是中立性,而是可信的中立性。也就是说,机制的设计不偏袒特定人群或结果是不够的;更重要的是,机制能够说服一个庞大且多样化的群体相信它至少在做出基本的公平努力。区块链、政治系统和社交媒体等机制的设计目的是促进大型且多样化群体之间的合作。为了让机制真正能够作为这种共同基础,所有参与者都必须能够看到机制是公平的,而且每个参与者都必须能够看到其他人也能看到机制是公平的,因为每个参与者都想确保其他人不会在第二天就放弃这个机制。

也就是说,我们需要的是类似于博弈论中的共同认知概念——或者用不那么数学化的术语来说,就是一个被广泛接受的正当性概念。为了实现这种对中立性的共同认知,机制的中立性必须非常容易被识别——容易到即使是一个教育程度相对较低的观察者,在面对敌对势力试图通过宣传将该机制抹黑为有偏见且不可信时,也能清楚地看出其中立性。

构建可信中立的机制

构建可信中立机制有四个主要规则:

  1. 不要在机制中写入特定的人或特定的结果
  2. 开源且可公开验证执行
  3. 保持简单
  4. 不要过于频繁地改变

(1)很容易理解。回到我们之前的例子,"任何挖出区块的人获得2个ETH"是可信中立的,而"Bob获得1000个币"则不是。"下投票导致帖子显示较少"是可信中立的,而"对蓝眼睛的人的偏见会导致帖子显示较少"则不是。"Bob"是特定的人,而"对蓝眼睛的人的偏见"是特定的结果。当然,Bob可能确实是一位优秀的开发者,为某个区块链项目的成功做出了真正的贡献,值得获得奖励,而反蓝眼睛的偏见自然是我(也希望是你)不愿看到兴起的想法。但在可信中立的机制设计中,这些期望的结果不应该被写入机制中;相反,它们应该从参与者的行为中自然浮现。在自由市场中,Charlie的小部件无用而David的小部件有用这一事实是通过价格机制自然显现的:最终,人们停止购买Charlie的小部件,导致他破产,而David则获得利润并能够扩大规模生产更多小部件。输出中的大多数信息应该来自参与者的输入,而不是来自机制本身的硬编码规则

(2)也很容易理解:机制的规则应该是公开的,并且应该可以公开验证规则是否被正确执行。需要注意的是,在许多情况下,你并不希望输入或输出是公开的;这篇文章解释了为什么很强的隐私级别(即使你想证明自己如何参与也做不到)通常是个好主意。幸运的是,通过零知识证明和区块链的结合,可以同时实现可验证性和隐私性;更多细节请参见这里

(3)简单性的理念,具有讽刺意味的是最不简单的。这篇文章关于"中央计划作为过拟合"更深入地探讨了许多论点,但这里值得总结一下。机制越简单,参数越少,就越难以为目标群体插入隐藏的特权或歧视。如果一个机制有五十个相互作用方式复杂的参数,那么几乎对于任何期望的结果,你都能找到实现该结果的参数组合。但如果一个机制只有一两个参数,这就困难得多。你可以为非常广泛的群体(比如"煽动者"、"富人"等)创造特权,但你无法针对特定的小群体,而且随着时间推移,你针对特定结果的能力会进一步下降。这是因为在设计机制的时间点(A点)和受益者实际受益的时间点(B点)之间存在着越来越多的"无知之幕"(即无法预知未来的具体情况),这使得难以预测受益者在什么样的具体情况下可能从机制中获得不成比例的好处。

这就引出了规则(4),即不要过于频繁地改变机制。改变机制本身就是一种复杂性,它还会让"无知之幕"的时钟重置,使你有机会根据最新信息来调整机制。这样你就能根据这些群体所处的独特位置,以及机制调整将如何影响他们,来偏袒你的特定朋友并打击特定的敌人。

不仅仅是中立性:效能也很重要

在我在这篇文章开头提到的那些极端意识形态版本中,一个常见的谬误是某种中立性至上主义:如果不能完全中立地完成,那就根本不应该做!这种观点的谬误在于,它以牺牲广义中立性为代价来实现狭义中立性。比如说,你可以保证每个矿工与其他矿工处于相同地位(每个区块12.5 BTC或2 ETH),同时保证每个开发者与其他开发者处于相同地位(除了对其公共服务的感谢外没有报酬)。然而,你牺牲的是相对于挖矿而言,开发工作变得严重缺乏激励。最后20%的矿工对区块链的成功贡献不太可能超过其开发者,但目前的奖励结构似乎暗示了这一点。

从更广泛的角度来说,社会中需要产出很多类型的东西:私人物品、公共物品、准确信息、良好的治理决策、我们现在不重视但未来会重视的物品等等;这个清单还可以继续延伸。对其中某些东西来说,创建可信中立机制比其他的更容易。如果我们采用一种不妥协的狭义中立性纯粹主义,认为只有极度可信中立的机制才可接受,那么只有那些容易创建此类机制的问题才会得到解决。而社区的其他需求将完全得不到系统性支持,因此广义中立性会受损。

因此,可信中立性原则必须辅以另一个理念,即效能原则。一个好的机制同时也应该是能够真正解决我们关心问题的机制。这通常意味着,即使是最明显可信中立的机制的开发者也应该接受批评,因为一个机制完全可能既可信中立又糟糕(就像专利经常被认为是这样的)。

有时,这甚至意味着如果还没有找到解决某个问题的可信中立机制,那么在短期内应该采用一个不完全中立的机制。区块链中的预挖和限时开发者奖励就是一个例子;另一个例子是,在去中心化方法尚不可用时,使用中心化方法来检测代表真实人类的账户并过滤掉其他账户。不过,认识到可信中立性是非常有价值的,并努力随着时间推移更接近这个理想,仍然很重要。

如果真的担心不完全中立的机制会导致信任丧失或政治俘获,那么我们可以采用"故障安全"的方式来实施它。例如,可以将交易费用而不是发行量用于开发者资金,创建一个限制资金规模的"谢林栅栏"。此外,可以添加时间限制或"冰河时代",使奖励随时间逐渐消失,必须明确更新。还可以在"层2"系统中实施该机制,比如rollup或eth2执行环境,这些系统具有一定的网络效应锁定,但如果机制出现偏差,可以通过协调努力来放弃。当我们预见到可能出现发声机制的崩溃时,我们可以通过改善退出自由来降低风险。

理论上确实的确存在可信中立的机制来解决多种问题,这些机制需要在实践中进行开发和改进。例如:

我们还不完全了解这些想法的哪些版本以及全新的想法会有效,需要通过多轮实验来探索在不同情境下什么样的规则能带来良好结果。机制规则需要保持开放,同时又要能够抵御攻击,这将是一个特殊的挑战。不过,那些允许规则开放、执行可验证、输出透明,同时又能保持输入私密的密码学发展,将使某些目标变得相当容易实现。

我们从原则上知道,制定这样的稳健规则体系是完全可能的——如上所述,我们在许多情况下基本上已经做到了。但是,随着我们越来越依赖各种形式的软件中介市场,确保这些系统不会将权力集中到少数人手中变得愈发重要——无论是这些平台的运营者,还是最终可能控制这些平台的更强大力量——我们需要创建一个人人都能支持的可信规则体系。

ETHStudy (An Ethereum Ecosystem Initiative)
Supported by Uweb(University of Web3)