ETH增发量将减少 8 倍?合并之后能否迎来通缩?
来源:Reddit
6 月 23 日,以太坊开发者们在 Reddit 的 r/Ethereum 板块举行了第六期 Eth2 AMA 线上问答活动,以太坊联合创始人 Vitalik Buterin 以及以太坊基金会的 Justin Drake、Danny Ryan、Dankrad Feist 等人回答了以太坊社区的提问。本文总结了其中一些问答内容供读者参考,完整问答内容请参见:
以下为本次 AMA 问答的部分内容:
mm1dc:感谢你们举办这次AMA。我有一个关于 (Eth2) 启动取款功能的问题。此功能启用后,是否能够进行部分取款?比如,仅提取收益,并将 32 ETH 继续用于 staking?我听说这一 (取款) 过程相当于是退出 (staking),然后再用 32 ETH 创建新的验证者节点。如果是这样的话,这个过程就太耗时间且用户不友好了。
Justin Drake (以太坊基金会):这种从一个验证者余额部分提款到另一个余额 (账户) 的过程称为“转账”(transfers)。正如你指出的,这种转账通过解锁超出 32 ETH 的余额部分,可以增加 staking (质押) 的资本效率。的确,这种转账功能最终将会启动,但不会在 (Eth1与信标链) 合并之后即刻启动,这是为了尽快进行最小可行的合并。我们确实计划在信标链内部的转账。取款是不需要退出 (staking) 和重新激活 (验证者节点) 的。
Danny Ryan (以太坊基金会):具体的细节还需要制定,但我特别喜欢 Jim McDonald 的提案,即允许取款提议者 (proposers) 在生产一个区块时发出提取超出 32 ETH 的余额的信号,该提案参见:
https://ethresear.ch/t/simple-transfers-of-excess-balance/8263
这种方式是特别好的,因为这样不会增加一个新的信标链操作,也不需要应对一个针对这些操作的市场。但是,在用户体验方面的缺点是,对于验证者来说提取超出32 ETH 的余额的频率将相对更低,但这也代表了系统的负载更少。
. . .
Liberosist:我有许多问题!以下是第一批问题,关于数据分片的一些数字: 根据 GitHub 上的 (Eth2) 规范,64 个数据分片预计将提供总计约 1.3 MB/s 的数据可用性。这是一个很大的数字,意味着每个分片高达约 600 GB/年。为执行引擎开发的状态大小管理技术将如何、何时以及是否会为数据分片而实现? 分片的数据可用性增长经常被认为是对当前执行链 (即Eth1链) 带来 23 倍的提升 (我不确定这一说法出自哪里),这也是 (分片能够带来) 100,000 TPS 数字的来源。通过查看 Etherscan (以太坊区块浏览器),执行链 (即Eth1链) 似乎每个区块约 50 kb,最终会增加一个数量级。显然,我漏掉了一些东西,你能解释一下这些数字背后的计算吗?
Vitalik Buterin:好消息是,600 GB/年是历史数据,而不是状态。因此,节点不需要通过存储这些历史才能参与进来 (我们可能会要求一个短期的托管证明的存储,但即使是这样,这种存储也是短期的,比如2周时间)。 当前的执行链 (Eth1链) 可能将会增长至每个区块高达 915 kb,也即相当于每个区块包含 58593 笔交易,前提是所有交易都是来自 rollup 中的 16 字节/笔交易。每 12 秒 915 kb 意味着每秒 76 kb,而分片的数据可用性是大约 1.3 MB/s,因此这是 18 倍的数据可用性提升 (而不是 23 倍,因为这一数字可能是基于最近区块 gas 上限增加之前)。
Liberosist:你是否认为围绕分片动态的彻底颠覆了三难困境?在我看来,一个网络越去中心化,以及验证者数量越多,该网络就越能安全地运行更多的分片。而试图在一个验证者数量最多只有 1000 的网络 (比如 Polkadot) 上运行 1024 个分片,那么即使是使用欺诈证明、ZK证明或数据的 DAS (数据可用性抽样),这似乎也是反直觉的。
Dankrad Feist (以太坊基金会):需要注意的是,"可扩展性三难困境”并不是绝对的,这是描述当前已知的“简单”区块链。分片 (sharding) 实际上能解决这种可扩展性三难困境。
Liberosist:你最感兴趣的「月亮数学密码技术」(moon math cryptographic techniques) 有哪些?接下来会有什么技术能像零知识证明家族一样具有革命性呢?
Justin Drake:如果你对「月亮数学」和以太坊的交集感兴趣,我推荐这个2小时+ 的 Bankless 的视频:
https://www.youtube.com/watch?v=ycK3AUTdl1w
以及这个电子表格:
https://docs.google.com/spreadsheets/d/1dyhNWMB6rVdmV3Xz-LlZlTt0f4tXfIW0YaoZVvenORs/edit#gid=0
有太多令人兴奋的事情——密码经济学的未来是光明的,而以太坊是一台将应用密码学转化为现实世界密码学的机器。 Eth1主要使用“石器时代”的密码学构建:哈希和原始的签名。Eth2 已经有了可聚合签名,并将最终提供用于秘密领导人选举的隐私公钥排列证明、用于无状态和数据可用性抽样的多项式承诺、用于公平随机性的 VDFs (可验证延迟函数)、用于托管证明的 MPC (安全多方计算) 友好的伪随机函数、用于简洁可验证 VMs (虚拟机) 的 SNARKs,更不用说升级到后量子加密技术。 关于 SNARKs 和 zkSNARKs,我们只触及了皮毛。我的预测是,在未来 5-10 年,SNARKs 仍将是区块链中占主导地位的前沿数学密码原语。
我们刚刚开始使用关键的 SNARK 基础设施,比如递归的 SNARKs 和硬件加速。在应用方面,我们也处于非常初级的阶段,例如 SNARK VMs (尽管 MatterLabs、StarkWare、Aztec、Aleo 等团队取得了巨大的进展),而用于隐私智能合约的 zkVMs 更是如此 (这带来了额外的复杂性)。
如果你看的是10-20年的视界,一个非常令人兴奋的原始是「Indistinguishability Obfuscation」(iO,不可区分混淆),它是“god primitive”,几乎所有其他密码原语都是从它派生出来的,至少在理论上是这样。我希望在未来 30 年的时间里,iO 的发展能跟随 SNARKs 的脚步,从在实践中完全不可能实现的理论方案,发展到高效的生产级系统。
Vitalik Buterin:我认为 ZK-SNARK 技术还会有进一步的改进,可能带来我们尚未看到的巨大收益。具体地说:
ZK-SNARK VMs (包括以太坊虚拟机 EVM)
SNARK 友好的哈希函数
SNARK 友好的聚合签名
一旦我们有了这个,我们就可以将 SNARK 带入整个以太坊状态转换函数,并拥有完全验证的轻客户端。 但是,我个人最感兴趣的是全同态加密 (FHE) 和不可区分混淆。不可区分混淆在去年第一次有了正式的可证明提议,而 FHE 已经存在了一段时间,并一直在改善。
. . .
sggts04:两个问题:
当前是否有在讨论 (Eth1与信标链) 合并之后,可能降低运行 staking 节点的最低 ETH 数量要求?我在 ETH 价格是 100-200 美元的时候获得了 32 ETH,而现在价格飙升之后,将 (staking) 数量要求降低到 2-4 ETH 是否行得通?
Vitalik 曾提到以太坊分片将可以很容易地扩展到超过 64 个分片,64 只是你们在刚开始时致力于实现的分片数量。一旦最初的分片获得成功,你对这个数字能增加多少有什么看法?
Vitalik Buterin:关于“为何规定需要质押 32 ETH”,请参阅 (Eth2) 规范的注释版本:
https://github.com/ethereum/annotated-spec/blob/master/phase0/beacon-chain.md#gwei-values
不幸的是,如果我们将这个 (staking 最低要求) 数量减少那么多,很可能的结果是,以太坊链将变得更加笨重,更难处理,从而降低人们验证它的能力。我看到的一些前进的路径是:
接受这样的事实,即对大多数人来说,在基本层的 staking 是不可能实现的,并致力于实现在最大程度上去中心化的质押池 (staking pools),这些质押池在内部使用多方计算。
减少质押金大小,接受共识层的 RAM 需求可以很容易地膨胀到 8-16 GB,同时增加 epoch 长度至 256 个 slots,进而牺牲区块敲定 (finality) 时间。(注:当前 Eth2 规范规定每个 epoch (6.4分钟) 有 32 个 slots,每个 slot 为 12 秒,这是诞生一个区块所需的时长)
使用复杂的 ZK-SNARK 技术来允许轻量级验证者;一种称为聚合器 (aggregators) 的特殊参与者将负责聚合签名证明。
Dankrad Feist:作为对 Vitalik 的补充,SSV (Secret Shared Validators,秘密共享的验证者) 目前正在取得快速进展。一旦我们实现了,还有一种选择,你可以和一些朋友或同事一起运行一个验证者,你们可以共同分摊质押金和所产生的收益。
这篇文章对于 SSV 有一个很好的介绍:
https://medium.com/coinmonks/eth2-secret-shared-validators-85824df8cbc0
如果你对于 SSV 的实现感兴趣,可参阅:
https://github.com/ethereum/eth2-ssv
Justin Drake:降低一个完整验证者节点需要质押的 最少 ETH 数量有两个关键优势。首先,这降低了成为一个独立的验证者的门槛,这对于 (网络的) 去中心化来说是有益的;其次,这也会增加验证者的数量,从而解锁了实现更多分片的可能性。长期来看,我们肯定会努力降低成为一个完整的验证者需要质押的 ETH 数量,但这是一个艰巨的工程挑战。
问题是,每个增加的验证者都会对信标链施加一些计算负载 (例如 CPU 和 RAM 负载)。因此,为了使信标链本身去中心化,我们需要限制验证者的数量。按照实际情况来说,信标链可能可以安全地支持 100 万名验证者,同时不需要客户端实现者进行太多工作 (目前信标链大约有 18 万名验证者)。虽然基于当前尚未有重大技术突破的情况下,将质押数量要求降低至 2 ETH 或者 4 ETH 听起来相对激进 (当我们升级到后量子聚合签名时,这或许可以实现),但我们可以通过推动 BLS 签名和客户端 RAM 优化的极限,从而将质押数量要求减少至 16 ETH 甚至 8 ETH。 虽然增加分片的数量绝对是可能的 (我在 2018 年曾说过,我们可以使用 BLS 签名将分片数量增加到 1024 个分片),但任何增加分片数量“很容易”可能有点夸张。原因是为了更好的用户体验,我们现在给自己施加了额外的约束,即在每个 slot 期间交联每个分片区块。这种低延迟的交联在信标链上是相对密集的,所以我们很可能会逐步增加分片数量 (例如,增加到 128 个分片,然后再增加到 256 个,等等),而不是从 64 个分片直接增加到 1024 个分片。
. . .
MillennialBets:你们最喜欢加入以太坊生态系统的项目是什么?你们预计 EIP-1559 是否将会带来 (ETH) 通缩?
Justin Drake:和其他许多人一样,我对支持智能合约的 rollups (比如 Arbitrum、Matter Labs、Optimism) 感到兴奋。 仅凭 EIP-1559 本身不足以决定 (ETH) 供应是否可能增加或减少:你还需要考虑到 ETH 的增发。在 EIP-1559 激活 (可能7月底?) 之后的短期内,我们非常不可能看到货币通缩。
原因是以太坊 PoW 链的增发量高得离谱,大约每天 13,500 ETH,而 (EIP-1559销毁的) 费用量不足以抵消。 合并之后,ETH 增发量将大大减少 (大约减少 8 倍,因此所有所谓的「Triple Halvening」,即相当于比特币的 3 次减半)。鉴于历史上的交易费量,我完全相信,合并后的 ETH 供应将开始减少,实际上,合并时的 ETH 供应量 (预计约为 1.2 亿 ETH) 将成为以太坊生命周期内的供应量峰值。
Danny Ryan:我目前对一个 (表面上) 不太令人兴奋的用例感到兴奋:使用你的以太坊地址/密钥作为通用的登入方式。事实上,我们已经看到这已经在以太坊生态系统的 Dapps 中实现了,但这可以扩展到任意网站和应用程序。如果这一举措获得关注,它将 (1) 减少登录管理的麻烦,(2) 让我们重新获得对互联网数据的控制权。 至于 EIP-1559,分析显示,如果 (即EIP-1559激活之后) 以太坊网络的使用与今天相对类似,再加上以太坊 PoS 链 (即信标链) 的增发,很可能会出现 (ETH) 通缩。EIP-1559 能带来的还有很多,但让这个平台的基础资产 (即ETH) 更经济 (节约) 地起作用最终会有利于 (网络) 安全,这对以太坊的成功至关重要。
. . .
Liberosist:随着可编程的 Rollups 的出现,EVM 和 L1 (以太坊基础层) 可以通过哪些方式优化以改进 Rollups?在 L1 层面是否有任何潜在的解决方案可以改善 L2s 之间的互操作性、通信和可组合性?单个 L2 可以在多个数据分片上保持可组合性,但这如何有利于跨 L2 呢?
Justin Drake:可以说,EVM 对于 Optimistic Rollups 和基于 SNARK 的 Rollups 都是不友好的。为了构建 OVM,Optimism 团队已经与 EVM 斗争了超过 1.5 年。在更大的范围内,EVM 是 SNARK 不友好的,一个基于 SNARK 的 EVM 还需要数年,甚至 5-10 年的时间。顺便说一句,Matter Labs 正在构建一个“EVM 可移植”的 SNARK VM。这样的 VM (虚拟机) 可能对于 L2 中的 Rollups 来说足够好,但对于完全 SNARK 化的以太坊 L1 就不够好了,这是长期的目标。
Liberosist:我看到 Vitalik 文章中提到运行 (Eth2) 全节点的设备存储要求是 512 GB。但是,随着 SSD (固态硬盘) 的价格持续快速下跌,我们现在有了像 PlayStation 5 和 Xbox 系列 X 这样价格合理的游戏主机,售价在 400- 500 美元之间,内含 800 GB 到 1 TB 的 NVMe SSD 硬盘。PlayStation 5 SSD 的序列数据吞吐量为 5.5 GB/s,这对于一个 400 美元的主机来说真是太疯狂了!
事实上,我开始看到配备 1 TB SSD 和 8 GB RAM 的笔记本电脑售价低至 580 美元。随着 SSD 的价格持续下跌,我可以看到 1 TB 的 SSD 将成为未来笔记本电脑的标配,到以太坊分片发布的时候可能会达到 2 TB。你认为以太坊的未来升级开始瞄准 1 TB 是否合理?
Dankrad Feist:实际上,我们对于无状态性 (statelessness) 的目标是,你根本不需要任何 SSD 来保持与以太坊网络同步,除非你想成为一个状态提供者和/或区块生产者 (而普通的共识节点或则以太坊用户都不需要这么做)。所以看到 SSD 变得更便宜仍然是件好事 (因为这意味着人们将更容易地进入这些角色),但我们正在积极减少对它们的依赖。
Danny Ryan:对于社区来说,在未来的几十年里关注这些全局数字并调整参数 (例如 Gas 上限,有效状态大小,分片区块大小) 当然是合理的。话虽如此,保守一点可能会更好,以确保全球都能广泛地访问以太坊平台。 还应该注意的是,在区块链中,通常当你改变一个看似孤立的参数时,往往会波及到其他资源阈值。例如,增加 Gas 上限会影响状态增长,但也会影响带宽需求,因为被广播的区块变得更大。
. . .
Liberosist:还有一些关于数据分片的问题:
分片数据实现之后,Gas 市场会在数据可用性和执行之间分离吗?
L1 智能合约 (及其开发者们) 将如何从数据分片中受益?
Danny Ryan:
是的,将会有一个 EIP-1559 风格的机制来将数据存入分片数据层,而分片数据层独立于应用层执行费用市场。这是两种独立的资源,因此这两个市场将被分开并独立定价。话虽如此,由于这些层之间的通用使用模式,执行需求在某些情况下可能与数据需求相结合,在这种情况下,一方价格的峰值可能与另一方价格的峰值同时出现。
我们预计将从数据分片中受益的主要 L1 合约将是那些使用 L1 数据进行扩展的 L2s (也即 Rollups)。话虽如此,对于独立于 Rollups 的廉价 L1 数据,很可能还有其他特定的应用需求。在我看来,如果你给以太坊开发社区一个新的资源,他们会很快想出新的创新方法来使用 (和滥用) 它!
Bitcoin Price Consolidates Below Resistance, Are Dips Still Supported?
Bitcoin Price Consolidates Below Resistance, Are Dips Still Supported?
XRP, Solana, Cardano, Shiba Inu Making Up for Lost Time as Big Whale Transaction Spikes Pop Up
XRP, Solana, Cardano, Shiba Inu Making Up for Lost Time as Big Whale Transaction Spikes Pop Up
Justin Sun suspected to have purchased $160m in Ethereum
Justin Sun suspected to have purchased $160m in Ethereum