总览
熟悉Vitalik的都了解其著名的不可能三角理论,相较于传统货币理论,一国无法同时实现货币政策的独立性,汇率稳定和资本自由流动,最多只能同时满足两个目标,而不得不一定程度舍弃另一个目标,而区块链所面临的“不可能三角”则是指无法同时满足去中心化,安全,可扩展性/效率这三项特征。其最近的文章“Endgame”则再次强调了区块链的终极形态,区块生产将由中心化的生产者主导,而区块链验证将由更多资源消耗较低,门槛较低的去中心化部署的,无需许可的节点参与,同时实现真正的防审查的开放网络。在之前的区块链模块化演变之路中,我们也多次强调,以太坊的愿景是成为一个以Rollups为中心的,统一的解决和数据可用性协议,通过去中心化的验证节点,以太坊网络获得了较高的安全性,尽管相较于其他Layer1,Rollups的费用较高,并且缺少一定灵活性,但是Rollups在享有Layer1的安全性同时,通过以太坊的结算和数据可用性获得了一定的扩展性。?
DankSharding
以太坊目前采取了数据层面的分片,Rollups可以通过这种分片方式提交数据,因而摒弃了之前的分片计划中介绍弱无状态“WeakStateleness”和沃尔克树“VerkleTree”的概念,试图解决状态验证和状态存储的问题。而Celestia通过将执行层和数据可见层分离的方式,通过引入数据可见抽样以及轻节点的概念,极大地提升了其可扩展性。
在Sharding1.0的设计中,每个区块有64个分片,每个分片有单独的提议者和委员会,轮流通过节集合选举出来。每个提议者和为委员会负责验证自己的分片数据(1/64)。而在Sharding1.0中,以太坊并没有采用数据可见采样,而是通过每个分片验证集合大多数诚实节点假设下载全部数据实现。
这个设计显得冗余和复杂,同时存在攻击者风险,通过分片来分配节点的方式也不妥。同时,因为信标链上的验证者需要收集所有的委员会投票,这需要时间,所以保证在一个时隙内完成投票也非常困难,除非引入额外假设。
而相比于Sharding1.0的设计,Danksharding的设计则引入了大区块的设计,大区块将信标区块和所有分片数据结合并且实现同步确认,大区块由专门的创建者(Builder)创建,而验证节点通过数据可见采样确保所有数据都是可见的。
以太坊2.0存款合约的总价值创历史新高:金色财经报道,数据显示,以太坊2.0存款合约的总价值刚刚达到37,080,446,926.01美元,创历史新高。[2023/4/17 14:07:31]
数据可见采样
数据可见采样我们之前在多篇文章中已经介绍过,由于资源和成本限制,大部分节点无法下载全部的数据,如何在不下载全部数据的情况下验证数据/交易呢?我们需要通过数据可见采样确保数据的可见性,所以节点可以轻松安全的在无需下载全部数据的情况下验证数据。?
而数据可用采样是根据长期存在的数据保护技术删除码形成多项式。多项式式中的次数是其最高指数。比如x3+x2+2x-4的次数为3.?而多项式的一个核心特征就是任何次数为N的多项式都可以通过其上任意的N+1项恢复。比如原有数据为a?,a?,a?,a?。那么通过多项式对应的价值分别为f(0),f(1),f(2),f(3),所以f(0)=a?,f(1)=a?,f(2)=a?,f(3)=a?因而我们可以找到其对应的次数为3的多项式。同时,我们可以通过删除码技术,将原有数据拓展额外四项数值,我们将其记录为c?,c?,c?,c?。f(4))=c?,f(5)=c?,f(6)=c?,f(7)=c?因此,我们可以利用多项式的特征,通过其上的任意四个数据样本恢复多项式,也就是50%(4/8)的数据。比如我们采样了30次,那么当可见的数据小于50%的时候,就会受到攻击。而这个概率只有(?)3o。
KZG多项式承诺
那么我们通过数据可见采样实现了数据可见性(DAS),基于数据可见性,全节点可以生成欺诈证明,轻节点可以在无需下载全部数据的情况下,验证全部数据,我们又是如何确保数据被正确的采用了删码技术呢?如果被额外拓展的数据是一个空集,或者是垃圾数据,那么我们如何恢复数据呢?
通常情况下,我们通过默克尔根证明某些集合中数据的存在性,而且适用于大量的数据。但是原有数据和通过删码技术得到的拓展数据,我们如何保证他们在同一个多项式上呢?那么我们就需要其他方法。而默克尔根无法证明。目前主要有两个方向:
摩根大通:以太坊升级可能会推动质押行业达到400亿美元:金色财经报道,摩根大通首席执行官Jamie Dimon在本周的一份报告中表示,随着运行比比特币和以太坊更节能网络的区块链越来越受欢迎,质押(Staking)将成为机构投资者和散户投资者的收入来源。根据该报告,如今质押每年为加密货币行业带来约90亿美元的收入。作者预测,在明年推出期待已久的以太坊2.0后,以太坊向股权证明的转变将刺激替代共识机制的采用,并可能导致在以太坊2.0推出后的几个季度内,质押价值飙升至200亿美元,并在2025年达到400亿美元。[2021/7/2 0:21:52]
1)Celestia通过欺诈证明实现。当见证人发现数据没有被正确采用删码技术,那么这个人就会将欺诈证明提交提醒其他人。但是这里需要最少诚实假设和同步假设。
2)以太坊和PolygonAvail则采用了KZG多项式承诺(KZGcommitments)的方法。这里免去了欺诈证明中的包括少数诚实假设和同步假设等的安全假设。当然,在数据恢复和重建的时候,我们不可避免地都需要引入这两个假设(无论是Celestia还是以太坊,还是PolygonAvail)。
其他的解决方案比如Zk-proofs。但是其现有的计算瓶颈,使得其目前并被推崇为一个可行方案,我们期待未来的技术进步,而以太坊也可能在之后引入其STARKs的技术,因为KZG多项式承诺本质并不防量子计算,而STARKs可以。?KZG多项式承诺我们可以理解为一种通过加密方式承诺价值的多项式承诺方案。
而KZG根可以理解为类似于默克尔根的承诺。而我们上文也提到了原有的数据通过多项式匹配到为f(0),f(1),f(2),f(3)),而我们将拓展的数据匹配为f(4),f(5),f(6),f(7)。而f(0)到f(7)将确保在同一个多项式上。
Coinbase已开放以太坊2.0质押奖励的候补名单:据CoinDesk 2月17日消息,Coinbase已开放以太坊2.0质押奖励的候补名单,其客户现在可以注册以抵押其ETH。Coinbase周二表示,其客户持有以太坊ETH的年回报率最高达7.5%,奖励包括25%的佣金。Coinbase用户可以“在未来几个月内”交易所有抵押的ETH。通过Eth2,Coinbase现在支持Tezos、Cosmos和Algorand的质押奖励服务。此外,Coinbase发言人表示,很快将全面启用Eth2质押服务。[2021/2/17 17:22:55]
KZG多项式承诺和欺诈证明
KZG多项式承诺并不能保证后量子安全,同时需要可信设置--必须生成具有一定关系的椭圆曲线点,但不允许任何人知道它们之间的实际关系-但可以通过分发信任,允许许多人参与设置,设计为只要一个人是诚实的,它就有效;而STARKs提供了后量子安全,而且其可信设置只需要一个诚实参与者,但是相比于欺诈证明,其无需引入同步假设和最小诚实假设,可以确保删码技术被正确使用,延迟性也较低。注意,这个延迟性体现在当采用数据可见采样的时候,不同节点间需要欺诈证明实现信息互通,而这里欺诈证明会大大提升区块间隔,而验证者投票给错误编码块的风险性也会上升,而KZG则减少了这类问题的发生。
但是在区块数据恢复的过程中,我们仍然需要用到上述两个假设:
1)我们需要足够多的节点去采集足够多的数据样本,从而恢复数据,这里需要最小诚实假设,一个全节点可以通过数据可见,生成欺诈证明。
2)当数据可见后,不同节点需要在某时间段内沟通并且将数据重新组合,比如当区块数据不完整,部分可见的时候,全节点必须其他节点沟通,将数据拼起来。
协议内提议者创建者分离(PBS)
POW中的矿工以及合并后的验证者都承担着类似的角色,他们负责提议,投票和出块。POW中矿工通过哈希算法计算的形式参与,而合并后,验证节点直接在区块链上投票。而PBS创建了全新的创建者角色,负责生成包含信标链和分片数据的大区块,同时以向验证者竞价的形式,提交区块。和Vitalik中endgame的愿景相一致,在PBS中,一个诚实的创建者就可以保证网络的安全以及抗审查性,而验证节点则需要大多数诚实假设。?
动态 | Netta发现以太坊智能合约虚拟机重大漏洞 覆盖80%虚拟机:11月9日讯,近日,Netta研究院表示,其和清华大学软件学院动态分析小组合作发现以太坊智能合约虚拟机(EVM)重大漏洞,目前该漏洞已被美国国家信息安全漏洞库CVE认证,并称这次漏洞远比“The DAO”事件要严重,如被利用,或将严重破坏整个以太坊经济模型,对全球运行多数公链造成冲击。 据提供ID,经登录CVE官方网站确已查询到收录信息,但该漏洞描述显示“RESERVED”,漏洞被保密,并未披露具体细节。[2018/11/9]
创建者的收益主要来自于优先小费以及可提取的矿工价值(这等同于只有一个最高利润的创建者能够胜出,而其他创建者最终的竞价都是一个收支平衡点)而所有的价值都会给到验证节点集合,因为验证者将无条件获得竞价金额。
首先,创建者提交区块头信息,这里包含执行区块哈希,竞价以及签名;之后信标链提议者选出获胜区块头,并且无条件获得全部竞价金额,而这个无条件支付方式解决了提议者对于创建者的信任问题;委员会成员确定获胜区块头并且签名,创建者展现区块身,以及其他相关证明,剩余的委员会将认证获胜区块身。
这里我们为什么需要先提交区块头,确认之后再展现区块身体?这里采用了承诺—揭示机制。如果一开始提交大量区块身体,会造成大量的带宽拥堵,同时其他的创建者也可以发现其策略,进行MEV攻击,即使对于一些提议者来说,他们也可以复制这些策略,而并不给创建者任何奖励和激励,而MEV攻击会逐步让创建者和提议者的角色逐步融合,给整个生态带来巨大伤害。
当然这里的问题是一个双时隙的延迟问题,在PBS中整个区块时间为2个时隙。比如合并后的出块时间为12秒,而这里在不引入其他假设的情况下应该为24秒。当然我们最终采用8秒/16秒的折中算法。
动态 | 游戏平台God.Game称遭黑客攻击 智能合约中以太坊总量归零:据智能合约游戏平台God.Game官网显示,GOD.GAME合约遭到黑客攻击,被卷走所有的币,目前GOD智能合约上的以太坊总量已为零。目前暂未收到其官方对此事的回复。[2018/8/22]
PBS的设计在一定程度上解决了验证节点去中心化的问题,同时虽然大区块需要消耗相当多的资源,比较难创建,但是验证相对容易,这也和Endgame的理念相一致。所以将创建者和提议者分开,本质上是处理大量资源,数据,难度的机构可以参与搭建,而提议者可以是验证者。这种设计本质上让MEV扩展到数以万计的验证者身上。
防审查列表(crlist)
当然这里和MEV问题中一样,创建者和验证者一样,会利用自己的权利进行交易的审查,比如优先自己的交易,比如屏蔽其他人的交易等等。这里我们是如何解决的呢?以太坊采用了防审查的列表,提议者将他看到的所有交易都放在这个列表中,所以创建者必须将所有的交易都包含进去。这里的过程类似于PBS的过程,创建者首先需要提交包含所有交易的列表及概述,而后创建者创建区块身,竞价,并且包含交易列表的相应哈希,提议者选择获胜的竞价和区块头。之后创建者展示区块身并且证明他们已经囊括了所有列表上的交易,或者证明区块已满。委员会证明区块身的有效性。
2DKZG方案
在以太坊中,一个KZG多项式承诺并不能解决所有数据问题,通常一个区块有很多KZG承诺。在恢复区块的过程中,我们需要很多低能源消耗的节点参与,所以相对应的KZG承诺也需要进行相应划分。而为了让恢复过程更为简单,这里每个区块中在m个KZG承诺中编码m个数据碎片,而这个需要在每个数据碎片上进行数据可见采样。因此,以太坊再次利用Reed-Solomon技术,将m个承诺扩展至2m。
在Danksharding中,每个区块中最多有256个数据碎片。KZG承诺0代表的是数据碎片0相对应的原有数据和拓展数据。而和之前1D的承诺一样,我们能确保0-511的承诺都在同一个多项式上。而至此,我们可以基于此进行数据可见采样,确保所有分片中的数据可见性。
在1D方案中,我们需要50%的数据恢复所有数据,而在2D中,我们需要75%的数据才可以恢复,因此我们需要采集更多的样本数据。这里需要强调的是,在1D的方案中,我们得出结论,我们需要采集30个样本,而数据不可见的概率为(?)3o,?而要达到相同的概率,在2D的方案中我们需要采集75个样本。让我们通过带宽理解2D方案是如何提升效率的:
在Sharding1.0方案中30个采集样本,需要采集64个分片,所以如果需要检查所有数据可见性,需要512B*64分片*30样本/16秒=60KB/秒带宽。而在2D方案中,我们可以将其考虑为一个区块,所以需要512B*1*75样本/16秒=2.5KB/秒带宽Danksharding(DS)
DS设计基于PBS,其中在特定时间由一个创建者,一个提议者以及一个投票委员会组成。一般的验证节点无法处理这么大量的带宽,所以需要引入PBS。在DS中,每个区块的数据存储量有多少呢?我们可以计算下,每个数据碎片字段元素*32字节*256数据碎片=32MB。在DS的设计中,由于我们引入了大区块的概念,尽管数据仍然需要分片,但是整体上你可以理解为一个统一区块,并且在上进行数据可见采样。
大多数诚实验证
在DS中,每个时段都被分为32个时隙,因此每个时隙将匹配1/32节点进行验证。每个节点在制定时隙验证相应的2行2列,同时需要下载其他时隙区块上的该行该列。比如,我需要认证时段2时隙26上对应的2行2列,因此我要确保从上一次我认证的区块开始到现在,所有时隙上,我需要认证的行列信息都可见。所以DS中需要基于大多数诚实节点假设,确保数据可见性以及负责数据恢复。这个和上文提到的低能源消耗的采集75个样本的轻节点不是一个概念。上文可以称为私人随机抽样。
恢复/重建
恢复/重建过程中我们需要再此引入最小诚实假设和同步假设。而通过测算,我们需要64,000节点。但是实际情况下,这个数据会大大减少。64,000的节点数量是基于同样的验证节点不同时运行多个节点的假设,但这显然与现实不符,因为以太坊单个节点的质押数量限制为32个,所以很多大户将仓位分散到多个节点上。如果你采集的数据超过2行2列,那么你会大大提升概率,因为这里面会有很多交集,因此64,000数量要求将会大幅减少。
恶意多数安全的私人随机抽样
一旦采用了私人随机抽样,任何节点可以采集任意的数据样本,即使当有恶意多数提醒数据可见的情况下,可以通过私人随机抽样高概率的证明数据可见,而上文提到验证节点的行列数据采样是基于多数诚实验证节点的假设
这里私人很重要,如果攻击者攻击了匿名性,他们可以贿赂少部分采样节点,根据你的请求提交数据并且隐瞒其他数据,因为根据你的采样数据,你无法证明数据可见。
总结:
相比于Sharding1.0我们看到了Danksharding的极大进展,1)委员会的功能被弱化了,他们只需要投票,这个减少了受贿的风险。原来的分片设计中,验证者每个时间段需要投票,但是每个分片都有自己的提议者和委员会会,所以每个时隙需要1/32*64=1/2-0-4-8的节点集合。而在DS中,验证者也同样每个时间段需要投票,而每个时隙需要1/32的节点集合投票。
2)数据碎片的确认不再是单独的,而是和主链同步确认,这确保了rollups和以太坊执行环境中的同步互操作性,我们知道波卡等设计都一定程度上牺牲了可扩展性,而实现同步互操作性,而以太坊的这个设计,在实现分片的同时,确保数据碎片的交易可以立即被确认,同时上传至L1。这个也将衍生出更多的类似于Cosmos上的互操作性设计,比如共享流动性,比如Superfliod质押,跨链安全性和跨链账户等设计,我们将持续关注。
3)同时我们也在上文提到了带宽的提升,通过大区块的设计以及2DKZG承诺,我们发现Sharding1.0中60KB/S的带宽要求,而在DS中只需要2.5KB/S。
而在可扩展性层面,在模块化的设计理念中,比如Celestia的设计理念,当轻节点数量越来越多时,我们可以发现区块容量也越来越大,数据吞吐量也越来越高,所以本质上去中心化促使了扩展性。当然尽管我们看到了扩展性的提高,但是仍然会有一些tradeoff。除了安全可扩展的,允许更多生态搭建的底层以外,我们需要在数据存储和带宽上进行提升。?
数据存储主要包含数据可见和数据可检索性,而公式层需要保证在足够的时间段内,任何人在满足安全假设的基础上,可以下载相应的数据,之后再存储至任何地方。当吞吐量指数级上升时,这些假设可能就不成立了。
数据可见采样中需要足够的节点数据足够多的数据,当然如果有恶意节点存在,数据样本不够的情况下,就无法恢复原有数据。因此当吞吐量指数级上升时,我们需要越来越多的数据样本采集节点加入,同时也需要提高带宽要求。所以对于32MB的KZG证明,需要较好的GPU,CPU,同时至少2.5GBit/s带宽。
所以我们看到DS是一种简化为数据分片的新型分片形式,ETH提供了不可扩展的数据,而Rollups将其转为可扩展的计算,其设计更为简单,减少了协议本身需要完成的事情,而更专注于与L2s的协作。同时也为EVM的执行分片埋下了伏笔,但是即使在EVM没有执行分片的情况下,以太坊也是可扩展的。
来源:0xf1E2
1.火爆与争议并存资本圈如何看待Web3的发展前景?近期,Web3.0直接带动资本热情的,是国际知名投资机构的动作.
1900/1/1 0:00:00加密初创公司获得750万美元融资 红杉资本等参投:金色财经报道,加密初创公司Turnkey从Variant、红杉和Coinbase等投资者那里筹集了750万美元.
1900/1/1 0:00:006月22日消息,国际四大会计师事务所之一毕马威的美国和加拿大业务部门在元宇宙推出协作中心,旨在帮助其客户制定元宇宙领域的战略.
1900/1/1 0:00:00Avalanche雪崩协议致力于集成市场领先的智能合约基础设施,为日益壮大的开发者群体提供更有力的支持.
1900/1/1 0:00:00Wyvern是1阶去中心化交换协议。对比其他协议,例如Etherdelta、0x和Dexy是0阶的,也就是每个订单指定两个去中心化资产的交易.
1900/1/1 0:00:005月那场因UST脱锚、LUNA归零带来的市场恐慌,终究伴随着加密熊市的低气压蔓延到了6月,另一组有「锚定」关系的加密资产stETH和ETH出现异动。这两种资产的常规兑换比例为1:1.
1900/1/1 0:00:00