圆桌对话:zk 如何才能走向真正的主流,zk 与 AI 又将如何结合?

ChainCatcher热度: 13885

扩容肯定是zk或者整个区块链首先要解决的问题,不解决很难引入主流的应用进场。

原文作者:ChainCatcher

原文来源:ChainCatcher

在zk 叙事持续升温下,上周 ChainCatcher “ zk大师课”系列活动第二期(往期回顾), 邀请到了来自OlaCysic 、Hyper OracleFOX 、Opside 以及 CatcherVC 的 6位成员,以“zk 叙事升温,如何捕获 zk 的长期价值”为主题,一起探讨了 zk目前的发展瓶颈以及未来可能突破的方向。

以下为本场活动的文字整理:

 

1、主持人 LonersLiu:各位嘉宾为什么选择了 zk方向创业?在创业过程中是否发现 zk的一些局限性?

NanFeng:Opside从2018年就开始研究技术选型。我们发现目前做Rollups 服务的很多项目方,比如 AltLayer和最近融资的热门项目可能都是基于OP Stack框架,按照Optimism的那套代码去修改。

相比之下,我们认为zk是一个更长期的方案,可以更快、更安全,并且无需信任。同时 zk也能够带来一些其他特性,比如说我们的这种跨Rollup通信就是Optimistm方案无法实现的。

而zk最大的局限性在于如何提供更多的算力,因为Optimistm方案只需要有一个节点就可以了,相当于运行应用链一样。但是zk方案需要去生成 zk证明来提供数据的验证性。同时,因为zk的算力具备很强的专业性,很可能游戏或者社交网络的开发者没有这个能力去提供zk算力,需要吸引更多的矿工进来提供算力,而不是说让开发者自己去维护算力。

基于PoS和PoW混合共识的Opside可以解决这个问题,让zk Rollup变成一个可行的服务。我们对很多的开源方案进行了研究,比如最近上主网的Polygon EVM,以及未来将上线的 Scroll和Taiko这些方案,我们会对它们的共识层进行一定的改造,然后来适配Opside平台。这样的话可以从Opside的PoS和PoW混合共识中去获益,其他矿工就可以接进来去提供一个去中心化的算力网络。对用户来讲,既可以享受了 zkEVM的兼容性,也可以从BNB Chian或者Polygon 等EVM兼容链无缝迁移,不用担心底层算力问题。

Leo Fan:创办Cysic这个项目是来自于我在Argo的一些经历。Argo本身就是一个zk,当时我们尝试把生成证明的时间缩短到一分钟之内,但是用了很多算法和软件优化程序都没有达到,所以就产生了 zk加速硬件的想法。

从经验方面来说,ZKP算力的门槛会稍微高一些,不仅要对整个ZKP算法非常了解,而且设计ZKP算法的难度也远超比特币矿机的芯片。因为其算法模块比较复杂,整个ZKP算法还在处于不断变化的过程中,所以设计时要兼顾通用性以及效率。

现在市面上所有的ZKP的方法并不会跟某种算法完全绑定,大家只是把这些算法拆成更基础的算子,然后尝试去加速这些算子。哪怕后面算法发生改变,也只需要在软件层面重新编译即可。所以大家目前都在测试效率最好的排列组合,比如我们的MSN,本身的效率已经是非常高。

White Young:我在2018年进入加密行业时是在做联盟链,当时做的是一个基于zk的隐私交易,因为联盟链有很多金融机构比较关注于隐私。随着以太坊的发展,我在2019年的时候就接触到Rollup概念并发现 zk在扩容方面的作用。直到2021年,我从产业区块链来到加密行业,希望能在zk方向实现一些真正落地的东西。

之后我们开始去调研zkEVM的方案,逐渐意识到对于一个扩容项目来讲,如何实现最终的扩容效果更加重要。而现有项目还有很多可以在性能上继续提升的点。

所以我们创办了Ola VM,它是一个主打高性能和兼容性的 zk EVM。我们把Ola VM的整个poc算法部署到虚拟机,然后再到编译器和编程语言,这是一个从0开始设计的东西。所以说除了Ola VM之外,我们还配套了编程语言Ola Lang。

今年1月份我们调整了Ola VM的方向,除了做扩容之外,我们也布局隐私领域。因为从Aztec Network完成了新一轮融资来看,我们判断,加密行业对隐私还是有真正的叙事需求的。

Msfew:当初选择 zk 方向的原因是,我们发现The Graph这样的中间件网络,其安全性是极差的,要么通过一个类似Optimistic的中心化机制,要么通过和节点签署法律文件来约束节点的计算有效性。但对于所有的Dapp开发者来说,中间件网络是必备的基础设施,我们看到了其中的机会。zk对于我们来说保证了数据的有效性,包括节点对以太坊的链上数据进行索引,或者链下计算等等。

此外,我们可以支持任意的链下计算,算是突破了zk的一个局限性。zkWASM(WebAssembly 的 zkVM)是完全可定制和可编程的,在 zkWASM 中运行的任何程序都具有 zk 的超强能力,包括可验证性、免信任、去中心化和计算完整性。

zkWASM跟zkEVM的存在理由是一样的,EVM是为了支持所有Solidity智能合约能够快速的部署到zkEVM网络。zkWASM旨在支持The graph生态,目前主网上面部署了有800多个智能合约Subgraph。zkWASM可以把所有的代码全部运行在虚拟机里面,实现代码执行并且生成证明。

Sputnik:我们之所以选择这个赛道,看到了zk有两个重要属性:一方面可以实现零知识,提供隐私保护。同时, 也因为Rollup开发也是我们团队的技术特长。

我们目前遇到的一些难点可能是算法本身性能的问题,因此现有的算法提升是我们关注的一个挑战点。同时,zk实现上,一方面是目前没有太多支持zk电路的基础设施;另一个方面,电路也存在统一性问题,同样的代码会因为不同的电路难以实现。但目前还没有最优的表达方法。

 

2、主持人 LonersLiu:虽然说 zk 是用数学来代替了之前的经济学博弈,但不管是为了抗审查、避免单点故障系统的可升级,还是说激励更多人参与,都需要有一套巧妙的代币设计来激励不同的参与方。但目前的算力资源可能会选择关注POW或AI计算,为什么要选择去参与一个新ZKP项目?各位关于ZKP产品代币经济模型是如何思考的?

Msfew:安全性上要补充一点,我们不一定要用zkWASM,但为了保证能够继承以太坊的安全性,而不是通过StarkNet来继承以太坊的部分安全性,最终还是选择了zkWASM,让证明可以在以太坊上进行验证。

关于整个系统的经济激励,zk重点的优势是能用纯密码学来代替所有很多复杂的组件。如果不用zk,现在的一些中间件或预言机网络,可能在宏观上需要对整个系统做出很多经济学设计以及假设,设计各种非常复杂的曲线。 

在整个激励机制的设计方面,我们会结合 The Graph等的一些设计,并将一些庞氏组件去掉。因为代币设计的第一个要义不是为了单纯提高其价格,而是结合代币打造一个成功的产品或者说成功的网络。

 

3、主持人 LonersLiu:在以往的安全模式里面,我们会信任博弈参与方会诚实的参与,而在zk方面,要信任电路安全问题、约束条件或者说编译器需要信任它,但这背后也是人,请问你们是怎么去做好安全的,是通过审计还是其它方式?

Msfew:这个点其实和Trustlesss定义有关系,Trustlesss是无需信任。但要追究根源的话,没有任何东西是真正的无需信任的。要看一个zk项目,还是需要先相信其电路是正确的,代码是正确的。就如同我们看比特币,需要相信比特币核心开发者写的代码是正确的,而不是有bug的。往深层次来讲,需要信仰密码学和数学它的规则是不会出错的。

关于zk整个系统的安全性是比较新的一个问题,目前,在zk开发方面有关它的安全工具或测试工具及审计工具非常的稀少,大多是要依赖比如人工之类的审计。在未来的发展中,可能会有非常多zk安全相关的工具产生,这对于所有的这些zkEVM或其他zk网络都是一个很好的事情。

 

4、主持人 LonersLiu:请问Opside在做zk-RaaS时,假设有很多算力,你们会如何分配算力?或者说会以什么方式去激励更多的参与方来服务网络?

NanFeng:这是我们要解决的一个核心的问题。但前提是市场上的算力供给远远大于需求。目前,以太坊转向2.0之后,从以太坊淘汰下来的那些矿工是没有地方去的,释放了一大批的算力。在这个大前提下,这些算力需要寻找一个标的、去往更好的平台。而Opside平台对这些ZKP算力提供统一的市场化定价。

目前,有很多zk Rollup已经部署在了以太坊或BSC上,但它们之间都是割裂的。举一个很简单的例子,现在已经上主网的Polygon zkEVM和zkSync Era,二者之间没有任何关系。资产在Polygon上和在zkSync上是完全两个不同的账户,底层的算力和算法也都完全不一样。

但在Opside里面,比如可采用一个统一的Polygon zkEVM的规范,及zkSync、Scroll等也都可以进行一个规范,产生统一的定价。对矿工来说,这不再是一个割裂的zkEVM而是统一的batch(打包)市场,可以寻找价格最高的为其生成ZKP零知识证明获取收益。

 

5、主持人 LonersLiu:假设Opside平台算力很集中,会对安全性产生影响吗?比如POW中算力高度集中可能会产生一些硬分叉,如果ZKP中算力集中会不会对网络有风险?

NanFeng:这实际上是传统的POW和zkEVM的POW最大的不同。因为传统的POW比如说比特币计算工作都是毫无意义的只是计算哈希而已。但是在zkEVM角度,它的计算工作实际上是ZKP的算力,但它本身并不用于整个系统的分叉,因为整个系统的共识仍然是由上一层Opside来决定的。生成的ZKP唯一作用就是验证其中的某一个sequence(排序器)是否正确,分不分叉其实是由Opside来决定。

 

6、主持人 LonersLi:请Sputnik分享是 FOX如何思考代币激励的?

Sputnik:这个问题核心关键点在于L2的代币设计是否简单、方便。

因些L2选择单独发币,而有些L2选择继续使用L1的代币。如果单独发币就意味着在Layer上部署合约及执行交易所用的GAS需要单独购买,不但会给用户带来不便,对项目来说也不是一件好事。无论机制如何,在手续费方面的设计宗旨都应该是服务于用户,不要让他陷入复杂的置换当中。

另外,代币机制也涉及到能否激励产生证明的节点,同时又能保证安全性。关于安全性主要有两点,一方面是算法上的安全性,另外一种是系统上的、共识层面上的安全。

Fox 也一直在研究这个机制,先讲一个简单攻击:比如有节点提交了一个证明获得了相应的代币激励。那么,当他提交一个可靠计算证明之后,是不是其他节点也可以马上抄他的Proof(证明)、赶快去提交,甚至还会出现抢跑。这就需要思考如何让他们生成不同的证明,这需要在它的电路当中融入一些独特的信息。

7、主持人 LonersLiu:隐私环境中,zk过程外包给第三方的时候会不会出现数据的泄露?White Young:在理想的情况下,可编程隐私希望隐私交易是在用户端生成的。但是由于现在的隐私零知识证明性能还不支持在算力比较弱的一台机上就可以完成证明,所以现在基本上都会有一种代理方案,就是隐私的事情交给一个第三方去设置的。这种情况下,就有泄露交易相关信息的风险,比如泄露交易发送的地址,发送人、交易内容。

不过,虽然这些隐私信息可能被泄露,但不至于出现伪造这笔交易或者后续的交易的情况。同时泄露的范围,也仅仅是把交易的隐私泄露给这个节点而已。

 

8、主持人 LonersLiu:如果说 GPT3 代表了 AI 走向主流的一个代表事件,背后是数据训练到一定程度,你们觉得什么事会让 zk 真正走向主流呢,最近也经常有人提 zk 和 AI 结合,你们怎么看这个方向 ?

Msfew :当像zkWASM这样通用的zk虚拟机能和传统计算程序相结合的时候,zk才能真正走向主流。

因为 zkEVM虽然是Web3和区块链领域的一个非常大的创新,但它只解决这些领域的特定问题。而zkWASM、 zkVM等解决的是Web 2里传统的计算有效性和隐私问题,只有zkWASM、zkVM两者互补后,才能解决几乎所有的计算问题。同时我们还需要将zk证明的速度提高,才能让 Web2 和Web3的计算都能放心的使用zkEVM。

而关于zk和AI的结合方面,zk和AI走的是两个不太一样的方向,zk是关于密码学的个人主权意识,解决的是计算有效性和隐私问题;而AI带来的是生产力的解放。

zk能保证 AI模型的计算是有效的,以及能验证 AI模型背后的供应者身份,比如可以确认某个 AI 供应商是GhatGPT而不是文言一心等其它服务商。

而在隐私方面,zk和AI的结合可能有两种模式,一种保护个人敏感数据不会泄露;另一种保证某个计算模型本身的参数不被泄露,同时还能证明模型本身的准确率和性能,比如说可以保护某个交易策略,让其代码不会被看到的同时,还能证明策略的有效性。

 

9、主持人 LonersLiu:在隐私方面,传统互联网公司很多是使用NPC去解决隐私问题,其成本比zk更低,当AI需要大量计算时,zk相比于NPC有什么样的优势?

Msfew :zk的优势在于简洁性,它的验证速度非常快速,且可以在任意的计算环境里去实现,比如浏览器、手机或者链上合约等等。在区块链领域,项目方要说服整个区块链网络去接受你的数据,就必须提供一个证明,且这个证明没有办法做的非常大非常复杂,这个时候确实更需要zk这样更简洁的证明方式。这也是为什么zk和区块链结合紧密的原因。

 

10、主持人 LonersLiu:AI领域,在ChatGPT将通用模型做得非常强大的情况下,出现了很多探索垂直领域的“ChatGPT”。类比到zk领域,当zkEVM完善的很好的时候,也有团队开始做针对某个应用的应用链。对于用户的特定需求,NanFeng 有什么样的看法?

NanFeng:特定的需求需要走特定的电路,典型的例子就是 dYdX原本依靠Starkware 来为其提供专属的电路,它的好处是电路效率高,但不好的地方在于,会带来一个额外的开发成本和更高的开发门槛,最重要的这会让主权留在Starkware而不在dYdX自己手中,导致 dYdX很多经济模型没有办法自主去更改。

因此未来可能是多链和多 Rollup长期共存的状态。有项目需要走多链模式,比如还需要特定的应用链,有的则会走Rollup路线。

 

11、主持人 LonersLiu: 回到之前的问题,关于zk 会什么时候走向真正的主流,zk和 AI 会如何结合?White Young有什么样的看法?

White Young: 走向主流首先要吸引主流的应用,从而获得主流的用户。zk 需要做的是当有大量的主流用户涌进区块链后,可以帮助行业去满足高性能需求的场景。

关于 zk 和 AI 的结合,我们设想在有大量用户和高性能需求的情况下,如果我们还坚持用原生的 gas 模型,可能一次 AI的调用gas 非常高,一个区块不一定能打包一笔交易或者一次 AI 交易的结果。所以,我们可以通过 zk 去压缩,将 AI 一个电路的交易尽可能用更好的交易规模来表达,让一个区块尽可能包含更多的交易。其次,我们可能还需要用一些新的 gas 计费模型来解决 gas 消耗问题。

而当zk 可以很好的解决扩容问题后,一些主流用户大量真的进入区块链后 ,隐私自然会慢慢被注重起来,这个时候 zk 能再次发挥其在隐私方面的作用,这是一个循序渐进的过程。

 

12、主持人 LonersLiu:zk领域有哪些创新和突破值得关注?这些创新如何影响Web3的发展?zk技术在Web3 领域的长期价值体现在哪些方面?

Sputnik:我们首先需要思考zk到底带来了什么?我们认为zk提供的是一种穿透性,能帮我们去穿透一些信息差的黑盒。举个例子,小时候家长说要给我们保管压岁钱,存起来给我们长大的时候用,我们如何去相信他们真的有在保存呢,这中间有一个信息差,而zk 能做的就是能证明信息真实性的同时,还不用直接给对方看。

抽象出来,有信息差的场景有很多 ,比如交易所的储备金证明,zk可以去消除这些信息差,让我们不仅仅基于人性的信任,还可以基于对数学的信任。

 

Msfew :技术方面,我们会看到非常多技术人才在加入 zk,并创造出了非常新颖的证明系统,这是一个趋势。在应用方面,其实可以关注类似我们 Hyper Oracle 这样支持任意链下计算的 zk 预言机,我们可以利用zk,真正做到让一个去中心化应用真正做到端到端的去中心化,同时保证安全性。

我们的zk组件可以帮助以太坊的共识被任意的场景验证,比如说手机浏览器甚至智能合约。可以说我们的zk预言机对于以太坊来说就是一个类似浏览器一样的应用,然后zk组件是对以太坊共识的增补。

zk 的长期价值方面,zk的本质是通过链下比较硬核的密码学计算来解决信任问题,而区块链的本质是通过很多人来重复项目计算来解决信任问题。我相信未来可能 zk是比区块链更强的密码学应用,zk 比区块链概念更加重要 ,但目前两者是相辅相成的。

13、主持人 LonersLiu:Vitalik提到未来以太坊Layer1也需要zk化的,在未来硬件加速很成熟的时代,有没有可能通过手机、电脑也可以做zk 证明?那未来这种 zk 硬件挖矿的规模大概有多大?

Leo Fan:验证应该是没问题,因为验证的整个计算量很小。生成的话取决于电路的大小,以及使用什么样的步骤有很大的关系。最近我们也在和以太坊基金会,围绕整个硬件加速接口标准化上,探讨合作。

此外,我们还要做一个 ZKP 的芯片,差不多会在明年 Q2 的时候推出。这款芯片的性能基本上是3090显卡的64倍,可以让很多复杂的ZKP计算在10s-20s内完成。

未来这款芯片我们也会做一些开发者版本,可以让开发者通过 USB等方式直接接上笔记本电脑上,在本地进行一些计算处理。

而规模应该还不小,毕竟有那么多 ZKP 项目,我们今年下半年也要成立一个 zk prove DAO。以Layer2的项目为例,他们对我们的芯片需求差不多在2000片左右,在加上Layer1和其它应用,粗略需求超过 1万片。

 

14、主持人 LonersLiu:关于zk领域未来的创新跟突破值得关注的方向?大家还有哪些补充。

NanFeng:zkEVM领域还是值得期待一些未来,随着 scroll 等一批项目出现,这个领域会引来一个更红海的市场。围绕zkEVM 的兼容性、可改造性以及效率生成、ZKP消耗的资源等等方向,都是值得关注的点,同时这也方面也能凸显项目的竞争力。我们 Opside 会综合这些因素去选择一些方案,并融合到我们的平台中给用户一个最好的体验。

Sputnik: 在跨链桥上也是一个zk应用的热点,FOX也做利用 zk的技术做了相应的开发。

跨链的一些难点在于如何控制资产,以及如何兼顾流动性和可信性。在可信性上,以往常规的做法上是以来一个可信的中心,比如一边锁了一笔资产后需要另一条链上对应的把资产解锁,而zk的出现zk的出现其实能为可信性提供了很好的解决方案。

White Young:首先要澄清一点 ,Ola 是一个支持隐私的平台,并不是一个只能做隐私的平台。也就是说未在我们平台做一些公开交易的时候,我们也是一个 zkEVM。

扩容肯定是zk或者整个区块链首先要解决的问题,不解决很难引入主流的应用进场。但在扩容方面牵扯到一个选择问题,你是从兼容性角度出发,还是从效率角度出发,不同的选择造就了不同的技术路线,比如scroll是从兼容性的角度出发,一开始考虑的是让将以太坊生态直接迁移过来,在此基础上再做一些效率提升。但Ola 先考虑的是效率问题,因此在底层做了一个完全zk友好型的虚拟机,再在此基础上去做兼容性,总的来说,zk的发展是先把扩容搞定,搞定后其它方面的机会才会随之而来。

声明:本文为入驻“MarsBit 专栏”作者作品,不代表MarsBit官方立场。
转载请联系网页底部:内容合作栏目,邮件进行授权。授权后转载时请注明出处、作者和本文链接。未经许可擅自转载本站文章,将追究相关法律责任,侵权必究。
提示:投资有风险,入市须谨慎,本资讯不作为投资理财建议。
免责声明:本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况,及遵守所在国家和地区的相关法律法规。
最近更新
本文来源ChainCatcher
原文标题圆桌对话:zk 如何才能走向真正的主流,zk 与 AI 又将如何结合?
下载MarsBit APP
以行业热点、实时快讯、视频解读等维度提供全方位的区块链整合服务
24H热门新闻
暂无内容