本期专访,我们将深入探讨 Zypher Network 如何引领 AI 可信计算的新时代。

作者:Miki,Web3Caff 专访团队

AI 技术的兴起正在深刻影响各行各业,但数据隐私和可信计算仍是亟待解决的重大挑战。Zypher Network 凭借其核心技术——零知识证明(ZK),推出了 zkPrompt 和 zkInference 等创新解决方案,旨在破解 AI 领域的 “黑盒” 难题,推动 AI 计算向更加透明、安全、可验证的方向发展。那么,ZK 技术如何为 AI 赋能?它又将如何改变金融、医疗、Web3 游戏等行业?本期专访,我们将深入探讨 Zypher Network 如何引领 AI 可信计算的新时代。

Q1: 首先,非常感谢 Zypher 参与本次 Web3Caff 特邀专访。Web3Caff 是一家专注于 Web3 领域研究的深度垂直媒体平台,致力于从全球视角探索 Web3 产业的趋势与新经济动态。首先请您简要介绍一下自己、Zypher 以及你们的团队?

Zypher Network 是一套以 ZK 技术为核心的协处理设施,旨在为所有需要零知识证明的应用场景和设施提供 ZK 服务。在此基础上,Zypher Network 推出了一套面向 AI 领域的可信框架,包括 zkPrompt 以及 zkInference,以进一步拓展为 AI 领域重要的可信和隐私基础设施。

Zypher Network 由一支经验丰富、专业互补的核心团队领导,在 AI、区块链、密码学和金融运营等领域拥有深厚的积累。

CEO Giv Parvaneh 是一位资深企业家和投资人,曾在 BBC、Harmony 和 AWS 担任重要领导职务,专注于 AI 和区块链技术的融合,并成功创办并退出了 Intricately。

CPO Ethan Cai 具有丰富的 AI 经验,曾领导百度 AI 项目,并共同创立了 IDG 资本支持的 Ciqtek,为 Zypher 的 AI 可信验证生态提供强大支撑。

COO Maggie Wang 拥有广泛的 Web3 运营经验,曾深度参与多个 Layer 1 生态的建设,同时在中银和瑞穗银行等传统金融机构积累了丰富的战略与运营经验,为 Zypher 的全球化布局提供保障。

首席研究科学家 Felix Qu 是 zkGPT(SEC 论文)的作者,长期专注于区块链、应用密码学和 LLM 隐私保护研究,在微软、清华大学等顶级机构拥有深厚的科研背景,为 Zypher 的密码学创新提供核心支持。

Q2: Zypher 作为为 AI 领域赋能的基础设施项目,核心使命是什么?你们希望解决 AI 领域目前面临的哪些主要痛点?

Zypher 的使命主要是期望能够推动各类 AI 技术方案在不同的领域被广泛且可信的采用。其实我们能够看到,AI 在最近两年的发展是十分迅猛的,尤其是像我们这类经常线上办公的人群对于大语言模型进步的感知是十分明显的,随着算法的不断迭代优化,的确是越来越好用了。同样来说 LLM 服务商比如 OpenAI 等也能够通过 API 接口对外开放模型能力,让 LLM 模型在更广泛的场景中发挥作用。比如一些物联网设备、智能汽车系统等就可以通过集成这些优秀的 LLM API,实现更智能的交互体验,为用户提供更高效、自然的一些 AI 驱动服务。

但是对于这些底层 AI 模型服务商,它们模型通常都有一系列的特点,包括高复的杂度性、商业的封闭性、数据的不可见性,以及深度学习模型的固有不可解释性等等吧,所以当底层 AI 服务商向用户提供 API 服务时,其内部模型的运作逻辑通常是不可见的。整个模型对外呈现为一个完全的黑盒系统,即用户只能通过 API 发送请求并获取响应,而无法直接访问或理解其内部的具体计算过程、参数权重或训练机制。

所以对于这种普遍的 “黑盒特性” 正在使得用户在使用或者说集成一些底层大模型或 API 时,通常会面临两个潜在的核心问题:一个是一致性问题,在 LLM 系统中提示词往往是由开发者提供的,其直接影响模型行为,比如模型可能会因为某些提示词偏好导致模型的最终推理带有一定的指向性,进而左右推理结果。当然了,在用户每次进行 API 调用时,通常也无法验证实际使用的系统提示词是否被篡改,可能会导致模型行为偏离预期,进而会导致最终的一个输出或者执行存在很严重的偏差。

另外一个是就是隐私性问题了。这个隐私也有两层含义,比如在 LLM 模型里,系统提示词通常会包含高度敏感的商业信息,比如定价策略、风控规则、内部流程等,这些提示词通常涉及企业的核心竞争力,因此开发者不愿公开。而对于一些上层的用户在获得底层 AI 模型的一些服务时,肯定会向模型提供一些敏感数据,这些数据在反馈至云端后会不会泄露,这个其实是一个老生常谈的问题了。

所以你看,像一些金融、医疗等对合规性、隐私和安全性要求较高的场景中的应用,在集成各类 AI 模型时,通常都会面临一定的局限性。

所以 Zypher 推出的这套基于 ZK 的基建设施,旨在进一步打破阻碍 AI 被广泛采用所面临的一致性、隐私性等问题或者说痛点。

Q3: 目前市场上的 AI 方案普遍存在 “黑盒” 问题,而可信 AI 是 Zypher 一直强调的关键概念。Zypher 提出的 AI 形态是否有望成为 AI 领域的未来发展方向?

从我的角度出发,我觉得未来 AI 模型的范式一定是向可信的方向发展的。我举一个最简单的例子吧,比如有这样一个能够替代我们执行某些链上交易,并且能够提升我们胜率的 AI Agent,但是我相信绝大多数人都不太去敢进行尝试,一个是这个模型本身并不能直接向我们 证明它是否真的具备这个能力,因为他的开发者肯定不会向我们公开其代码,一个是这个 AI Agent 安全不安全,因为我们需要给他一些较高的权限,比如授权私钥、自动交易资产等等,但当 AI Agent 能够直接接触到我们的私钥时,他能不能保证我们的资产安全,或者说谁能保证它是不作恶的。那么在一些更大的场景中,所面临的这种可信性问题同样也是更加严峻的。

那么对于 AI 的采用,尤其是在像一些公共类的设施中采用,一定是要能做到可信才能去被广泛的采用。所以从这个角度来说, Zypher 所提出的 可信 AI 形态是会是 AI 领域的一个未来发展方向。

Q4: Zypher 采用了 ZK 计算(零知识证明)作为底层技术,这一技术如何提升 AI 的可信性?能否详细介绍一下 Zypher 的两个主要方案 Proof of Prompt 和 Proof of Inference?

ZK 是一个目前多个领域广泛采用的密码学方案,其允许其中一方的证明者向另一方验证者证明一个陈述是真实的,而不揭示任何额外信息,以达到可以在保护隐私的同时向第三方证明数据的完整性和真实性。

而从 Zypher 的角度出发,我们的 AI 可信框架是基于 ZK 方案搭建的,其中 Proof of Prompt 也就是我们所说的 zkPrompt 方案能够保证在 LLM 模型中,我们采用 ZK 来保证 Prompt 的可验证与可信性,目标是保证 Prompt 的正确性和一致性,无需向公众或用户暴露底层数据,并进一步保证后续模型推理的可验证性与可信性。

更为具体而言,zkPrompt 本身能够与系统 Prompt 的初始化流程紧密协作,将初始化的 Prompt 作为输入,通过 Zypher 的 ZK 矿工网络生成加密承诺,并构建零知识证明。这些 ZKP 允许任何用户或第三方进行验证,通过与经过审计的初始承诺对比,确保 Prompt 内容的正确性和一致性。如果系统 Prompt 的实际初始化内容与审计样本存在不一致,验证过程将立即失败,从而快速定位和发现潜在问题,确保系统行为的透明性和可靠性。zkPrompt 的框架本身以易用的 SDK 形式呈现,并依托于一套先进的加密方案,包括强加密、 Pedersen 承诺和 zkSnarks(Plonk)等原语,能够被目前绝大多数 LLMM 模型所集成。所以总结下来 zkPrompt 所达到了效果包括:

数据隐私,也就是用户可以验证提示的正确性,而无需看到或了解系统提示的具体内容,保护提示的敏感性。

可信性与透明度,即通过零知识证明,用户可以信任 AI 的行为未被恶意篡改。

分布式验证,任何用户或第三方都可以通过验证过程确认提示和模型的一致性。

而 Proof of Inference 即我们说的 zkInference 框架利用零知识证明算法,确保 AI Agent 严格遵循预定规则或 AI 模型操作,保证它们的决策过程符合公平、准确和安全的原则,框架本身基于 ZK 方案能够使得 AI Agent 的行为可以得到验证,而无需暴露底层模型或数据。所以 zkInference 能够有效地防止了多个 AI 代理之间的合谋和恶意行为,保障了包括 Web3 游戏、AI Agent 等一系列场景的公平性和安全性。

对于 zkInference 框架的整体特点可以总结为,可验证性,即利用零知识证明技术验证 AI Agent 行为,而无需暴露底层模型或数据;反合谋,即有效防止不同 AI Agent 之间的合谋,确保公平的游戏体验,以及无限计算能力:为可验证的 AI Agent 提供无限的计算资源。

Q5: zkTLS 是 Zypher 提出的关键解决方案之一,它的核心作用是什么?与市场上现有方案相比,Zypher 的 zkTLS 方案有哪些独特的优势?

zkTLS 其实是从互联网中的 TLS 方案中来的。原有的 TLS 方案本身是广泛应用的加密协议,用来保障计算机网络中数据传输的安全性,它主要通过对传输中的数据进行加密和验证,有效防止数据在传输过程中被窃取、篡改或伪造,在互联网通信场景中应用的较为广泛,如网页浏览、电子邮件和即时消息等,以确保通信双方的隐私和数据完整性。

在目前绝大多数 LLM 的应用中,客户端与服务器之间的 API 调用过程中,也通常都是基于 TLS 加密协议,以确保 LLM 的 API 服务能够确保数据在传输过程中的安全性,防止数据被窃取或篡改,从而保障模型在处理用户请求时的隐私性和完整性。不过它的局限性在于 TLS 协议可以保证数据传输的完整性和保密性,但难以向第三方提供这些数据的完整性和真实性的证明。那么将密码学方案与 TLS 加密协议进行组合,能够改善 LLM 模型所面临的一致性与隐私等问题,可以在保护隐私的同时向第三方证明数据的完整性和真实性。

一般而言,zkTLS 通常会引入一个可信第三方,其可以在不损害原始连接安全性的情况下,对交互进行验证。而目前,根据现的技术路线不同,zkTLS 主要分为三种模式包括,一个是

基于 TEE 模式,即 TLS 协议安全的运行在 TEE 中,并由 TEE 提供会话内容证明,现在这个方案市场上用的比较多。一个是基于 MPC 模式,也就是采用 2-MPC 模型引入一个 Verifier,prover 和 verifier 通过 MPC 共同生成会话密钥,这个会话密钥相当于分成两部分,分别由双方持有,最后 prover 可以选择性披露一些信息给 verifier。还有一个就是基于代理模式 Verifier 本身充当客户端和服务器之间的中介,负责转发并验证双方在通信过程中交换的加密数据。

Zypher 本身采用了第三种方案,即基于代理模式的 zkTLS。一方面在于 Zypher Network 本身包含了一个可拓展且成本低廉链下的计算网络,与此同时其还包含了一个能够保证高效执行且去中心化的链上 AI 引擎 Zytron。那么得益于性能与成本的系统优势,Zypher Network 在 zkPrompt 中采用了基于代理模式的 zkTLS 实现会获得更好的效果,代理模式不仅避免了多方计算协议所带来的额外计算开销,同时也规避了 TEE 相关的硬件成本。

Q6: zkPrompt 和 Inference 是如何运行的?它们在应用场景上有何侧重点?

其实 zkPrompt 和 zkInference 本身都是依托于 Zypher 底层设施来保证可信性,整体后端基于 ZK 实现可信的过程类似,我们就以 zkPrompt 作为示例吧。

在 zkPrompt 方案的代理模式中,分布式的验证者会充当客户端和大模型服务器之间的中介,负责转发 TLS 流量并记录双方交换的所有密文数据。在会话结束时,在链下计算网络的支持下,客户端基于记录的密文生成 ZKP,使得任何第三方均能验证该 TLS 会话中系统提示词的一致性,而无需暴露提示词内容或任何敏感信息。

在开始任何交互之前,客户端对系统提示词进行承诺,也就是系统提示词通过加密进行处理,并生成一个承诺值,这个承诺值被存储在区块链上也就是我们上文提到的 Zytron 引擎,从而保证该提示词在后续操作中不可篡改。这个承诺值作为一种证明,确保系统提示词始终如一,不会在后续的交互中发生变化。

当客户端通过代理向 LLM 大模型发送请求时,代理本身充当了客户端和服务器之间的中介角色。它不仅负责转发 TLS 流量,还会记录双方交换的所有加密数据包,并且在这个过程中,代理会生成一个请求的承诺值,并将其存证到链上,确保每个请求数据包的完整性和一致性。这一过程的目的是确保请求的数据和系统提示词不被篡改。

LLM 服务返回响应时,代理会同样记录响应数据包,并生成响应的承诺值。这些响应的承诺值也会被上链存证,确保响应的内容与预期一致。通过这种方式,系统可以验证响应是否在传输过程中被篡改,从而进一步保障了数据的完整性和可信度。

在会话结束后,客户端会基于所有加密记录生成零知识证明,该证明能够使任何第三方验证 TLS 会话 中 系统提示词 的一致性,而无需暴露提示词的具体内容或其他敏感信息。这种方式既有效保护了提示词的隐私,又确保了在整个通信过程中系统提示词未被篡改。

生成的零知识证明随后会提交至链上智能合约,由 Zytron 引擎进行验证。通过这一验证过程,能够确认提示内容是否未被篡改,以及 LLM 模型 是否按预定行为执行。如果提示内容被篡改或执行行为不符合最初设定,验证将失败,从而及时识别并防范任何不合规或潜在的风险。

所以我们看到,Zypher 的 Zytron 引擎能够为 Prompt 以及推理的可靠性提供了强有力的保障,确保模型始终按照预期运行,避免了外部干扰或篡改带来的风险。

从命名上看其实 zkPrompt 本身主要是面向一些 LLM 模型吧,比如 ChatGPT、DeepSeek 等等模型我们都能为其赋予可信化运行的能力。zkInference 框架则更适合轻量化、需要执行基础性以及确定性任务的模型,比如 Web3 游戏中的 AI 机器人等用例。

Q7: 如之前提到的,Zypher 生成的零知识证明会提交到链上智能合约,由 Zytron 引擎进行验证。随着广泛应用,这种链上交互可能会增多,Zypher 做了哪些优化措施来降低链上引擎的运行成本并提升效率?

Zytron 是 Zypher 的链上部分即一个 AI 引擎 ,不仅能够为 ZKP 的分布式验证提供支持,同时也为基于 Zypher 搭建应用提供基础。从 Zytron 引擎看,其不仅部署了大量的预编译合约,同时也搭建了一套分片化、专门用于执行合约验证的 P2P 链上通信节点网络。通过对 P2P 网络进行连接,确保各节点能够直接高效地通信。这种方式能够有效减少了中间传输的环节,使得数据传递更加迅速。并且节点之间的通信和地址定位使用了 Kademlia 算法,这种结构化设计使得节点在寻找和联系其他节点时更加快捷和精准。

而在执行上,Zytron 还根据 Kademlia 算法中定义的节点距离规则,对合约的执行过程进行分片。这意味着合约的不同部分会根据节点间的距离被分配到不同的网络节点上执行。这种基于距离的分配方式,有助于在 Zytron 网络中均匀地分布计算负载,进而提高整个系统的速度和效率。

Q8: 目前 Zypher 生态有哪些值得关注的、即将面向市场的可信 AI 用例?

Zypher 目前在多个方面有一些用例,AI Agent 是一个主要的方向之一,用例是 Alpha Girl,它是一个基于 Zypher 的 Proof of Prompt 框架的首个无信任多模态 AI 代理。Alpha Girl 本身集成了先进的算法和数据分析,它是由知名的 Prompt Engineer 团队经过 3 个月的深度开发,面向市场推出。

Alpha Girl 通过集成 Zypher Network 的 zkPrompt 方案,Alpha Girl 的 AI 代理模型能够确保其使用的系统提示词在不透露任何底层数据的前提下,保持一致性和正确性。

另一个重点的方向是 Web3 游戏。目前我们推出了 Game Engine 组件,开发的游戏代理利用智能合约来进行游戏操作,并基于 zkPrompt 来确保不同玩家之间的行为公正性。在这个游戏引擎中,开发人员能够使用诸如 Cocos Creator、Unity 、Unreal 等原生游戏引擎来低门槛创建链上游戏。在这些工具的支持下,游戏的核心状态管理得以实现,通过与去中心化数据管理层的接口,确保游戏状态的实时更新和验证。游戏状态管理包括输入的数据、生成的内容以及测试结果等,所有这些内容都会经过生成内容代理、游戏测试代理等多个 AI Agent 的处理,以优化游戏体验并确保数据的准确性。

游戏的数据输入、生成的内容以及测试反馈将被传送到去中心化的游戏数据管理和存储层。在该层中,数据将被用于支持游戏逻辑的执行,并通过与 zkPrompt 集成的 ZK Game SDK 进行零知识证明验证,以确保数据的不可篡改性与真实性。同时,基于去中心化证明协议,游戏的数据通过加密矿池处理和提交,由区块链网络进行验证,确保所有游戏操作都可以公开透明且安全地记录。同样该技术栈进一步结合了优化资源层,用于提供计算和存储资源的优化,保证所有参与的 AI 代理都能高效协作。

Q9: 目前 AI Agent 多为半自主形态,您认为未来的 Agent 模式会是半自主还是全自主?Zypher 将如何推动这一领域的趋势发展?

我其实倾向于半自主多一些,尽管我相信未来甚至说不久以后,全自主的 AI Agent 模型可能会面向市场,但是我们更多的是考虑方面是在于安全与伦理问题、实用性等多个方面的考量吧,半自主的 AI Agent 能够更好的平衡了自动化与人为监督的特点,我相信半自主仍将是未来发展的主流方向,那么人其实还是需要在其中扮演重要的角色。就像上文我们提到的,当人仍旧是 AIAgent 中关键角色时,它仍需要确保人与 Agent 的沟通交互是可信的,那么 Zypher 在其中所扮演的角色无需多言了。

Q10: 最后,衷心感谢 Zypher 参与本期专访。本次讨论使我们深入了解了 Zypher,也为关注 AI 创新项目的朋友提供了宝贵的见解。在 Zypher 的发展过程中,是否有一些难忘的时刻或意外的灵感突破,或者团队在协作过程中发生的有趣故事?能否分享一下?

回到 2023 年,我们报名参加了由 BNB Chain 举办的一场黑客松。当时团队其实还处于探索 “ZK + AI” 产品形态的初期——我们的 zkPrompt、zkInference 还没完全定型,大家也在思考:“如何让普通用户真正感受到 AI+ZK 的魅力?”

1. 黑客松创意的缘起

很多时候,玩家或用户并不太关心底层用了什么密码学算法或大模型架构,最核心的是 “交互体验” 是否足够生动、有趣、且让他们能从中获得价值。基于这个思路,我们想开发一款通过 AI 帮玩家在三消游戏里赚钱的游戏 Demo,并且在可验证性上使用 ZK 技术做背书。

  • 为什么选三消游戏?
    • 操作门槛低,几乎所有用户都知道三消是什么;
    • 可以快速构造一个 “智能辅助” 或 “AI 自动操作” 的功能场景;
    • 也便于我们把游戏逻辑进一步 DEFI 化,让游戏内的收益与链上资产直接挂钩。

在黑客松时,我们一直在思考如何让普通用户真正感受到 “ZK + AI”,而不仅仅是停留在技术概念上。因为对于大多数用户而言,他们并不会去关注底层是如何使用零知识证明或大模型——只有当这些技术能与实际体验相结合时,才会被广泛认可。

  • 三消游戏
    选用 “三消” 这样简单、普及度高的玩法做载体,能够快速让任何人上手。我们加入了 AI 代理,让玩家在某些关卡或模式中可以 “交给 AI 来帮你做最优消除策略”,从而让整个游戏过程更刺激、有策略性。
  • ZK 可信验证
    由于游戏逻辑是用 ZK 电路实现的,一旦玩家与 AI 产生交互,我们就能实时生成零知识证明,来证明这次操作是否遵守游戏规则、收益是否正确发放等。这样一来,就不再需要中心化服务器做 “判定者”,所有行为都能上链验证,可谓 “真正的游戏 “DEFI 化”。

2. 从黑客松 Demo 到 Zypher 的旗舰产品

很多团队在黑客松后,Demo 就束之高阁或只做小范围测试。然而我们却决定 “大力扶持开发这款三消游戏”,将其升级为一款真正可长久运行的区块链游戏,并在此过程中检验和打磨 Zypher 的核心技术能力。

  • 游戏的去中心化 &可验证
    我们把游戏逻辑用 ZK 电路写好,游戏过程中能不断地产生 zkProof,证明每个步骤都是按约定流程进行,没有中心化服务器暗箱操作。所有验证直接在链上完成,玩家的资产、分数、游戏进度都以公开、可信的方式保存。
  • AI 提升游戏自主性
    AI 不仅是帮助玩家做消除策略,还能辅助游戏世界的构建和演化。我们给了用户一定的 “创作权限”,在某些模式下,用户可以贡献关卡、素材或玩法规则,AI 代理会将其评估并与现有关卡融合,从而 “让玩家真正参与到游戏世界的搭建中”。
  • 更彻底的 DEFI 化
    通常,链游 “上链” 的仅仅是资产(NFT 道具或游戏内通证),而我们希望把游戏的每一步逻辑都搬到链上进行验证。换言之,玩家玩的每一步、AI 算的每一次路径、收益发放的每一次结算——都能在公链或可信网络上查证。这就让游戏 “真正 DEFI 化”,也为后来衍生更多金融场景或通证经济模式埋下了可能性。

3. 对 Zypher 的意义

  • 技术验证场域
    这款三消游戏成为了我们测试、完善 zkInference、zkPrompt 等方案的最佳 “试验田”。我们能在一个相对可控但又足够复杂的环境下,不断迭代加密电路、优化零知识验证性能,并在 “真实用户反馈” 中找到痛点。
  • 产品形象和生态入口
    作为旗舰产品,这款游戏不仅是技术展示的窗口,也吸引了更多开发者和用户进入 Zypher 的生态。他们发现原来 “ZK + AI” 并不只是一种高高在上的概念,还可以非常实用、有趣地融入他们的场景当中。
  • 拓展合作空间
    许多区块链项目方、游戏工作室以及投资机构在看到 “三消游戏” 的成功后,主动与我们洽谈想要进一步合作。比如探讨如何把他们的游戏逻辑接入我们的 ZK 方案,或者让他们的 AI 模块借用我们的可信验证框架。对 Zypher 而言,这是一个持续拓展 “可信 AI” 生态的绝佳机会。

免责声明:作为区块链信息平台,本站所发布文章仅代表作者及嘉宾个人观点,与 Web3Caff 立场无关。文章内的信息仅供参考,均不构成任何投资建议及要约,并请您遵守所在国家或地区的相关法律法规。