我们很高兴地宣布 $Theta EdgeCloud 的最新功能:具有分布式可验证性的大型语言模型 (LLM) 推理服务。这项新功能将使聊天机器人和 AI 代理能够执行可信赖且可独立验证的 LLM 推理,该推理由区块链支持的公共随机信标提供支持,这在业内尚属首次。这是一项独特的技术,结合了尖端 AI 的优势和区块链的无需信任、去中心化特性。
通过此实现,EdgeCloud 是首个且唯一为所有人提供无需信任的 LLM 推理的平台,包括 crypto-native 和传统云平台。对于企业、学术界和其他垂直领域中敏感的计算需求,EdgeCloud 是唯一可以保证 LLM 输出完整性的云解决方案。
现代 AI 代理在很大程度上依赖 LLM 来生成响应并执行复杂的任务。但是您真的可以信任输出吗?如今,大多数代理框架依赖于集中式 LLM API(例如 OpenAI)或硬件强制安全(如 TEE(可信执行环境))。这些解决方案将信任置于集中式提供商或闭源软件中,这可能会更改或伪造结果。
最近发布的 DeepSeek-V3/R1 是专有 LLM 的第一个真正具有竞争力的开源替代方案,它为全栈验证打开了大门。这一突破使社区能够开始从不透明的 AI API 转向透明、可检查的推理工作流程。
在这些进步的基础上,我们设计并实施了一个分布式可验证推理系统,该系统保证 LLM 输出是可重现且防篡改的,即使是服务提供商(例如 $Theta Labs 的 EdgeCloud)也是如此。通过结合开源 AI 模型、去中心化计算和基于区块链的可验证性,我们正在为下一代 AI 代理构建信任的基础。
我们正在发布首个行业级可验证 LLM 推理引擎,该引擎直接集成到 $Theta EdgeCloud 中。以下是它如何实现公共可用性:
这种由两部分组成的设计确保了任何人都可以使用公共随机性来验证给定输入的 LLM 输出。因此,包括 LLM 托管服务在内的任何一方都无法篡改模型输出,从而提供强大的完整性保证。
为了实现此解决方案,我们增强了 vLLM(最流行的行业级 LLM 推理引擎之一),并为其配备了其他组件以支持公共可验证性。我们已将该实现打包到 docker 容器镜像中,并在我们的 DockerHub 帐户上公开发布:
https://hub.docker.com/repository/docker/thetalabsofficial/vllm-theta
我们还更新了 $Theta EdgeCloud 专用模型启动板上提供的“DeepSeek R1 / Distill-Qwen-7B”模型的标准模板,以默认使用上述容器镜像:
使用此容器镜像,LLM 推理结果将包括以下额外部分,其中包含从 $Theta Blockchain 提取的公共随机性,这允许用户验证给定提示的 LLM 输出。
{
…
“theta_verified”: {
“seed”: 2825676771,
“verification_hash”: “aec8beec3306dddb9b9bad32cb90831d0d04132e57b318ebce64fb0f77208cdc”,
“sampling_params”: {
“seed”: 2825676771,
…
},
“block”: {
“hash”: “0xd8ba61b261ddda55520301ee23846a547615c60d29c1c4a893779ba0d53f0656”,
“height”: “30168742”,
“timestamp”: “1749770570”
}
}
对于更高风险的用例,我们设想在链上发布推理元数据(提示、分布、随机种子、结果),在那里它可以由去中心化的守护者或见证人证明。这为可审计且无需信任的 AI 服务打开了大门,并有可能集成到 DAO 工具、自主代理和 DeFi 风险引擎中。
随着 AI 代理变得更加自主,决策从人类转移到机器,对 LLM 推理层的信任变得至关重要。随着这些 AI 代理集成到我们日常生活的各个方面和商业中,验证和信任其输出和行为的能力对于安全、保障和财务完整性至关重要。我们新发布的服务为这些 AI 工作流程带来了急需的透明度、可审计性和安全性。凭借 $Theta Blockchain/EdgeCloud 和开源创新的力量,我们正在引领 AI 不仅强大而且可证明值得信赖的道路。
Introducing Distributed Verifiable LLM Inference on Theta EdgeCloud: Combining the Strengths of AI… 最初发表于 Medium 上的 Theta Network,人们在那里通过突出显示和回应这个故事来继续对话。