$Theta EdgeCloudの最新機能、分散検証可能性を備えた大規模言語モデル(LLM)推論サービスを発表できることを嬉しく思います。この新機能により、チャットボットとAIエージェントは、業界で初めて、ブロックチェーンを活用した公開ランダムネスビーコンによって、信頼性が高く、独立して検証可能なLLM推論を実行できるようになります。これは、最先端のAIと、信頼性が高く分散型のブロックチェーンの性質を組み合わせたユニークなテクノロジーです。
この実装により、EdgeCloudは、暗号資産ネイティブと従来のクラウドプラットフォームの両方で、すべての人にトラストレスなLLM推論を提供する最初で唯一のプラットフォームとなります。企業、学術機関、その他の業種における機密性の高い計算ニーズに対応するため、EdgeCloudはLLM出力の整合性を保証できる唯一のクラウドソリューションです。
現代のAIエージェントは、応答を生成し、複雑なタスクを実行するためにLLMに大きく依存しています。しかし、その出力を本当に信頼できるでしょうか?今日、ほとんどのエージェントフレームワークは、集中型LLM API(例:OpenAI)またはTEE(Trusted Execution Environments)のようなハードウェア強制セキュリティに依存しています。これらのソリューションは、集中型プロバイダーまたはクローズドソースソフトウェアに信頼を置くため、結果が変更または捏造される可能性があります。
最近リリースされたDeepSeek-V3/R1は、プロプライエタリなLLMに代わる、真に競争力のある初のオープンソースの代替手段であり、フルスタック検証への扉を開きます。このブレークスルーにより、コミュニティは不透明なAI APIから、透明で検査可能な推論ワークフローへと移行し始めることができます。
これらの進歩に基づいて、LLMの出力が、サービスプロバイダー(EdgeCloudの$Theta Labsなど)によっても、再現可能で改ざん防止されていることを保証する分散検証可能推論システムを設計および実装しました。オープンソースのAIモデル、分散型コンピューティング、およびブロックチェーンベースの検証可能性を組み合わせることで、次世代のAIエージェントの信頼の基盤を構築しています。
$Theta EdgeCloudに直接統合された、業界初の検証可能なLLM推論エンジンをリリースします。以下に、公開可用性を実現する方法を示します。
この2部構成のデザインにより、誰でも公開ランダムネスを使用して、入力が与えられたときのLLMの出力を検証できます。したがって、LLMホスティングサービスを含むどの当事者も、モデルの出力を改ざんすることはできず、強力な整合性保証を提供します。
このソリューションを実装するために、最も人気のある業界グレードのLLM推論エンジンの1つであるvLLMを強化し、公開検証可能性をサポートするための追加コンポーネントを装備しました。実装をdockerコンテナイメージにパッケージ化し、DockerHubアカウントで公開します。
https://hub.docker.com/repository/docker/thetalabsofficial/vllm-theta
Theta EdgeCloud専用モデルローンチパッドで利用可能な「DeepSeek R1 / Distill-Qwen-7B」モデルの標準テンプレートも更新し、上記のコンテナイメージをデフォルトで使用するようにしました。
このコンテナイメージを使用すると、LLM推論結果には、$Theta Blockchainから抽出された公開ランダムネスを含む次の追加セクションが含まれ、ユーザーは特定のプロンプトに対するLLMの出力を検証できます。
{
…
“theta_verified”: {
“seed”: 2825676771,
“verification_hash”: “aec8beec3306dddb9b9bad32cb90831d0d04132e57b318ebce64fb0f77208cdc”,
“sampling_params”: {
“seed”: 2825676771,
…
},
“block”: {
“hash”: “0xd8ba61b261ddda55520301ee23846a547615c60d29c1c4a893779ba0d53f0656”,
“height”: “30168742”,
“timestamp”: “1749770570”
}
}
より高リスクのユースケースでは、推論メタデータ(プロンプト、分布、ランダムシード、結果)をオンチェーンで公開し、分散型ガーディアンまたは証人がそれを証明できるようにすることを想定しています。これにより、監査可能でトラストレスなAIサービスへの扉が開き、DAOツール、自律エージェント、DeFiリスクエンジンへの統合の可能性が生まれます。
AIエージェントがより自律的になり、意思決定が人間から機械に移行するにつれて、LLM推論レイヤーの信頼が基本になります。これらのAIエージェントが私たちの日常生活と商取引のあらゆる側面に統合されるにつれて、その出力とアクションを検証および信頼できる能力は、安全性、セキュリティ、および財務の完全性にとって重要になります。新しくリリースされたサービスは、これらのAIワークフローに、非常に必要な透明性、監査可能性、およびセキュリティのレイヤーをもたらします。$Theta Blockchain/EdgeCloudとオープンソースイノベーションの力により、AIを強力にするだけでなく、証明可能なほど信頼できるようにする道をリードしています。
Introducing Distributed Verifiable LLM Inference on Theta EdgeCloud: Combining the Strengths of AI… was originally published in Theta Network on Medium, where people are continuing the conversation by highlighting and responding to this story.