Valor total de mercado:$00
API
PT
Escuro

PesquisarSSI/Mag7/Meme/ETF/Moeda/Índice/Gráficos/Pesquisa
00:00 / 00:00
Visualizar
    Mercados
    Índexes
    Feed de notícias
    TokenBar®
    Análise
    Macro
    Favoritos
Partilhar

Apresentando a Inferência de LLM Verificável Distribuída na Theta EdgeCloud: Combinando os pontos fortes da IA…

#Layer1
$THETA
Theta Network - Medium
1KPalavras
01/07/2025

Apresentando a Inferência de LLM Verificável Distribuída no $Theta EdgeCloud: Combinando os Pontos Fortes da IA e da Blockchain

Temos o prazer de anunciar o recurso mais recente do $Theta EdgeCloud: um serviço de inferência de modelo de linguagem grande (LLM) com verificabilidade distribuída. Este novo recurso permitirá que chatbot e agente de IA realizem inferência de LLM confiável e independentemente verificável, alimentada por beacons de aleatoriedade pública apoiados por blockchain, pela primeira vez no setor. Esta é uma tecnologia única que combina os pontos fortes da IA de ponta e a natureza descentralizada e sem confiança da blockchain.

Com esta implementação, o EdgeCloud é a primeira e única plataforma a oferecer inferência de LLM sem confiança para todos, entre plataformas de nuvem tradicionais e nativas de crypto. Para necessidades computacionais sensíveis em empresas, universidades e outros setores verticais, o EdgeCloud é a única solução de nuvem que pode garantir a integridade das saídas de LLM.

A Ideia

Os agentes de IA modernos dependem fortemente de LLMs para gerar respostas e realizar tarefas complexas. Mas você pode realmente confiar na saída? Hoje, a maioria das estruturas de agentes dependem de APIs de LLM centralizadas (por exemplo, OpenAI) ou segurança imposta por hardware, como TEEs (Trusted Execution Environments). Essas soluções depositam confiança em um provedor centralizado ou software de código fechado, que pode alterar ou fabricar resultados.

O recente lançamento do DeepSeek-V3/R1, a primeira alternativa de código aberto verdadeiramente competitiva aos LLMs proprietários, abre as portas para a verificação full-stack. Este avanço permite que as comunidades comecem a se afastar das APIs de IA opacas em direção a fluxos de trabalho de inferência transparentes e inspecionáveis.

Com base nesses avanços, projetamos e implementamos um sistema de Inferência Verificável Distribuída que garante que as saídas de LLM sejam reproduzíveis e à prova de violação, mesmo pelo provedor de serviços (como a $Theta Labs para EdgeCloud). Ao combinar modelos de IA de código aberto, computação descentralizada e verificabilidade baseada em blockchain, estamos construindo uma base de confiança para a próxima geração de agentes de IA.

Nossa Solução

Estamos lançando o primeiro mecanismo de inferência de LLM verificável de nível industrial, integrado diretamente no $Theta EdgeCloud. Veja como ele atinge a disponibilidade pública:

  • Probabilidade de Token Determinística: O LLM calcula a distribuição de probabilidade do próximo token, dado um prompt. Como estamos usando modelos de código aberto (por exemplo, DeepSeek R1), qualquer pessoa pode verificar esta etapa executando o modelo localmente ou em outro nó confiável.
  • Amostragem Verificável: A amostragem do próximo token geralmente é um processo não determinístico. Para torná-lo verificável, usamos uma semente aleatória publicamente verificável, inspirada em protocolos como o RanDAO do Ethereum. Com esta semente, a amostragem torna-se pseudo-aleatória e totalmente reproduzível. A saída final pode ser validada independentemente por qualquer observador.

Este design de duas partes garante que qualquer pessoa possa usar a aleatoriedade pública para verificar a saída do LLM, dado uma entrada. Assim, nenhuma parte, incluindo o serviço de hospedagem de LLM, pode adulterar a saída do modelo, fornecendo fortes garantias de integridade.

Para implementar esta solução, aprimoramos o vLLM, um dos mecanismos de inferência de LLM de nível industrial mais populares, e o equipamos com componentes adicionais para suportar a verificabilidade pública. Empacotamos a implementação em uma imagem de contêiner docker e a lançamos publicamente em nossa conta DockerHub:

https://hub.docker.com/repository/docker/thetalabsofficial/vllm-theta

Também atualizamos nosso modelo padrão para o modelo “DeepSeek R1 / Distill-Qwen-7B” disponível no painel de lançamento de modelos dedicados do Theta EdgeCloud para usar a imagem de contêiner acima por padrão:

Usando esta imagem de contêiner, o resultado da inferência de LLM incluirá a seguinte seção extra que contém a aleatoriedade pública extraída do $Theta Blockchain, que permite aos usuários verificar a saída do LLM para o determinado prompt.

{

…

“theta_verified”: {

“seed”: 2825676771,

“verification_hash”: “aec8beec3306dddb9b9bad32cb90831d0d04132e57b318ebce64fb0f77208cdc”,

“sampling_params”: {

“seed”: 2825676771,

…

},

“block”: {

“hash”: “0xd8ba61b261ddda55520301ee23846a547615c60d29c1c4a893779ba0d53f0656”,

“height”: “30168742”,

“timestamp”: “1749770570”

}

}

Publicação On-Chain (Opcional)

Para casos de uso de maior risco, prevemos a publicação de metadados de inferência (prompt, distribuição, semente aleatória, resultado) on-chain, onde pode ser atestada por guardiões ou testemunhas descentralizadas. Isso abre as portas para serviços de IA auditáveis e sem confiança, com potenciais integrações em ferramentas DAO, agentes autônomos e mecanismos de risco DeFi.

O Futuro da IA É Verificável

À medida que os agentes de IA se tornam mais autônomos e a tomada de decisões passa de humanos para máquinas, a confiança na camada de inferência de LLM torna-se fundamental. Com esses agentes de IA integrados em todas as facetas de nossas vidas diárias e comércio, a capacidade de verificar e confiar em suas saídas e ações será fundamental para a segurança, a proteção e a integridade financeira. Nosso serviço recém-lançado traz uma camada muito necessária de transparência, auditabilidade e segurança para esses fluxos de trabalho de IA. Com o poder do $Theta Blockchain/EdgeCloud e a inovação de código aberto, estamos liderando o caminho para tornar a IA não apenas poderosa, mas comprovadamente confiável.

Introducing Distributed Verifiable LLM Inference on Theta EdgeCloud: Combining the Strengths of AI… foi originalmente publicado em Theta Network no Medium, onde as pessoas continuam a conversa destacando e respondendo a esta história.

Tudo o que você precisa saber em 10s
TermosPolítica de PrivacidadePapel BrancoVerificação oficialCookieBlogue
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==