25 de junho de 2025 marca um marco definidor para a $Theta Network, pois lançamos a versão beta da arquitetura híbrida edge-cloud do EdgeCloud, construída para impulsionar o futuro da computação distribuída.
Nos últimos anos, a $Theta revolucionou a entrega de vídeo descentralizada e a infraestrutura Web3. Agora, estamos dando o próximo salto: desbloqueando a infraestrutura de computação de alto desempenho e pronta para AI, combinando o poder dos nós de borda executados pela comunidade com GPUs de nuvem tradicionais — tudo orquestrado por meio de uma plataforma perfeita.
A versão beta do EdgeCloud apresenta uma arquitetura híbrida projetada para lidar com cargas de trabalho com uso intensivo de computação por meio de uma camada de orquestração inteligente que equilibra os trabalhos entre servidores GPU baseados em nuvem e a rede global de nós de borda executados pela comunidade da Theta.
A infraestrutura GPU híbrida do EdgeCloud é usada hoje por importantes instituições acadêmicas para aumentar a produtividade da pesquisa de AI, incluindo a Stanford University, a Seoul National University, o KAIST, a University of Oregon, a Michigan State University, a NTU Singapore e muito mais. Grandes marcas de esportes e entretenimento também adotaram o EdgeCloud, como o Houston Rockets da NBA, o Vegas Golden Knights da NHL e o New Jersey Devils, e o San Jose Earthquakes e o Philadelphia Union da MLS.
Theta EdgeCloud é um mercado descentralizado que conecta o ciclo de oferta e demanda de poder de computação GPU. Ele capacita qualquer pessoa com GPUs ociosas a contribuir com seus recursos e ganhar recompensas, ao mesmo tempo em que fornece aos desenvolvedores e equipes de AI uma plataforma escalável e econômica para executar cargas de trabalho em contêineres.
Uma peça central da plataforma é o nó cliente Theta EdgeCloud — um pacote de software leve que permite que os membros da comunidade compartilhem sua capacidade de GPU ociosa e participem do crescente ecossistema EdgeCloud. Os operadores de nós são recompensados em $TFuel por executar tarefas de computação, com pagamentos mensais distribuídos entre o 1º e o 5º de cada mês, a partir de 1º de agosto. As recompensas para ambas as implantações de nós GPU e trabalhos de inferência de modelo sob demanda são calculadas em USD e convertidas em $TFuel com base na taxa de câmbio de mercado no momento da distribuição.
Para garantir um modelo de preços justo e dinâmico, o $Theta EdgeCloud permite que os operadores de nós (o lado da oferta) definam suas próprias taxas de aluguel por hora. Enquanto isso, os usuários (o lado da demanda) podem selecionar nós que atendam aos seus requisitos de desempenho e restrições de orçamento ao iniciar cargas de trabalho. Essa abordagem orientada pelo mercado ajuda a manter os preços de computação GPU competitivos e transparentes em toda a plataforma.
As GPUs suportadas pelo EdgeCloud incluem NVIDIA 3070s, 4090s, até A100s e H100s de nível empresarial. Apesar de sua heterogeneidade e especificações variáveis, o EdgeCloud garante computação de alta eficiência em todos os tipos de GPU por meio de contêineres de trabalho avançados e lógica de failover automático.
O EdgeCloud não é apenas para vídeo. Ele foi construído para suportar qualquer computação em contêineres, como:
Se você é um desenvolvedor criando o próximo agente de AI, um pesquisador executando simulações de GPU ou um criador transcodificando vídeo em escala, o EdgeCloud oferece computação descentralizada e econômica ao seu alcance.
Com lançamento em 25 de junho de 2025, a versão beta híbrida do EdgeCloud inclui recursos como:
Esses recursos são projetados para facilitar aos desenvolvedores e empresas o aproveitamento da computação descentralizada sem sacrificar o controle ou a visibilidade. As futuras atualizações incluirão a capacidade de definir preferências de trabalho e opt-outs para seus nós, e um painel de análise de conclusão de trabalho em tempo real.
Essas melhorias desbloquearão casos de uso ainda mais amplos em verticais como academia, empresa privada, esportes profissionais e esports.
Com base no robusto ecossistema de desenvolvedores da $Theta, estamos fornecendo as ferramentas e APIs necessárias para que qualquer desenvolvedor crie e dimensione com o EdgeCloud. Se você está enviando um aplicativo de AI ou lançando uma plataforma de renderização distribuída, agora é a hora de construir. Você pode encontrar as instruções abaixo ou verificar as perguntas frequentes da comunidade Theta sobre o EdgeCloud.
Se você deseja contribuir com seus recursos de GPU ociosos hospedando um cliente $Theta EdgeCloud, consulte os seguintes recursos para instalação e uso:
Requisitos de hardware recomendados:
As máquinas que atendem às especificações acima terão muito mais probabilidade de obter trabalhos de alta recompensa. Além disso, os clientes que estão acostumados com serviços de nuvem como AWS ou GCP podem ter grandes expectativas, por isso é uma boa ideia buscar um tempo de atividade consistente. Quando estiver em uso, a GPU provavelmente estará funcionando perto da capacidade máxima, portanto, certifique-se de que sua conexão com a internet, fonte de alimentação e sistemas de resfriamento estejam em boa forma.
Para executar seus trabalhos em contêineres no $Theta EdgeCloud usando GPUs contribuídas pela comunidade, confira o guia abaixo:
Prepare-se para o futuro da computação
Com o EdgeCloud Beta, estamos redefinindo o que é possível na interseção de redes descentralizadas e computação de AI de alto desempenho. É uma nova era — uma em que qualquer pessoa, em qualquer lugar, pode contribuir e acessar recursos escaláveis de AI e GPU. A borda é apenas o começo!
Introducing EdgeCloud Hybrid: the next generation GPU marketplace for decentralized cloud computing foi originalmente publicado em Theta Network no Medium, onde as pessoas continuam a conversa destacando e respondendo a esta história.