El 25 de junio de 2025 marca un hito definitorio para $Theta Network, ya que lanzamos la versión beta de la arquitectura híbrida edge-cloud de EdgeCloud, creada para impulsar el futuro de la computación distribuida.
En los últimos años, $Theta ha revolucionado la entrega de vídeo descentralizada y la infraestructura Web3. Ahora, estamos dando el siguiente salto: desbloquear una infraestructura de computación de alto rendimiento, lista para la IA, combinando el poder de los nodos edge gestionados por la comunidad con las GPU en la nube tradicionales, todo ello orquestado a través de una única plataforma perfecta.
La versión beta de EdgeCloud introduce una arquitectura híbrida diseñada para gestionar cargas de trabajo de computación intensiva a través de una capa de orquestación inteligente que equilibra los trabajos entre los servidores GPU basados en la nube y la red global de nodos edge gestionados por la comunidad de Theta.
La infraestructura GPU híbrida de EdgeCloud es utilizada hoy en día por instituciones académicas líderes para mejorar la productividad de la investigación de la IA, incluyendo Stanford University, Seoul National University, KAIST, la University of Oregon, Michigan State University, NTU Singapore, y más. Las principales marcas de deportes y entretenimiento también han adoptado EdgeCloud, como los Houston Rockets de la NBA, los Vegas Golden Knights de la NHL y los New Jersey Devils, y los San Jose Earthquakes y el Philadelphia Union de la MLS.
Theta EdgeCloud es un mercado descentralizado que conecta el bucle de oferta y demanda de potencia de computación GPU. Permite a cualquiera con GPU inactivas contribuir con sus recursos y obtener recompensas, al tiempo que proporciona a los desarrolladores y a los equipos de IA una plataforma escalable y rentable para ejecutar cargas de trabajo en contenedores.
Una pieza central de la plataforma es el nodo cliente de Theta EdgeCloud: un paquete de software ligero que permite a los miembros de la comunidad compartir su capacidad de GPU inactiva y participar en el creciente ecosistema de EdgeCloud. Los operadores de nodos son recompensados en $TFuel por ejecutar tareas de computación, con pagos mensuales distribuidos entre el 1 y el 5 de cada mes, a partir del 1 de agosto. Las recompensas tanto para las implementaciones de nodos GPU como para los trabajos de inferencia de modelos bajo demanda se calculan en USD y se convierten a $TFuel en función del tipo de cambio del mercado en el momento de la distribución.
Para garantizar un modelo de precios justo y dinámico, $Theta EdgeCloud permite a los operadores de nodos (el lado de la oferta) establecer sus propias tarifas de alquiler por hora. Mientras tanto, los usuarios (el lado de la demanda) pueden seleccionar los nodos que cumplan con sus requisitos de rendimiento y restricciones presupuestarias al lanzar las cargas de trabajo. Este enfoque impulsado por el mercado ayuda a mantener los precios de la computación GPU competitivos y transparentes en toda la plataforma.
Las GPU compatibles con EdgeCloud incluyen las NVIDIA 3070s, 4090s, hasta las A100s y H100s de nivel empresarial. A pesar de su heterogeneidad y sus diferentes especificaciones, EdgeCloud garantiza una computación de alta eficiencia en todos los tipos de GPU a través de la contenedorización avanzada de trabajos y la lógica de conmutación por error automática.
EdgeCloud no es sólo para vídeo. Está construido para soportar cualquier computación en contenedores, como:
Tanto si eres un desarrollador que construye el próximo agente de IA, un investigador que ejecuta simulaciones de GPU o un creador que transcodifica vídeo a escala, EdgeCloud te ofrece computación descentralizada y rentable al alcance de tu mano.
El lanzamiento de la beta híbrida de EdgeCloud el 25 de junio de 2025 incluye características tales como:
Estas características están diseñadas para facilitar a los desarrolladores y a las empresas el aprovechamiento de la computación descentralizada sin sacrificar el control ni la visibilidad. Las futuras actualizaciones incluirán la posibilidad de establecer preferencias de trabajo y exclusiones voluntarias para tu(s) nodo(s), y un panel de análisis de finalización de trabajos en tiempo real.
Estas mejoras desbloquearán casos de uso aún más amplios en verticales como la academia, la empresa privada, los deportes profesionales y los esports.
Basándonos en el robusto ecosistema de desarrolladores de $Theta, estamos proporcionando las herramientas y las APIs necesarias para que cualquier desarrollador cree y escale con EdgeCloud. Tanto si estás enviando una aplicación de IA como si estás lanzando una plataforma de renderizado distribuida, ahora es el momento de construir. Puedes encontrar las instrucciones a continuación, o consultar las preguntas frecuentes de la comunidad de Theta sobre EdgeCloud.
Si deseas contribuir con tus recursos de GPU inactivos alojando un cliente de $Theta EdgeCloud, consulta los siguientes recursos para la instalación y el uso:
Requisitos de hardware recomendados:
Las máquinas que cumplan con las especificaciones anteriores tendrán muchas más probabilidades de obtener trabajos con altas recompensas. Además, los clientes que están acostumbrados a los servicios en la nube como AWS o GCP pueden tener altas expectativas, por lo que es una buena idea apuntar a un tiempo de actividad constante. Cuando se esté utilizando, es probable que la GPU esté funcionando casi a plena capacidad, así que asegúrate de que tu conexión a Internet, la fuente de alimentación y los sistemas de refrigeración estén en buena forma.
Para ejecutar tus trabajos en contenedores en $Theta EdgeCloud utilizando las GPU aportadas por la comunidad, consulta la siguiente guía:
Prepárate para el futuro de la computación
Con EdgeCloud Beta, estamos redefiniendo lo que es posible en la intersección de las redes descentralizadas y la computación de IA de alto rendimiento. Es una nueva era, una en la que cualquiera, en cualquier lugar, puede contribuir y acceder a recursos escalables de IA y GPU. ¡El edge es sólo el principio!
Introducing EdgeCloud Hybrid: the next generation GPU marketplace for decentralized cloud computing fue publicado originalmente en Theta Network en Medium, donde la gente continúa la conversación destacando y respondiendo a esta historia.