Inference est un cluster GPU distribué pour l'inférence de LLM construit sur Solana. Inference.net est un réseau mondial de centres de données offrant des API rapides, évolutives et pay-per-token pour des modèles tels que DeepSeek V3 et Llama 3.3.
Inference est un cluster GPU distribué pour l'inférence de LLM construit sur Solana. Inference.net est un réseau mondial de centres de données offrant des API rapides, évolutives et pay-per-token pour des modèles tels que DeepSeek V3 et Llama 3.3.