在 @RaiseSummit 上,@ionet 的 CMO Jack Collier 对此进行了分析:像 Llama 和 Mistral 这样的开放模型之所以表现不佳,并不是因为它们更差,而是因为基础设施是封闭的。@ionet 解决了这个问题:🧠 超过 500.00 百万次的推理⚡ 成本降低 68%🛠️ 在去中心化 GPU 上进行全栈训练开放模型需要开放的基础设施。