在 @RaiseSummit 上,@ionet 的 CMO Jack Collier 分析道:像 Llama 和 Mistral 這樣的開放模型並非因為它們比較差而失敗;它們失敗是因為基礎設施是封閉的。@ionet 解決了這個問題:🧠 超過 5 億次推論⚡ 成本降低 68%🛠️ 在分散式 GPU 上進行全堆疊訓練開放模型需要開放的基礎設施。