去中心化 vLLM 推論:可擴展。保密。供應商無關。透過跨多個 GPU 供應商平行化 vLLM 推論來大規模運行 LLM——零數據洩露,且不依賴任何單一供應商。https://t.co/i7SxpnFRiE