用于 LLM 推理的分布式 GPU 集群
@Inference
*クリックできない場合は、詳細情報がないことを意味します。
Inference 是一个基于 Solana、用于 LLM 推理的分布式 GPU 集群,为DeepSeek V3和Llama 3.3等模型提供快速、可扩展、按 Token 付费的 API 。
创始人兼CEO
联合创始人兼CTO