vLLM的封面图片
vLLM

vLLM

软件开发

An open source, high-throughput and memory-efficient inference and serving engine for LLMs.

关于我们

vLLM is a high-throughput and memory-efficient inference and serving engine for LLMs

网站
https://github.com/vllm-project/vllm
所属行业
软件开发
规模
51-200 人
类型
非营利机构

vLLM员工

动态

相似主页