vLLM 实战

本文介绍了 vLLM 框架,它比 Hugging Face Transformers 和 TGI 框架具有更高的吞吐量。通过实战分析 `offline_inference` 示例,展示了如何配置调试环境、下载模型并复现流程。vLLM 的关键技术和优势包括 KVCache 显存优化、PagedAttention 和 Continuous Batching,提供了便捷的调试和快速的推理性能。
摘要由CSDN通过智能技术生成

引言

随着人工智能技术的飞速发展,以及今年以来 ChatGPT 的爆火,大语言模型 (Large Language Model, LLM) 受到越来越多的关注。

为了实现 LLM 部署时的推理优化,全球各地有众多团队做出了各种优化框架。本文以加州大学伯克利分校开发的 vLLM 框架为例,进行实战探索。

1. 整体介绍

根据公开文档中的实验结果, vLLM 吞吐量比 Hugging Face Transformers 高出 24 倍,比 TGI 高出 3.5 倍。

c78f68ab6d900f3595edd2647edd06e3.png

vLLM 整体框架如下图所示。

69bc9c9da0f93d074b499906e7c3edfc.jpeg

其中的关键技术点包括:

  • KVCache 显存优化

  • PagedAttention

  • Continuous Batching

笔者通过实际使用,认为该框架优点如下:

  • 调试方便: 主框架由 Python 实现,便于用户断点调试。

  • 系统设计工整规范: LLMEngine、Scheduler、Worker 结构清晰,初学者可以方便地理清脉络。

  • 推理速度快: 经过理论计算与实测, 8 卡 A100-40G 足以支持千人试用。

Linux基金会AI&Data基金会
关注 关注
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
大模型推理加速框架vllm部署的实战方案
herosunly的博客
11-25 3万+
本文主要介绍了大模型推理加速框架vllm部署的实战方案,希望对学习大语言模型的同学们有所帮助。 文章目录 1. 前言 2. 配置环境 2.1 安装虚拟环境 2.2 安装依赖库 3. 运行vllm
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
丨汀、的博客
05-28 1092
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
vllm generate推理与Huggingface generate推理对齐(长样本)
鲨鱼儿的博客
06-24 3335
一、
vLLM加速推理的内部原理详解
日常学习与专研的记录
07-24 2072
本文详细介绍 vllm 加速推理的内部原理,从 vllm 的背景以及最后的原理详细阐述。
vLLM实践详解
03-15 5624
针对大模型推理速度慢的问题,vLLM针对一些大模型进行优化适配,可以有效提高推理速度,体量越大的模型,提高的效果越好。
使用vllm部署自己的大模型
刘炫320的博客
04-26 7720
使用vllm能够部署一个非常方便使用的大模型的后端,供webui前端使用,它不仅能够加速模型的推理过程,包括支持fast-attn库,而且还具有很友好的openai风格的api调用功能。
05-09 周四 vLLM的部署和实践
不当初
05-09 1686
GitHub项目官方网站上解释了Fast、和flexible and easy to use的原因。参考链接网页描述大模型推理加速工具:vLLM描述了安装,离线推理和在线服务的简单演示比HuggingFace快24倍!伯克利LLM推理系统开源碾压SOTA,GPU砍半描述了优点,并且有很多的图。【LLM】vLLM部署与int8量化-CSDN博客。
大模型框架:vLLM
m0_37559973的博客
05-24 5145
vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架。它利用了全新的注意力算法「PagedAttention」,提供易用、快速、便宜的LLM服务。
实战千问2大模型第五天——VLLM 运行 Qwen2-VL-7B(多模态)
最新发布
qq_34717531的博客
10-09 349
VLLM 是一种高效的深度学习推理库,通过PagedAttention算法有效管理大语言模型的注意力内存,其特点包括24倍的吞吐提升和3.5倍的TGI性能,无需修改模型结构,专门设计用于加速大规模语言模型(LLM)的推理过程。它通过优化显存管理、支持大模型的批处理推理以及减少不必要的内存占用,来提高多 GPU 环境下的推理速度和效率。这使得 VLLM 非常适合需要快速、大规模推理的任务,例如在生产环境中部署大语言模型进行实时文本生成或问答等应用。
vLLM部署指南:通义千问Qwen大语言模型实战教程
资源摘要信息:"大模型部署-基于vLLM部署通义千问Qwen大语言模型-附项目源码+流程教程-优质项目实战.zip" 在当前的人工智能领域,大模型的部署是一个重要且复杂的议题。本资源提供的内容主要集中在使用vLLM(虚拟化...
使用vllm部署大语言模型
yuanlulu的博客
07-08 2031
vLLM是一个快速且易于使用的库,用于LLM(大型语言模型)推理和服务。通过PagedAttention技术,vLLM可以有效地管理注意力键和值内存,降低内存占用和提高计算效率。vLLM能够将多个传入的请求进行连续批处理,从而提高整体处理速度。
LLM大模型推理加速实战vllm、fastllm与llama.cpp使用指南
weixin_41888295的博客
03-26 3235
随着大语言模型(LLM)的兴起,推理加速成为关键。本文将介绍vllm、fastllm和llama.cpp三个加速工具的使用教程,并总结大模型推理的常见策略,为非专业读者提供简明易懂的操作建议。
vllm 库调用大模型
木下瞳的博客
02-17 1694
vllm 这个库目前只能在 linux 上用, win 是用不了的,pip 安装不了,这里弄了一个调用示例代码。
【Qwen2部署实战】部署高效AI模型:使用vLLM进行Qwen2-7B模型推理
寻道码路,探索编程之路的无限可能。
07-08 5208
在当今快速发展的人工智能领域,大型语言模型(LLMs)已成为推动自然语言处理(NLP)任务的关键力量。这些模型以其强大的理解和生成文本的能力而闻名,但同时也因其对计算资源的高需求而备受关注。vLLM作为一个创新的解决方案,旨在简化LLMs的部署流程,提高效率,降低资源消耗。本文将详细介绍如何利用vLLM部署Qwen2-7B模型,并探讨其在离线推理、API服务以及多卡分布式部署中的应用。
LMDeploy 量化部署 LLM & VLM 实战作业(含进阶)(lesson 5)
weixin_39291058的博客
06-06 666
选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击“立即创建”。
使用 vLLM 部署本地 LLM 指南
热门推荐
spicy_chicken123的博客
01-24 1万+
我们输入以下命令启动服务器,–model 为本地模型的路径,–served-model-name 是模型在服务器中的别名,这里我们取简称 openchat,其他都是默认值,当然也可以自己设置。在这里我们不演示了,直接将 vLLM 部署为模仿 OpenAI API 协议的服务器,这使得 vLLM 可以用作使用 OpenAI API 的应用程序的直接替代品。当然,你也可以试一试 ChatCompletions 格式的请求,ChatCompletions API 的请求内容如下,两种的格式还是有一些区别的。
vLLM:由伯克利大学LMSYS组织开源的大语言模型高速推理框架-显著提高了大型语言模型(LLM)的服务效率
汽车软件开发
04-18 4336
vLLM是一个由伯克利大学LMSYS组织开源的大语言模型高速推理框架,旨在提升实时场景下语言模型服务的吞吐与内存使用效率134。它是一个快速且易于使用的库,能够与HuggingFace无缝集成134。vLLM的核心是PagedAttention算法,这是一种新颖的注意力算法,通过引入操作系统的虚拟内存分页思想,显著提高了大型语言模型(LLM)的服务效率512。此外,vLLM还支持FastAPI前端,扩展了OpenAI API接口,允许用户为每个请求自定义采样参数1516。
通过vllm框架进行大模型推理
weixin_45920955的博客
12-30 3626
通过vLLM项目中的dockerfile文件构建docker镜像并运行容器从modelscope上拉取模型加载并启动openai_api接口服务
大模型推理工具:vLLM的入门使用
2401_84215165的博客
04-08 1万+
vLLM是一个快速且易于使用的LLM推理和服务库。最先进的服务吞吐量使用PagedNote有效管理注意力键和值内存传入请求的连续批处理使用CUDA/HIP图快速执行模型量化:GPTQ、AWQ、SqueezeLLM、FP8 KV缓存优化的CUDA内核与流行的拥抱脸模型无缝集成高吞吐量服务于各种解码算法,包括并行采样、波束搜索等分布式推理的张量并行性支持流式输出与OpenAI兼容的API服务器支持NVIDIA GPU和AMD GPU(实验性)前缀缓存支持。
写文章

热门文章

  • Prophet:一种大规模时间序列预测模型 11618
  • 训练后量化(PTQ) 工作流理解 6391
  • 大模型推理性能优化之KV Cache解读 5716
  • 大语言模型微调实践——LoRA 微调细节 4865
  • YOLOv5 在 OpenVINO 上的优化实践 4112

分类专栏

  • Adlik深度学习推理工具链
  • Adlik

最新评论

  • vLLM 实战

    小军军军军军军: vllm要依靠停止符

  • vLLM 实战

    cooper6666: 感谢分享,我这边有个小疑问,max_tokens=16生成的结果不是非常的短吗?不能满足真是的业务情况。而且,我这边将max_tokens设置成512,但是生成的结果非常的扩散,答非所问,请问这是什么原因了?

  • 通用视觉大模型综述

    sinat_38034171: 本人才疏学浅,几个大厂的CV 大模型都是迁移学习吗表情包,还是我理解错了表情包

  • 训练后量化(PTQ) 工作流理解

    Benjamin Liang: 您好,你这篇文章有部分内容(包括若干图片文字等)来自高通的量化白皮书,如果可以请您补充参考文献中

  • 大模型推理性能优化之KV Cache解读

    Youther1898: Adlik有支持int8的大模型的推理吗?

大家在看

  • C++研发笔记4——C语言程序设计初阶学习笔记2
  • 基于SpringBoot+Vue的华府便利店信息管理系统设计与实现毕设(文档+源码)
  • JS初学之 AJAX请求方式
  • 宠物商城网站/宠物用品/宠物食品/宠物玩具/宠物护理/宠物服装/宠物商城优惠/宠物商城网站推荐(源码+LW+调试文档+讲解等)/MySQL/SpringBoot/VueHTML5/Java 562
  • [docker] 制作只包含jre的Docker镜像

最新文章

  • QLoRA :高效微调已量化的LLM
  • 招聘啦!寻找热爱AI的你!
  • 投机采样(Speculative Sampling)加速大模型推理
2024年3篇
2023年18篇
2022年21篇
2021年27篇
2020年9篇

目录

目录

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Linux基金会AI&Data基金会

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家雕塑翻了玻璃钢还能修改吗官渡区玻璃钢广场雕塑设计上海玻璃钢抽象雕塑批发汉中玻璃钢雕塑价格厂家北京商场美陈批发玻璃钢雕塑断了用什么修补商场美陈方案陈述环氧玻璃钢雕塑施工工艺广场玻璃钢雕塑定制大同玻璃钢花盆花器十平米玻璃钢雕塑需多少钱邯郸玻璃钢景观雕塑制作厂家武威玻璃钢雕塑专业厂家嘉兴玻璃钢雕塑订做价格池州大型玻璃钢雕塑制作新郑镂空不锈钢校园玻璃钢雕塑商场美陈调改奥体商场活动美陈商场美陈有什么意义重庆玻璃钢奶牛雕塑玻璃钢花盆的重要作用雕塑玻璃钢雕像动物玻璃钢雕塑供货商伊春动物玻璃钢雕塑生产厂家佛山玻璃钢卡通猪雕塑玻璃钢创意雕塑定做人物玻璃钢雕塑电话玻璃钢生物雕塑图片山西玻璃钢红军雕塑美陈商场圣诞节装饰香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化