ollama本地部署大模型(纯CPU推理)实践

7 篇文章 0 订阅
订阅专栏

说明

  • 本文旨在分享在linux(centos8)平台使用docker部署轻量化大模型,仅供学习和体验,无法适用于生产环境
  • 运维面板使用飞致云的开源面板1panel,使用ollamadocker方案快速部署大模型,总共需要两个dcoker环境:ollama 容器环境和ollama WebUI容器环境

Ollama和Ollama WebUI简介

  • Ollama :一个开源的大型语言模型服务提供类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
  • Open WebUI:针对 LLM 用户友好的 WebUI,支持的 LLM 运行程序包括 Ollama、OpenAI 兼容的 API。

Ollama模型硬件要求

  • Ollama 支持 ollama.com/library 上提供的一系列模型

内存要求

  • 注意:运行 7B 型号至少需要 8 GB 可用 RAM (内存),运行 13B 型号至少需要16 GB可用 RAM (内存) ,运行 33B 型号至少需要32 GB 可用 RAM (内存)。
  • 示例模型
ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

Ollama容器部署

  1. 在1Panel应用商店中选择Ollama进行安装
    在这里插入图片描述
  2. 配置容器的启动配置:容器名称、端口,最后,点击启动即可
    在这里插入图片描述

Ollama容器内模型下载和对话

  1. 根据机器内存和CPU性能可以进入容器,下载示例模型
ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b
  1. 按照操作,进入容器终端
    在这里插入图片描述
  2. 点击连接进入容器内部,输入ollama run qwen:0.5b下载模型,下载成功后,自动启动对话
    在这里插入图片描述
    在这里插入图片描述
  • 存在的缺点:需要进入容器进行对话,只能在终端进行,不方便,不优雅

Ollama WebUI部署

  • 有关ollama WebUI镜像拉取缓慢的问题和部署的内容,请阅读一下两篇文章
    • docker配置github仓库ghcr国内镜像加速
    • 使用1panel部署Ollama WebUI(dcoekr版)浅谈

Ollama WebUI下载模型和对话

  1. 选择模型进行下载,然后刷新页面
    在这里插入图片描述
  2. 然后,选择模型进行对话,这效果(只能图一乐)🤣😂🤣
    在这里插入图片描述

轻量模型推荐

机器硬件信息概览

在这里插入图片描述

  • linxu系统内核和cpu信息如下(CPU确实垃圾)
[root@yang ~]# uname -a
Linux yang 4.18.0-348.7.1.el8_5.x86_64 #1 SMP Wed Dec 22 13:25:12 UTC 2021 x86_64 x86_64 x86_64 GNU/Linux
[root@yang ~]# cat /proc/cpuinfo
processor   : 0
vendor_id   : AuthenticAMD
cpu family  : 21
model       : 96
model name  : AMD A10-8780P Radeon R8, 12 Compute Cores 4C+8G
stepping    : 1
microcode   : 0x600610b
cpu MHz     : 2000.000
cache size  : 1024 KB
physical id : 0
siblings    : 4
core id     : 0
cpu cores   : 2
apicid      : 16
initial apicid  : 0
fpu     : yes
fpu_exception   : yes
cpuid level : 13
wp      : yes
flags       : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good acc_power nopl nonstop_tsc cpuid extd_apicid aperfmperf pni pclmulqdq monitor ssse3 fma cx16 sse4_1 sse4_2 movbe popcnt aes xsave avx f16c rdrand lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs xop skinit wdt lwp fma4 tce nodeid_msr tbm topoext perfctr_core perfctr_nb bpext ptsc mwaitx cpb hw_pstate ssbd vmmcall fsgsbase bmi1 avx2 smep bmi2 xsaveopt arat npt lbrv svm_lock nrip_save tsc_scale vmcb_clean flushbyasid decodeassists pausefilter pfthreshold avic v_vmsave_vmload vgif overflow_recov
bugs        : fxsave_leak sysret_ss_attrs null_seg spectre_v1 spectre_v2 spec_store_bypass
bogomips    : 3992.38
TLB size    : 1536 4K pages
clflush size    : 64
cache_alignment : 64
address sizes   : 48 bits physical, 48 bits virtual
power management: ts ttp tm 100mhzsteps hwpstate cpb eff_freq_ro acc_power [13]
  • 如果你的机器CPU不同、也没有较好的显卡,这里推荐使用通义千问 开源Qwen的轻量化模型, ollama qwen模型以来指导
    # 推理的最低内存要求小于 2GB
    ollama run qwen:0.5b
    ollama run qwen:1.8b
    ollama run qwen:4b
    # 推理的最低内存要求8GB
    ollama run qwen:7b
    
  • 参数越大,回答普遍会越智能,当然对CPU和内存的要求也会越高,性能较低的机器体验也会很差

qwen:0.5b推理体验

  • qwen:0.5b对机器要求最低,推理很快,体验还算可以,先不说代码对不对,就这个速度还是可以的,简单的问题体验还可以,复杂的不想了
    在这里插入图片描述
  • 推理过程系统负载如下:
    在这里插入图片描述

gemma:7b推理体验

  • 参数越多的模型,对机器的运行要求较高,例如:gemma:7b (4.8GB)的推理下我的机器就无法承受了😭😭😭真就一个一个字算出来的
    在这里插入图片描述
Ollama 本地CPU部署开源大模型
Python_Ai_Road的博客
06-14 1415
Ollama可以在本地CPU非常方便地部署许多开源的大模型。如 Facebook的llama3, 谷歌的gemma, 微软的phi3,阿里的qwen2 等模型。完整支持的模型列表可以参考:https://ollama.com/library它基于llama.cpp实现,本地CPU推理效率非常高(当然如果有GPU的话,推理效率会更高), 还可以兼容 openai的接口。本文将按照如下顺序介绍Olla...
ollama离线安装,在CPU运行它所支持的那些量化的模型
人工智能
05-12 900
ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。
ollama自定义模型容器部署cpu版)
gallonyin的博客
09-21 660
使用GPU需要安装 NVIDIA Container Toolkit⁠: https://hub.docker.com/r/ollama/ollama。如果想使用Qwen2.5-7B模型,可以在这个模型页选择适合自己算力需求的模型下载。ollama create #从模型文件创建模型ollama pull #从注册表中拉取模型ollama serve #启动ollamaollama run #运行模型
ollama部署体验Chinese-LLaMA-Alpaca-3大模型项目
nlpstarter的博客
05-15 2377
使用Chinese-LLaMA-Alpaca-3项目中的模型,利用ollama进行了部署体验。
【快捷部署】016_OllamaCPU only版)
luckcxy的专栏
04-10 3431
一键快速私有化部署gemma大模型(低门槛,CPU only)
ollama模型CPU轻量化部署
weixin_40777649的博客
06-17 1526
ollama 定义环境部署demo加载本地模型方法基本指令关闭开启ollamaollama 如何同时 运行多个模型, 多进程ollama 如何分配gpu修改模型的存储路径。
使用Ollama配置本地微调的gguf模型文件
weixin_43217276的博客
07-30 1474
在之前的文章中,我们已经得到了经过我们微调的大语言模型,不管是在本地部署使用或者是用OpenWebUI界面部署在服务器上达到和chatGPT界面类似的效果,使用Ollama部署一定是最好的选择。以下均为在Ubuntu系统(Linux)上的测试。
使用Ollama和OpenWebUI在CPU上玩转Meta Llama3-8B
TonyBai
04-25 2308
2024年4月18日,meta开源了Llama 3大模型[1],虽然只有8B[2]和70B[3]两个版本,但Llama 3表现出来的强大能力还是让AI模型界为之震撼了一番,本人亲测Llama3-70B版本的推理能力十分接近于OpenAI的GPT-4[4],何况还有一个400B的超大模型还在路上,据说再过几个月能发布。Github上人气巨火的本地大模型部署和运行工具项目Ollama[5]也在第一时...
Llama3 本地部署 CPU进行推理
python_water的博客
04-23 823
提交邮件就能申请,在官方GitHub仓库下载示例代码进行使用。
本地部署开源大模型的完整教程LangChain + Streamlit+ Llama
09-23
本地部署开源大模型的完整教程 LangChain + Streamlit+ LLaMA 本教程旨在指导开发人员如何在本地部署开源的大型语言模型LLM),并使用LangChain、Streamlit和LLaMA等工具来创建交互式应用程序。以下是教程中涉及...
模型部署-使用OpenVINO本地化部署LLaMa3-附项目源码+流程教程-优质项目实战.zip
06-07
总结而言,这个项目提供了一个完整的实践路径,让开发者能够学习到如何使用OpenVINO将大型语言模型LLaMa3本地化部署。通过源码和教程,你可以深入了解OpenVINO的工作原理,掌握模型转换和推理的关键步骤,同时提升在...
Ollama本地私有化部署通义千问大模型Qwen2.5
最新发布
L
09-26 567
Qwen是阿里巴巴集团Qwen团队的大型语言模型和大型多模态模型系列。现在大型语言模型已经升级到Qwen2.5。语言模型和多模态模型都是在大规模多语言和多模态数据上进行预训练的,并在符合人类偏好的高质量数据上进行后训练。Qwen具有自然语言理解、文本生成、视觉理解、音频理解、工具使用、角色扮演、人工智能代理等功能。在Qwen2发布的过去三个月里,许多开发人员在Qwen2语言模型上构建了新的模型,向我们提供了宝贵的反馈。在此期间,我们专注于创建更智能、知识更丰富的语言模型
Xorbits Inference比Ollama更强大的模型部署推理框架
weixin_44455388的博客
03-26 2055
Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于大语言模型LLM),语音识别模型,多模态模型等各种模型推理。通过 Xorbits Inference,你可以轻松地一键部署你自己的模型或内置的前沿开源模型。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。
LLM模型部署实战指南:Ollama部署简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发【含ollama详细部署指南多版本】
丨汀、的博客
08-13 1025
LLM模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
第二十七篇-Ollama-加载本地模型文件
木卫二号的专栏
04-27 5170
可以查看已有下载的modlefile文件内容。等等一段时间会提示完成。
Mac环境下ollama部署和体验
程序员欣宸的博客
05-02 4046
安装ollama以及相关的基本操作
ollama部署本地大模型
西敏寺的乐章的博客
06-18 889
本地运行大模型的工具,可以运行Llama 3、Phi 3、Mistral、Gemma和其他型号。定制并创建您自己的型号。
使用 Ollama框架 下载和使用 Llama3 AI模型的完整指南
博客之路,前途漫漫
05-27 6022
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。Llama3 是由 Meta AI 开发的最新一代开源大型语言模型(LLM)。它基于 137B 参数的 Transformer 架构,在大量文本和代码数据集上进行训练。与前代模型相比,Llama3 在许多自然语言处理任务上表现出更强的性能。
cpu部署模型
12-01
CPU部署模型是一项具有挑战性的任务。大模型通常需要大量的计算资源和内存空间来运行,因此在CPU部署模型需要仔细的计划和优化。 首先,需要考虑的是CPU的性能和内存容量。选择一台性能强劲的CPU,并确保有足够的内存来存储模型参数和中间结果是至关重要的。此外,为了充分利用CPU的多核心能力,可以考虑使用多线程并行计算来加速模型的训练和推理过程。 其次,需要对模型进行优化。大模型往往包含大量的参数和计算量,为了在CPU上高效运行,可以考虑对模型进行剪枝、量化或者使用轻量级的模型结构来减少计算复杂度和内存占用。 此外,可以考虑使用优化的深度学习框架和库来部署模型。一些深度学习框架提供了针对CPU的优化版本,可以充分利用CPU的指令集和并行计算能力。同时,一些库提供了高效的矩阵计算和张量操作,可以加速模型的计算过程。 最后,还需要考虑模型部署方式。可以将模型部署在高性能的服务器上,利用集群计算的方式来进行训练和推理。另外,也可以考虑使用分布式计算来加速大模型的训练过程。 总的来说,在CPU部署模型需要综合考虑硬件性能、模型优化和部署方式,通过合理的规划和优化,可以实现在CPU上高效地部署模型
写文章

热门文章

  • Armbian安装后更换国内源 219242
  • rk3566安装Armbian实践 157220
  • edge浏览器安装扩展插件报错:出现错误Download interrupted 55261
  • Windows 11 变成 macOS 风格 19690
  • 关于IDEA配置本地tomcat部署项目找不到项目工件的问题解答 19497

分类专栏

  • mac折腾记 8篇
  • OpenWRT 1篇
  • MongoDB数据库 2篇
  • AI语言大模型 7篇
  • 通信原理 7篇
  • 物联网 7篇
  • 网络攻防 17篇
  • 网络信息安全技术 10篇
  • MinIO 8篇
  • SpringAI学习专栏 9篇
  • Alist 网盘挂载 7篇
  • Prometheus浅浅研究 6篇
  • 云计算入门study 25篇
  • 幻兽帕鲁专栏 4篇
  • 尝试 14篇
  • JAVA虚拟机浅谈 22篇
  • 深度学习 2篇
  • 分布式数据库Hbase探究 4篇
  • OceanBase 8篇
  • 人工智能导论思维导图梳理 4篇
  • 计算机网络管理 7篇
  • 后端架构知识学习 2篇
  • nginx 5篇
  • 驭Python神技:打造编程巨匠之路 28篇
  • 大数据修炼之旅 13篇
  • Armbian折腾记 31篇
  • 云服务内容学习 1篇
  • 微服务学习 34篇
  • 网络相关知识 12篇
  • Andriod学习 16篇
  • 密码学 6篇
  • Java基础知识 19篇
  • java进阶 29篇
  • JAVAWEB 19篇
  • mybatis 8篇
  • MybatisPlus大师之路 5篇
  • spring 3篇
  • SpringMVC 6篇
  • springboot 25篇
  • Vue学习 18篇
  • Linux学习 25篇
  • Redis学习 22篇
  • 计算机组成原理 4篇
  • 数据库基础篇 48篇
  • 数据库高级篇 5篇
  • 离散数学速通 6篇
  • C语言 17篇
  • 数据结构与算法 26篇
  • c++ 29篇
  • 杂识 27篇
  • html5+css3 17篇
  • javascript+iquery 12篇
  • CSharp 13篇

最新评论

  • win11 安全中心打开黑屏\白屏\打不开有效解决

    2401_87903204: 它说没有注册类什么意思?

  • win11 安全中心打开黑屏\白屏\打不开有效解决

    2301_79152004: 畅通无阻,打开还是空白

  • ChatGLM3本地部署运行(入门体验级)

    the'one: 显存12288MB我还是算了吧

  • win11 安全中心打开黑屏\白屏\打不开有效解决

    billy506: 完美解决,感谢您的教程。秒杀论坛上99%的文章

  • win11 安全中心打开黑屏\白屏\打不开有效解决

    2403_87816093: 完美,终于好了,win11重置完系统用了好多方案都不管用还得是重装

最新文章

  • 数据结构代码题备考
  • macOS .bash_profile配置文件优化记录
  • macos安装mongodb
2024
10月 5篇
09月 5篇
08月 3篇
07月 5篇
06月 34篇
05月 36篇
04月 22篇
03月 26篇
02月 14篇
01月 21篇
2023年241篇
2022年252篇
2021年23篇

目录

目录

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家玻璃钢佛像雕塑生产厂家淮北玻璃钢卡通雕塑品牌玻璃钢花盆菜池子商场美陈装饰哪家好东莞玻璃钢景观雕塑报价成都双流做玻璃钢雕塑厂哈尔滨商场美陈雕塑云南价值观校园玻璃钢景观雕塑南昌玻璃钢人物雕塑制作厂家陆丰玻璃钢胸像雕塑浙江商场美陈供应天津省玻璃钢人物雕塑广西玻璃钢大型雕塑泡沫雕塑怎么变成玻璃钢模具河南玻璃钢景观雕塑公司怀集玻璃钢卡通雕塑价格南通玻璃钢景观雕塑加工价格官渡区玻璃钢雕塑多少钱玻璃钢几何熊雕塑惠州联盛玻璃钢雕塑厂玻璃钢雕塑虎威威视频抚顺雕塑玻璃钢卡通中国台湾玻璃钢雕塑的特点江苏玻璃钢园林雕塑滁州佛像玻璃钢雕塑玻璃钢雕塑的工艺品苏州玻璃钢雕塑设计报价佛山埃及法老玻璃钢雕塑腾冲市玻璃钢雕塑公司玻璃钢孔子雕塑批发香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化