【AI】Ollama+OpenWebUI+llama3本地部署保姆级教程,没有连接互联网一样可以使用AI大模型!!!

12 篇文章 0 订阅
订阅专栏

1 电脑配置

操作系统CPU内存
Windows 10以上12核16GB

2 安装Ollama

2.1 下载Ollama

登录 Ollama官网下载Ollama安装包
GitHub: https://github.com/ollama/ollama?tab=readme-ov-file
在这里插入图片描述
在这里插入图片描述

2.2 安装Ollama

Windows下安装Ollama很简单,双击运行安装文件即可,此处不赘述。
打开终端,输入ollama,出现下图所示代表安装成功
在这里插入图片描述

注意:
windows 的安装默认不支持修改程序安装目录,
默认安装后的目录:C:\Users\username\AppData\Local\Programs\Ollama
默认安装的模型目录:C:\Users\username\ .ollama
默认的配置文件目录:C:\Users\username\AppData\Local\Ollama

2.3 配置Ollama的模型路径

由于Ollama的模型默认会在C盘用户文件夹下的.ollama/models文件夹中,可以配置环境变量OLLAMA_MODELS,设置为指定的路径:
在这里插入图片描述

2.4 下载llama3模型

llama3目前主要有8B和70B两个模型,分别代表80亿和700亿个训练参数。
在这里插入图片描述

8B模型一般16GB内存就可以跑的很流畅,70B模型则至少需要64GB内存,有CPU就可以跑,当然有GPU更好。
这里我安装的是8B的模型。
打开终端,输入命令:ollama run llama3默认安装8B模型,也可以使用ollama run llama3:8b来指定相应的模型,安装成功会有如下提示:
在这里插入图片描述

提问题,发现该模型给了很好的回复。
在这里插入图片描述

当然也可以写代码
在这里插入图片描述

至此,llama3本地部署已完成。
注意1:
在没有互联网的环境下部署,可以将下载好的Ollama安装包复制到此环境安装,然后将下载好的模型复制到相应路径就可以在无互联网的环境下使用。
注意2:
由于llama3对中文的支持并不是很好,需要中文的可以使用GitHub上开源的这个llama3中文微调模型 https://github.com/LlamaFamily/Llama-Chinese

3 Ollama+OpenWebUI

前面部署的llama3是在命令行里面进行交互,体验感并不好,安装OpenWebUI可以使用web界面进行交互。这里我使用docker的方式部署OpenWebUI。

3.1 安装Docker

3.1.1 下载Docker

Docker下载
在这里插入图片描述

3.1.2 启动微软Hyper-V
  • 打开“控制面板->程序->启用或关闭Windows功能”
    在这里插入图片描述
    在这里插入图片描述

  • 勾选Hyper-V选项
    在这里插入图片描述

  • 重启电脑后安装成功
    Windows工具中可以看到Hyper-V已安装成功。
    在这里插入图片描述

注意:
若没有Hyper-V选项,可以使用如下命令安装:

pushd "%~dp0"

dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hv.txt

for /f %%i in ('findstr /i . hv.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i"

del hv.txt

Dism /online /enable-feature /featurename:Microsoft-Hyper-V -All /LimitAccess /ALL

Pause

将上述命令复制到Hyper-V.bat批处理文件中,然后以管理员身份运行。
在这里插入图片描述

3.1.3 安装Docker

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

打开之后是这个样子,一般不需要使用,用命令行操作即可。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.1.4 切换国内镜像源

在这里插入图片描述

{
  "registry-mirrors": [
    "https://82m9ar63.mirror.aliyuncs.com",
    "http://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ],
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "features": {
    "buildkit": true
  }
}

Docker中国区官方镜像地址
网易地址
中国科技大学地址
阿里巴巴

3.2 安装OpenWebUI

GitHub地址
在这里插入图片描述
在这里插入图片描述
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
浏览器输入 http://localhost:3000/
在这里插入图片描述
注意:
注册时邮箱可以随便填写,例如:admin@111.com

3.3 web访问llama3

注册登录后可以看到直接可以选择之前部署好的llama3:8b模型,通过对话测试下它的能力。
在这里插入图片描述
写代码:
在这里插入图片描述
注意:
后台一定要运行着llama3,ollama run llama3:8b

3.4 离线部署

  1. 先安装Docker
  2. 将在线下载的docker images保存
    在这里插入图片描述
  3. 在离线的机器上装载该镜像
    docker load -i open-webui.tar
  4. 使用3.2章节的命令启动容器即可
第七章:AI模型部署与优化7.1 模型部署7.1.1 本地部署
AI天才研究院
01-14 645
1.背景介绍 随着人工智能技术的不断发展,越来越多的AI模型已经成为了我们生活中不可或缺的一部分。这些大型模型部署和优化是非常重要的,因为它们决定了模型的性能和效率。本文将从本地部署的角度来讨论AI模型部署与优化问题。 在本地部署模型时,我们需要考虑的因素有很多,包括硬件资源、软件环境、模型性能等等。本文将从以下几个方面进行讨论:
【三步 完全离线搭建 openwebui
最新发布
zishuijing_dd的博客
09-29 1131
完全离线linux 版open webui 的搭建。
AI工作流】Ollama本地化大模型安装
m0_70486148的博客
08-23 1250
为了给以后的工作流和本地模型铺路,有必要说一下Ollama本地大语言后台的安装。1.Ollama在安装之前,有必要先说明一下Ollama是什么。Ollama是一个大语言模型的服务后台,能够在零基础的前提下帮助用户轻松部署大语言模型。其特点包括如下:优点:Ollama后台服务能够帮助用户轻松搭建大语言模型服务,并且提供相应的API以扩展到其他如Dify等Web前台以及Obsidian等笔记软件,以最快的速度形成AI问答/AGENT/工作流等工作形式。
ollama+open-webui,本地部署自己的大模型
热门推荐
spiderwower的博客
05-05 2万+
Open WebUI 是一种可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种LLM运行器,包括 OllamaOpenAI 兼容的 API。open-webui项目地址。
使用 OllamaOpen WebUI 自托管 LLM 聊天机器人(无需 GPU)
lythinking的博客
06-08 1991
等,进一步支撑你的行动,以提升本文的帮助力。
Ollama + Openwebui 本地部署大型模型与交互式可视化聊天
2401_84494441的博客
07-12 3405
OpenWebUI]是一个可扩展、功能丰富且用户友好的自托管WebUI,它支持完全离线操作,并兼容OllamaOpenAI的API。这为用户提供了一个可视化的界面,使得与大型语言模型的交互更加直观和便捷。
【待修改】使用GraphRAG+LangChain+Ollama(LLaMa 3.1)知识图谱与向量数据库集成(Neo4j)
caoyongsheng的博客
08-14 1248
图数据库需要这种实体,所以我们将创建一个名为 Entities 的自定义模型,继承自 BaseModel,我们希望提取实体,这可以通过提供这个属性 entities 来完成,它是一个字符串列表。首先我们要连接到数据库,我们将使用驱动方法,传入我们的 URI(存储在 Neo4j URI 环境变量中),还需要提供用户名和密码进行身份验证,并创建驱动实例。s 是起始节点,r 是结束节点,t 是关系。我们传入创建的文档,计算可能需要一些时间,即使是这个很小的例子,也花了我大约 3 分钟时间,所以稍等片刻。
通义千问(qwen2:72b)本地化部署保姆教程
bgxabc的博客
08-28 2364
通义千问(qwen2:72b)本地化部署保姆教程
保姆教程-如何使用LLAMA2 大模型
探索人工智能领域
07-24 1574
保姆教程-如何使用LLAMA2 大模型,教你如何一步步配置llama模型,并且调用它!
模型使用PyTorch编写Meta的Llama 3实际功能代码(六)
段智华的博客
05-20 940
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。
阿里云搭建基于Langchain的RAG 保姆教程(超超超超超超详细)
qq_58530396的博客
07-18 786
在阿里云搭建基于Langchain的RAG应用,LLM部署qwen2-instruct(可自由选择模型),Embedding model部署bge-large-zh-v1.5(可自由选择模型),最终实现一个类似chatgpt的问答应用
使用OllamaOpenWebUI,轻松探索Meta Llama3–8B
csdn1561168266的博客
07-24 1180
大家好,2024年4月,Meta公司开源了Llama 3 AI模型,迅速在AI社区引起轰动。紧接着,Ollama工具宣布支持Llama 3,为本地部署大型模型提供了极大的便利。本文将介绍如何利用Ollama工具,实现Llama 3–8B模型的本地部署与应用,以及通过Open WebUI进行模型交互的方法。
零代码本地搭建AI模型,详细教程!普通电脑也能流畅运行,中文回答速度快,回答质量高
python12345678_的博客
06-15 2694
这篇教程主要解决:1). 有些读者朋友,,比如电脑没有配置GPU显卡,还想在本地使用AI;2). Llama3回答中文问题欠佳,更强的AI模型。3). 想成为AI开发者,开发一款AI模型的应用和产品,如何选择API的问题。我相信,大家平时主要还是以中文问答为主,安装一个中文回答更强的AI,就显得更很有必要。这篇教程。1 通义千问大模型的优势近日阿里云正式发布通义千问2.5,模型性能全面赶超GPT-4 Turbo,成为。
利用ollamaopen-webui本地部署通义千问Qwen1.5-7B-Chat模型
cumtchw
04-23 4218
利用ollamaopen-webui本地部署通义千问Qwen1.5-7B-Chat模型
在本地部署Ollama服务接口附加OpenWebUI做测试
alalaal的博客
07-18 2361
ollama可提供open AI一样的API接口
Ollama部署模型并安装WebUi
爱折腾的技术人
06-21 1798
Ollama用于在本地运行和部署大型语言模型LLMs)的工具,可以非常方便的部署本地大模型
Ollama 结合 Open-WebUI 在本地运行大语言模型
liuqianglong_liu的博客
08-29 1313
OLLAMA_KEEP_ALIVE=-1,模型加载后,默认的Keepalive是5分钟,修改为-1可以让模型持续启动,OLLAMA_KEEP_ALIVE=60 表示 60 秒,OLLAMA_KEEP_ALIVE=10m 表示10分钟。根据Docker Hub ollama主页 https://hub.docker.com/r/ollama/ollama [1],快速启动容器,注意,:它将模型权重、配置和数据捆绑到一个包中,称为 Modelfile,这有助于优化设置和配置细节,包括 GPU 使用情况。
使用OllamaOpenWebUI在CPU上玩转Meta Llama3-8B
TonyBai
04-25 2306
2024年4月18日,meta开源了Llama 3大模型[1],虽然只有8B[2]和70B[3]两个版本,但Llama 3表现出来的强大能力还是让AI模型界为之震撼了一番,本人亲测Llama3-70B版本的推理能力十分接近于OpenAI的GPT-4[4],何况还有一个400B的超大模型还在路上,据说再过几个月能发布。Github上人气巨火的本地大模型部署和运行工具项目Ollama[5]也在第一时...
llama2大模型本地部署
01-29
Llama2大模型本地部署是指将Llama2大模型应用于本地服务器或个人计算机上。这种部署方式相比于在云平台上进行部署,可以提供更高的计算效率、更低的延迟以及更好的隐私保护。 要进行Llama2大模型的本地部署,首先需要确保服务器或计算机具备足够的计算资源和存储空间,以支持模型的运行。其次,需要下载并配置Llama2大模型的文件和依赖项,这些文件可以从开发者或官方网站上获取。 一旦配置完成,可以启动Llama2大模型,并根据需要进行参数设置。Llama2大模型通常具备交互式的命令行界面或API接口,可以通过输入指令或调用接口来使用模型。用户可以根据自己的需求,对输入数据进行预处理或转换。 在模型运行过程中,可以监控其运行状态和性能指标,如CPU占用率、内存使用情况等。如果发现模型存在性能问题或异常情况,可以在本地进行调试和优化。 此外,为了保证Llama2大模型的安全性,需要加强本地计算机或服务器的防火墙设置,限制外部访问和保护数据的隐私。 总之,Llama2大模型的本地部署可以提供更高的计算性能和更好的隐私保护。但是需要考虑本地计算资源和存储空间的限制,以及对模型进行配置、调试和优化的工作量。
写文章

热门文章

  • CMD切换管理员模式的三种方式! 26125
  • Windows10 Docker安装详细教程 14594
  • Failed to start bean ‘documentationPluginsBootstrapper‘ 13032
  • module java.base does not “opens java.lang“ to unnamed module 9367
  • java获取项目所在服务器的ip地址和端口号(获取当前ip地址) 8146

分类专栏

  • C# 15篇
  • 小技巧 84篇
  • 硬核知识 21篇
  • Python 14篇
  • Java 43篇
  • 人工智能 12篇
  • IntelliJ IDEA 11篇
  • 前端 10篇
  • 大数据 43篇
  • 消息中间件 10篇
  • SQL 5篇
  • 云原生 3篇
  • Spring Boot 32篇
  • Kotlin 1篇
  • Redis 5篇
  • mysql 10篇
  • RPC 3篇
  • Rust 1篇
  • Golang 2篇
  • 监控/追踪 6篇
  • spring 6篇
  • Spring Cloud 8篇

最新评论

  • Springboot中用RocketMQ(rocketmq-spring-boot-starter)解决分布式事务问题

    maple 枫: 请问一下,你在最开始发送mq事务消息的时候就会开一个事务,上面执行本地事务的时候是复用外层事务的。但你在执行本地事务完成之后就返回了commit导致消息提交被下游消费到,但你本地事务提交了嘛?还没有吧,如果本地事务提交失败,DB回滚,但消息已经出去了,就有问题了。

  • Centos7下部署nginx(三种方式安装部署,图文结合超详细,适合初学者)

    balasampear: 请教一下,明明配置了nginx的yum源,但是执行命令yum -y install nginx的时候还是没有没有可用软件包 nginx,这个情况应该怎么解决表情包

  • Failed to start bean ‘documentationPluginsBootstrapper‘

    _Nany: 采用方案二解决了

  • 【ElasticSearch8】SpringBoot集成ElasticSearch8.x 基本应用(环境安装和CRUD操作)

    煎蛋花: 您好,请问有没有更新index的代码?

  • IDEA 自动 import

    不早睡不改名@: 最好关掉这个表情包

最新文章

  • 春风十里不如你,全新Windows UI 3(WinUI 3) 的第一个实现Project Reunion 0.5
  • 解决windows资源管理器(底边栏)经常死机的一种办法
  • Java进阶(JVM调优)——JVM调优参数 & JDK自带工具使用 & 内存溢出和死锁问题案例 & GC垃圾回收
2024
10月 12篇
09月 22篇
08月 16篇
07月 25篇
06月 8篇
05月 21篇
04月 24篇
03月 8篇
02月 19篇
01月 3篇
2023年191篇
2022年7篇
2020年2篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家保定仿铜玻璃钢雕塑公司玻璃钢酒店人物雕塑型号广西玻璃钢金属雕塑介绍丹阳商场美陈布置云南高质量玻璃钢雕塑供应商铜陵人物玻璃钢雕塑多少钱精美木纹玻璃钢花盆梅州玻璃钢动物雕塑尺寸辽宁花钵玻璃钢雕塑工厂兰州玻璃钢人像雕塑设计江苏玻璃钢商场美陈雕塑吉林小区玻璃钢雕塑定制金昌玻璃钢植物雕塑厂家泡沫校园玻璃钢雕塑设计云南人物玻璃钢雕塑宣城个性化玻璃钢雕塑优势辽宁雕塑玻璃钢玻璃钢雕塑生产方法上饶抽象玻璃钢雕塑批发上街区城市玻璃钢雕塑呈贡玻璃钢雕塑加工厂贵不贵热门玻璃钢动物雕塑山东人物玻璃钢雕塑定制洛阳室外玻璃钢雕塑厂家墙面玻璃钢仿铜雕塑玻璃钢卡通动漫雕塑 吉祥物云南玻璃钢雕塑定制景观玻璃钢卡通雕塑源头好货红河玻璃钢雕塑制作厂家孝感人物玻璃钢雕塑生产厂家香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化