简单使用ollama

简单使用ollama

1 介绍

Ollama是一个开源的大型语言模型部署工具,它可以帮助用户快速在本地部署运行大模型。类似于Docker一样,仅仅用几行命令就可以运行一个大模型。

2 安装ollama

(1)参考网站

# 官网地址
https://ollama.com/

# Github地址
https://github.com/ollama/ollama

# 可使用的模型
https://ollama.com/library

(2)下载软件

# 下载地址
https://ollama.com/download

在这里插入图片描述

下载后一步步安装即可,自动会安装到C盘。

3 配置Ollama

由于Ollama在下载模型时,会自动下载到C盘,因此需要设置下载目录。方法如下:

设置模型下载路径

在环境变量中添加“OLLAMA_MODELS”,之后重启ollama,我把下载模型的目录设置在了"D:\ollama"目录下。

OLLAMA_MODELS

在这里插入图片描述

4 使用Ollama

使用帮助

ollama -h 

在这里插入图片描述

# 启动ollama
ollama serve

# 显示模型列表
ollama list

在这里插入图片描述

查看模型的信息

# 查看模型的
# '--license': 查看序列;
# '--modelfile':查看模型文件;
# '--parameters':查看模型参数;
# '--system':查看模型系统;
# '--template':查看模型模板
ollama show --modelfile qwen:0.5b

获取模型

# 拉取模型
ollama pull qwen:1.8b

# 推送模型
ollama push 

在这里插入图片描述

管理模型

# 拷贝一个模型
ollama cp qwen:0.5b my-qwen:0.5b

# 删除模型
ollama rm my-qwen:0.5b

运行模型

⚠️ 最常用,如果没有模型,会自动下载模型,默认的端口号是“11434”

ollama run qwen:0.5b 

使用生成的API访问

curl http://localhost:11434/api/generate -d '{
  "model": "qwen:0.5b",
  "prompt": "Why is the sky blue?",
  "stream": false
}'

在这里插入图片描述

使用对话的API访问

返回的是对话流。

curl http://localhost:11434/api/chat -d '{
  "model": "qwen:0.5b",
  "messages": [
    { 
        "role": "user", 
        "content": "why is the sky blue?" 
    }
  ]
}'

在这里插入图片描述

5 下载Qwen例子

(1)查找可用模型

# 可使用的模型
https://ollama.com/library

可以在模型库上查找需要的模型。

在这里插入图片描述

(2)下载Qwen1.5模型

在ollama的模型库上选择“qwen"

# Ollama上的仓库地址
https://ollama.com/library/qwen

在这里插入图片描述

选择简单的

ollama run qwen:0.5b
MasonYyp
关注 关注
  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ollama 使用指南
机器人涮火锅的博客
08-09 958
文章的主要目的是介绍 Ollama 这一工具的功能、安装方法、模型库以及如何使用它来运行和管理大型语言模型。文章旨在向潜在用户展示如何利用 Ollama 快速且简便地在其本地环境中部署和使用先进的语言模型,同时也提供了有关模型自定义和管理的具体指导。
ollama教程——Ollama Tools功能详解实现复杂任务的完整教程
walkskyer的博客
08-19 361
Ollama是一个开源框架,专门设计用于在本地运行大型语言模型。它通过将模型权重、配置和数据捆绑到一个包中,从而优化了设置和配置细节,包括GPU使用情况,这大大简化了在本地运行大型模型的过程。Ollama支持macOS和Linux操作系统,并且已经为Windows平台发布了预览版。Ollama的一个重要优势是其易用性。安装过程非常简单,例如在macOS上,用户可以直接从官网下载安装包并运行。而对于Windows用户,官方推荐在WSL 2中以Linux方式使用命令安装。
使用ollama本地跑大模型
邵奈一的博客
01-28 3599
总的来说,跑起来还是非常方便的,也没有遇到多少坑。相类似的项目有Jan,大家也可以尝试一下。使用ollama本地跑模型ollama 大模型本地部署之浏览器插件邵奈一原创不易,如转载请标明出处,教育是一生的事业。
Ollama完整教程:本地LLM管理、WebUI对话、Python/Java客户端API应用
python122_的博客
08-06 6470
老牛同学在前面有关大模型应用的文章中,多次使用了等),但对这个非常方便管理本地大模型的软件的介绍却很少。
本地上百个大模型便携部署调用工具 Ollama 使用指南
数智笔记
04-14 2万+
Ollama 支持在 Modelfile 中导入 GGUF 模型:创建一个名为Modelfile的文件,使用FROM指令指定要导入的模型的本地文件路径。创建模型运行模型可以使用提示来自定义 Ollama 模型。例如,要自定义llama2创建一个Modelfile# 设置温度为 1 [值越高越有创造性,值越低越连贯]# 设置系统消息SYSTEM """""">>> hiHello!更多示例,请参考examples目录。有关使用 Modelfile 的更多信息,请参考Modelfile文档。
Ollama常用信息
weixin_40090689的博客
04-28 1049
Ollama常用命令,常用模型,如何运行模型
02-部署大模型工具Ollama以及使用
cygqtt的博客
07-11 3727
使用docker 部署的命令。
Win10本地部署Ollama + AnythingLLM+nomic-embed-text 读取本地文档构建私有知识库
weixin_37847603的博客
05-10 5376
5、安装AnythingLLM工具后打开初始化界面,会进入到配置页面,在【LLM Preference】选项卡中,选择Ollama,然后配置【http://127.0.0.1:11434】、选择运行的大模型【qwen:4b】,token填【8192】6、下一步是配置【Embedding Preference】选项卡中,一样选择 Ollama,然后配置【http://127.0.0.1:11434】、选择运行的大模型【nomic-embed-text】,length填【512】
Ollama教程——深入解析:使用LangChain和Ollama构建JavaScript问答系统
walkskyer的博客
05-22 878
本文通过详细的步骤和示例,全面介绍了如何使用JavaScript结合LangChain和Ollama构建一个高效的问答系统。从环境配置到功能实现,再到问题处理和系统优化,我们涵盖了问答系统开发的各个方面。
本地电脑大模型系列之 02 利用边缘人工智能,使用 Ollama、Qdrant 和 Raspberry Pi 构建 RAG 系统
iCloudEnd的博客
06-14 221
利用紧凑且经济高效的 Raspberry Pi 来托管embedding models和(LLM) 用于检索增强生成 (RAG) 系统vector database,language models提供了经济实惠、便携性和节能的独特组合。这种方法不仅通过提供低成本的实验和学习平台实现了对高级 AI 功能的民主化访问,而且还实现了边缘计算解决方案,通过在本地处理数据来减少延迟和带宽使用
在自己电脑PC上构建本地大模型知识库之ChatOllama 基于 Ollama 的 100% 本地 RAG 应用程序
iCloudEnd的博客
05-25 232
Ollama是一种流行的本地运行开源 LLM 工具,包括Mistral和Llama 2等模型。Ollama将模型权重、配置和数据集捆绑到由 Modelfile 管理的统一包中。Ollama支持各种LLM,包括但不限于以下模型:LLaMA-2CodeLLaMAFalconMistralVicunaOllama包括聊天模型和文本嵌入模型,这正是 RAG 应用所需要的。利用Ollama,我们可以实现 100% 本地化的 RAG 应用。
Ollama 和 Streamlit 的实时 AI 股票顾问
最新发布
iCloudEnd的博客
10-08 175
在为一个金融科技项目制作股票数据可视化时,我曾想过:如果数据可以用简单的英语解释自己会怎么样?这就是这个支线任务的开始。使用 LLM 支持的(Llama 3)洞察力,此脚本每分钟获取股票数据,分析趋势并提供直截了当的解释。不再需要眯着眼睛看图表 - 这就像有一位私人股票专家实时分析正在发生的事情。
Ollama 常用命令
My_wife_QBL的博客
05-21 8142
随着你对Ollama的熟悉,你还可以探索更多高级功能和命令。希望这篇教程对你有所帮助!如果你有任何问题或需要进一步的帮助,请随时联系。
Ollama全面指南:安装、使用与高级定制
热门推荐
全世界的博客
05-30 4万+
Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户。Ollama提供了一个直观且用户友好的平台,用于在本地环境中运行大型语言模型。启动Ollama服务:首先,确保Ollama服务已经安装并运行。在命令行中输入以启动服务。选择模型:使用命令查看可用的模型列表。
开源模型应用落地-工具使用篇-Ollama(六)
没有卑微的工作,只有卑微的心态,与其抱怨,不如埋头实干
03-05 2万+
Ollama集成QWen1.5系列模型,全网唯一,绝非搬运。
ollama 使用技巧集锦
顺其自然~专栏
04-10 2393
从帮助文件可以看,我们通过设置环境变量(OLLAMA_MODELS)来指定模型目录,可以通过系统设置里来配置环境变量(系统变量或者用户变量)记得替换你的模型的完整路径 另外不同模型的template 和 stop parameter不同,这个不知道就不写,或者网上搜索 然后执行。使用*, 意味着任何应用都可以访问ollama,如果你没有特别的要求,可以考虑用它。导入模型的时候,确保硬盘可用空间在模型大小的2倍以上,, 搜Octopus-v2,找有GGUF标识的,为例,先查看模型信息,从模型文件信息里得知。
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
2401_84495725的博客
05-09 867
Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模型的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。不管是著名的羊驼系列,还是最新的AI新贵Mistral,等等各种开源大语言模型,都可以用Ollama实现一键安装并运行,支持的更多模型的列表可以查看Ollama官网。本文就让我们一起入门Ollama
【AI基础】大模型部署工具之ollama的安装部署以及api调用
旭日跑马踏云飞的专栏
06-17 1万+
ollama是大模型部署方案,对应docker,本质也是基于docker的容器化技术。ollama提供了openAI兼容的api,可以最大限度的减少理解和开发成本。
Windows平台Ollama软件安装指南
资源摘要信息:"ollama安装包windows" 知识点: 1. Ollama简介:Ollama可能是一个软件或插件的名称,针对Windows操作系统。目前公开信息较少,无法给出确切的产品功能介绍。但是从名称来看,可能与人工智能、机器...
写文章

热门文章

  • python安装包的离线安装方法 53207
  • Android监听蓝牙与设备连接状态、关闭和打开状态 26399
  • SVG.js包的使用 20378
  • vue组件懒加载 16653
  • SublimeText3自动补全python提示 10312

分类专栏

  • 微服务 28篇
  • python 15篇
  • JavaEE 26篇
  • go 4篇
  • Hadoop 6篇
  • Vue 5篇
  • 前端 28篇
  • Android 19篇
  • Linux服务器 43篇
  • 机器学习 32篇

最新评论

  • 使用pyannote-audio实现声纹分割聚类

    超能小墨: 使用yaml方式加载模型,报错:onnxruntime.capi.onnxruntime_pybind11_state.InvalidProtobuf: [ONNXRuntimeError] : 7 : INVALID_PROTOBUF : Load model from /speaker-diarzation-3.1/wespeaker-voxceleb-resnet34-LM/pytorch_model.bin failed:Protobuf parsing failed.

  • 简单使用OpenGauss数据库

    Aiiiww: omm用户登入服务器后,直接单使用gsql命令也能登入数据库💁,好怪

  • 智能解析科学文献PDF文件的工具包

    kxcr16: 如果你用windows系统下载的就换系统吧,windows系统下载就是有问题,换linux或mac

  • 智能解析科学文献PDF文件的工具包

    kxcr16: 你用的是windows系统安装的吧,windows系统就是安装不了,换linux系统或unix系统吧

  • 简单使用OpenGauss数据库

    光mon: 所以omm的密码是什么

大家在看

  • AI助力广交会,人工智能在制造业有哪些应用场景?
  • B站协议登录到实现各种功能完整代码(专栏总结)
  • 计算机毕业设计项目推荐,基于协同过滤算法的短视频推荐系统设计与实现30213(开题答辩+程序定制+全套文案 )上万套实战教程手把手教学JAVA、PHP,node.js,C++、python、数据可视化
  • 前端开发设计模式——状态模式 1520
  • 政府采购合同公告明细数据(1996-2024年)

最新文章

  • Tornado简单使用
  • Ubuntu22.04安装RTX3080
  • 安装和简单使用Milvus
2024年29篇
2023年26篇
2022年56篇
2021年46篇
2020年31篇
2019年28篇
2018年28篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家昆明玻璃钢雕塑生产厂家大涌玻璃钢雕塑温暖商场美陈石家庄景区玻璃钢雕塑哪家便宜公园玻璃钢动物雕塑怎么样自发光动物玻璃钢雕塑定做铜陵商场春节美陈蚌埠动物玻璃钢雕塑安徽玻璃钢雕塑定制孔子玻璃钢雕塑淮安元旦商场美陈江苏中庭商场美陈厂家直销马鞍山公园玻璃钢雕塑南京玻璃钢雕塑摆件设计商场圣诞节主题美陈景洪市玻璃钢雕塑设计公司玻璃钢雕塑方式公园玻璃钢人物雕塑郑州广场校园玻璃钢景观雕塑加工古代玻璃钢卡通雕塑生产玻璃钢雕塑彩绘招聘河南庄子名人玻璃钢雕塑玻璃钢花盆栽水果香港玻璃钢雕塑鼎湖玻璃钢机器人雕塑批发玻璃钢卡通雕塑收费武汉公园景观玻璃钢人物雕塑玻璃钢蔬菜雕塑公司地址玻璃钢雕塑要几天美陈商场摆件香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化