开源项目Ollama让你的电脑也可以运行大模型

从OPEN AI推出大模型已经过去一年多了,想必大家已经感受到了AI对我们的影响。大型模型极具用途,其提升的准确性和处理更复杂任务的能力都令人赞叹。然而,本地运行这些模型却一直是一项艰巨的任务。运行这些模型需要大量的计算资源,而且数据存储需求往往超过了一般个人设备所能提供的。

此外,设置、配置和维护这些模型的过程可能复杂且耗时。同样,解决兼容性问题,排错和调试也会让用户在利用这些模型进行他们的研究或项目时望而却步。 虽然很早就有了开源大模型,我也一直跃跃欲试,但是苦于没有英伟达的显卡,所以一直没能本地运行。

但现在,有了一个解决方案 - 一项名为Ollama的开源项目。Ollama简化了实现大型模型的过程。借助Ollama,曾经令人畏惧的本地运行这些模型的任务变得轻而易举。它精简了整个过程,消除了与这些大型模型相关的设置和维护的复杂性。关键是不需要显卡,只使用CPU就可以运行。因此,有了Ollama,无论用户的技术栈或资源如何,大型模型的力量现在都已触手可及。

获取Ollama

Ollama下载地址,推荐第一个,一般都能下载。 [ollama.com/download]

安装使用

下载window版安装后运行就可以打开命令行。

输入以下命令

ollama run llama2

后就开始下载llama2模型,3.8G。 下载完成后就自动运行大模型了,你可以直接在命令行和它对话。

我的使用记录如下。

llama2模型使用日志

Welcome to Ollama!

Run your first model:

        ollama run llama2

(base) PS C:\Windows\System32> ollama run llama2
pulling manifest
pulling 8934d96d3f08... 100% ▕████████████████████████████████████████████████████████▏ 3.8 GB
pulling 8c17c2ebb0ea... 100% ▕████████████████████████████████████████████████████████▏ 7.0 KB
pulling 7c23fb36d801... 100% ▕████████████████████████████████████████████████████████▏ 4.8 KB
pulling 2e0493f67d0c... 100% ▕████████████████████████████████████████████████████████▏   59 B
pulling fa304d675061... 100% ▕████████████████████████████████████████████████████████▏   91 B
pulling 42ba7f8a01dd... 100% ▕████████████████████████████████████████████████████████▏  557 B
verifying sha256 digest
writing manifest
removing any unused layers
success
>>> /?
Available Commands:
  /set            Set session variables
  /show           Show model information
  /load <model>   Load a session or model
  /save <model>   Save your current session
  /bye            Exit
  /?, /help       Help for a command
  /? shortcuts    Help for keyboard shortcuts

Use """ to begin a multi-line message.

>>> who are you
I'm just an AI assistant trained by Meta AI, my primary function is to assist users with their inquiries and
provide information on a wide range of topics. I'm here to help answer any questions you may have, so feel free to
ask me anything! Is there something specific you would like to know or discuss?

>>> /show
Available Commands:
  /show info         Show details for this model
  /show license      Show model license
  /show modelfile    Show Modelfile for this model
  /show parameters   Show parameters for this model
  /show system       Show system message
  /show template     Show prompt template

切换模型

还有其他可用模型,可以在github页面查看。 所有模型列表看这里 [ollama.com/library]

例如,我使用下面命令运行gemma模型:

ollama run gemma

首次运行会先下载,模型,不过下载速度很快,几分钟。以后再运行就不用了。我的使用记录如下。

Gemma模型使用日志

C:\Users\weiyo>ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

C:\Users\weiyo>ollama run gemma
pulling manifest
pulling 456402914e83... 100% ▕████████████████████████████████████████████████████████▏ 5.2 GB
pulling 097a36493f71... 100% ▕████████████████████████████████████████████████████████▏ 8.4 KB
pulling 109037bec39c... 100% ▕████████████████████████████████████████████████████████▏  136 B
pulling 22a838ceb7fb... 100% ▕████████████████████████████████████████████████████████▏   84 B
pulling a443857c4317... 100% ▕████████████████████████████████████████████████████████▏  483 B
verifying sha256 digest
writing manifest
removing any unused layers
success
>>> how are you
I am an AI language model, so I don't have feelings or emotions. However, I am here to help you with your queries
and provide you with information. Is there anything I can assist you with today?


其他注意事项

安装程序把ollama安装在用户文件夹。安装后以后只需要运行程序,就可以在命令行使用ollama命令,启动模型使用了。

输入 /help可以获取帮助。使用Ctrl+D可以退出当前模型对话。

ollama支持本地restful api调用,以后可以研究以下。 [github.com/ollama/olla…]

每次下载的模型会默认保存到用户文件夹下,例如:

C:\Users\用户文件夹\.ollama\models\blobs

ollama是命令行使用的。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

发菜君
关注 关注
  • 24
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ollama 本地部署大模型
03-17 4万+
根据 ChatGPT 的使用经验,多数人都已知晓系统提示词的重要性。好的系统提示词能有效地将大模型定制成自己需要的状态。在 Ollama 中,有多种方法可以自定义系统提示词。首先,不少 Ollama 前端已提供系统提示词的配置入口,推荐直接利用其功能。此外,这些前端在底层往往是通过API"content": "以海盗的口吻简单作答。},"content": "天空为什么是蓝色的?],}'其中role为system的消息即为系统提示词。
Llama3大模型原理代码精讲与部署微调评估实战
05-26
本课程了有关Transformer和大语言模型(LLM)的关键前置知识, 包括注意力机制、多头注意力、编码器-解码器结构等Transformer原理, 以及LLM的文本生成和LLM微调技术原理。在此基础上, 重点介绍了Llama 3模型的进化历程、技术原理和代码实现。其中涉及RMSNorm归一化、SwiGLU激活函数、RoPE位置编码、GQA注意力和KVCache等关键技术。通过代码解析, 深入剖析了Llama 3的架构设计和代码实现。在实践部分, 课程还介绍了如何在阿里云使用Ollama和vLLM部署Llama 3模型, 以及使用llama_factory工具进行基于LoRA和QLoRA的llama3 8B大模型微调。项目实战环节则提供了从准备数据集到训练、推理、评估的全流程指导, 聚焦中文增强和医疗问答两大应用方向。这是一门内容全面、理论实践并重的大模型课程。不仅系统讲解了LLM和Llama 3的技术原理, 还通过代码解析和实战项目深度剖析了相关技术在工程落地中的关键环节, 有助于学员全面掌握大模型相关知识和动手实战能力。-------------------------------------------------------------------------------具体课程内容如下:前置知识1:Transformer原理与代码精讲- 注意力机制:了解注意力机制如何使模型能够捕捉输入序列中不同位置之间的相关性。- 自注意力:解释自注意力如何允许序列的每个元素都与序列中的其他元素进行交互。- 多头注意力:探讨多头注意力如何通过并行处理多个注意力层来增强模型的能力。- 位置编码:学习位置编码如何为模型提供序列中单词的位置信息。- 编码器和解码器:深入分析Transformer的编码器和解码器结构,以及它们在模型中的作用。- 层归一化(LayerNorm)和前馈网络(FFN):介绍这两种技术如何帮助稳定和增强模型的训练过程。- 代码精讲:讲解Transformer模型的PyTorch代码实现细节等。 前置知识2:大模型(LLM)文本生成- LLM的推理方式- LLM的文本生成模式: 主要有Completion模式和Chat模式两种- LLM的文本生成策略: 包括贪婪搜索、束搜索、随机采样、温度采样、Top-k采样和Top-p采样等- LLM中的Token与分词器- llama3的文本生成过程- LLM文本生成的预填充和解码阶段- LLM文本生成中的Q、K、V机制 前置知识3:大模型微调原理- LLM的开发流程可分为预训练、有监督微调、奖励建模和强化学习四个阶段- 从基座模型到对话模型的转变。- 针对特定领域的SFT微调- 微调的技术方法包括全参微调、冻结微调、LoRA、QLoRA- LoRA技术原理和有效性- QLoRA技术原理 Llama3进化史和生态 Llama3原理精讲- Llama3模型架构- RMSNorm归一化技术- SwiGLU激活函数- RoPE旋转位置编码- GQA分组查询注意力- KVCache Llama3代码解析- 各文件功能- completion和chat应用脚本代码解析- generation.py代码解析- model.py代码解析- tokenizer.py代码解析- RMSNorm代码解析- SwiGLU代码解析- GQA代码解析- RoPE代码解析- KVCache代码解析 Llama3部署- Ollama部署llama3-阿里云免费GPU算力领取及实例创建、ollama安装、llama3推理- VLLM部署llama3 Llama3项目实战1-llama_factory微调llama3中文增强大模型- llama_factory介绍- llama_factory安装及llama3模型下载- LoRA微调训练llama3 8B Instruct模型- llama3中文增强大模型推理- llama3中文增强大模型评估(MMLU, CEVAL, CMMLU)- LoRA文件合并 Llama3项目实战2-llama_factory微调llama3医疗问答大模型(LoRA)- 准备医疗问答大模型数据集- LoRA微调训练llama3 8B Instruct模型- llama3医疗问答大模型推理 Llama3项目实战3-llama_factory微调llama3医疗问答大模型(QLoRA)- QLoRA微调训练llama3 8B Instruct模型- llama3医疗问答大模型推理-----------------------------------------------------------------------------------购课后可加入课程学习QQ群:364717673
Ollama 安装、运行模型(CPU 实操版)
最新发布
宇宙有只 AGI 的博客
10-09 603
1. 操作步骤 1.1 安装 # 通过 homebrew 安装 brew install ollama 1.2 验证(可跳过) # 输出命令使用提示则安装成功 ollama --help 1.3 启动服务端 # 启动 ollama 服务(默认在 11434 端口,模型文件在 ~/.ollama) ollama serve 1.4 跑通第一个模型 # 新开一个终端窗口,执行如下命令(将下载并运行 Q...
使用CPU运行llama 70B版本
m0_61394395的博客
11-16 864
输入:"server.exe" --ctx-size 4096 --threads 16 --model llama-2-70b-chat.ggmlv3.q8_0.bin --gqa 8。使用CPUZ查看CPU指令集是否支持AVX512,或者其他,根据自己的CPU下载具体文件。如果猜的没错的话,模型有多大,就需要多大内存,根据自己的内存选择。下载llama.cpp(选择2023年8月21号之前的版本)创建一个文件夹,将文件解压进来。根据自己下的模型名修改上面的参数。将模型解压放在刚刚的文件夹里。
部署私有化大模型ollama,造一个私人小秘书
CSDN_224022的博客
08-18 1581
windows 的安装默认不支持修改程序安装目录, 默认安装后的目录:C:\Users\username\AppData\Local\Programs\Ollama 默认安装的模型目录:C:\Users\username\ .ollama 默认的配置文件目录:C:\Users\username\AppData\Local\Ollama。💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。即可和大语言模型对话。
ollama本地部署大模型(纯CPU推理)实践
缘友一世的博客
03-31 1万+
一个开源的大型语言模型服务提供类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。针对 LLM 用户友好的 WebUI,支持的 LLM 运行程序包括 Ollama、OpenAI 兼容的 API。
ollama离线安装,在CPU运行它所支持的那些量化的模型
人工智能
05-12 899
ollama离线安装,在CPU运行它所支持的哪些量化的模型 总共需要修改两个点,第一:Ollama下载地址;第二:Ollama安装包存放目录。第二处修改,修改ollama安装目录。第一处修改,注释下载链接。
AIGC 实战:如何使用 Ollama 开发自定义的大模型(LLM)
surfirst的博客
02-27 1万+
虽然 Ollama 提供了运行和交互式使用大型语言模型(LLM)的功能,但从头开始创建完全定制化的 LLM 需要 Ollama 之外的其他工具和专业知识。然而,Ollama 可以通过微调在定制过程中发挥作用。以下是细分说明
ollama 大预言模型与多模态模型使用
weixin_41870426的博客
04-14 3119
此外,Baklava 模型可能采用了一些先进的深度学习架构,如 Transformer,来处理序列数据,并利用注意力机制(Attention Mechanism)来聚焦于输入数据中的关键部分。例如,在视觉问答任务中,模型不仅需要理解问题的文本内容,还需要分析图像中的相关视觉信息,以生成准确的答案。:LangChain Ollama可能具备持续学习和优化的能力,能够根据新的数据和反馈不断改进模型的性能。上面的流程为使用ollama 进行对多模态模型的应用,通过大模型来理解图片中的内容。
ollama 使用自己的微调模型
spiderwower的博客
05-12 1万+
微调大模型的方法,这里不展开说,我使用的lora微调方法。微调大模型需要比较高的显存,推荐在云服务器上进行训练,系统环境为linux。
羊驼家族Ollama,window版本,本地大模型
05-15
用户也可以方便地在自己电脑上玩转大模型Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama...
羊驼家族Ollama,Linux版本,本地大模型
05-16
用户也可以方便地在自己电脑上玩转大模型Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama...
Ollama深度探索:AI模型本地部署的全面教程
寻道码路,探索编程之路的无限可能。
06-21 6658
我们正处在人工智能技术飞速发展的时代,其中大型语言模型(LLMs)已成为技术革新的前沿话题。这些模型以其强大的语言理解和生成能力,正在改变我们与机器交互的方式,并在自然语言处理(NLP)、内容创作、代码生成等多个领域展现出巨大的潜力。 Ollama作为一个创新的工具,它的核心使命是简化大型语言模型在本地环境中的运行和管理。这不仅为开发者提供了一个强大的平台来部署和定制AI模型,而且也使得终端用户能够更加私密和安全地与这些智能系统进行交互。
Ollama 如何排除故障
python123456_的博客
06-03 1786
有时,Ollama 可能无法如你所愿运行。解决问题的一个好方法是查看日志。(使用 docker ps 可以找到容器的名字)如果你是在终端里手动运行 ollama serve,那么日志会显示在该终端上。在 Windows 上运行 Ollama 时,日志的存放位置有一些不同。Ollama 内置了多个为不同 GPU 和 CPU 向量特性编译的大语言模型(LLM)库。Ollama 会尝试根据你的系统能力选择最合适的库。
llama3入门训练和部署
weixin_39107270的博客
05-23 1280
使用:在这里插入图片描述。
[玩转AIGC]如何训练LLaMA2(模型训练、推理、代码讲解,并附可直接运行的kaggle连接)
热门推荐
六五酥的博客
07-31 2万+
Llama 2,基于优化的 Transformer 架构,是Meta AI正式发布的最新一代开源大模型,一系列模型(7b、13b、70b)均开源可商用,效果直逼gpt3.5,本文以LLaMA2.c来说明如何基于LLaMA2来训练一个故事生成模型,主要包括数据处理,模型训练,模型推理,关键代码简介等等。
ollama】(4):在autodl中安装ollama工具,配置环境变量,修改端口,使用RTX 3080 Ti显卡,测试coder代码生成大模型
freewebsys的专栏
03-12 5603
Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。速度哦还是挺快的,经过一段时间的等待就可以服务启动成功了。
支持多平台,无需GPU!仅需8G内存即可部署运行模型
fangfengzhen115的专栏
03-06 1733
支持多平台,无需GPU!仅需8G内存即可部署运行模型
306
原创
6483
点赞
5422
收藏
4541
粉丝
关注
私信
写文章

热门文章

  • Ollama + Openwebui 本地部署大型模型与交互式可视化聊天 3397
  • 本地部署 Llama3 – 8B/70B 大模型! 3249
  • 大模型时代已至,产品经理如何紧跟时代步伐? 2802
  • 大语言模型LLM原理篇 2486
  • 【大模型系列教程】(二)揭秘:大模型的分类与主流模型一览 2463

最新评论

  • 本地部署 Llama3 – 8B/70B 大模型!

    27730: 本地部署8b的玩玩得了,部署70b的是不是得借资源?

  • 本地部署 Llama3 – 8B/70B 大模型!

    父子文: 博主,在运行 `docker run` 后没任何显示怎么办呀

  • Ollama + Openwebui 本地部署大型模型与交互式可视化聊天

    DebugDiva: Ollama结合Openwebui让大型语言模型本地部署变得轻松,还能视觉化聊天,真是一大创新。无需编程,模型随换随用,资源丰富,从学习到应用一应俱全,对新手特别友好。

  • 大模型与知识智能:心理疾病治疗的新希望

    qwercity: 所以,有大模型和知识智能技术在心理疾病领域应用的论文吗?感觉很难找到。

  • AI大模型开发入门:OpenAI API的Hello World

    Kwan的解忧杂货铺@新空间代码工作室: 博主的博客每一篇博文都如一本启发书,我从中汲取灵感,希望博主继续为我们献上这些珍宝。是我的学习良师,每篇文章都充满见解,让我茅塞顿开,你的文章总是让我对复杂的主题有更深入的理解,非常感激你的专业分享。期待更多分享。

最新文章

  • 掌握大模型:八本精华书籍助力职业发展
  • 精通RAG:15种高级技术全面优化检索与生成
  • 腾讯大模型岗面试好强啊,真的hold不住了
2024
10月 29篇
09月 56篇
08月 67篇
07月 64篇
06月 73篇
05月 18篇
04月 4篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家兴国玻璃钢雕塑制作随州玻璃钢雕塑摆件定制做玻璃钢雕塑多少钱一平米汕头美陈玻璃钢动物雕塑书形玻璃钢雕塑济南常见商场美陈玻璃钢动漫雕塑批发出售罗马柱玻璃钢雕塑安康玻璃钢牌匾雕塑商场美陈节点盐田玻璃钢卡通雕塑桃子玻璃钢雕塑哪家好贵州省玻璃钢雕塑雕塑池州特色玻璃钢雕塑玻璃钢商场摆件雕塑南京红色玻璃钢花盆西安 玻璃钢花盆吉林环保玻璃钢雕塑多少钱聊城仿真蔬菜玻璃钢雕塑玻璃钢文学作品雕塑肇庆玻璃钢动物雕塑批发天津公园玻璃钢雕塑公司公仔玻璃钢卡通雕塑生产永济玻璃钢花盆花器枣庄神像玻璃钢雕塑北京曲阳玻璃钢雕塑包头玻璃钢雕塑卡通白银玻璃钢动物雕塑多少钱万盛玻璃钢仿铜雕塑南昌玻璃钢雕塑哪家好香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化