windows下搭建ollama离线大模型服务
Ollama是一个由Facebook AI Research开发的开源、轻量级且高效的大型语言模型(LLM)框架。它旨在使研究人员和开发人员能够更轻松地在自己的硬件上部署和运行LLM,而无需专门的云计算资源。
Ollama
Ollama提供了一个简单直观的界面,用于加载、运行和评估LLM。它还支持各种自定义选项,允许用户根据特定需求定制LLM。
Ollama支持哪些大模型
phi:Phi-2是微软研究院推出的一款 27 亿参数的语言模型,展现出卓越的推理和语言理解能力。
完整的Ollama支持的大模型列表请查看:
https://ollama.com/library
Ollama支持Macos、Linux和Windows系统,我个人再用的windows版本ollama下载地址:
https://objects.githubusercontent.com/github-production-release-asset-2e65be/658928958/42649cc8-8e65-45e0-b4aa-ce2b161c3064?X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=releaseassetproduction%2F20240622%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Date=20240622T030707Z&X-Amz-Expires=300&X-Amz-Signature=21c7f15d68cf544a62e5f2f90c01ad6fca5f73ab9532bdf900afd14fa5dfc4bd&X-Amz-SignedHeaders=host&actor_id=0&key_id=0&repo_id=658928958&response-content-disposition=attachment%3B%20filename%3DOllamaSetup.exe&response-content-type=application%2Foctet-streamhttps://objects.githubusercontent.com/github-production-release-asset-2e65be/658928958/42649cc8-8e65-45e0-b4aa-ce2b161c3064?X-Amz-Algorithm=AWS4-HMAC-SHA256&X-Amz-Credential=releaseassetproduction%2F20240622%2Fus-east-1%2Fs3%2Faws4_request&X-Amz-Date=20240622T030707Z&X-Amz-Expires=300&X-Amz-Signature=21c7f15d68cf544a62e5f2f90c01ad6fca5f73ab9532bdf900afd14fa5dfc4bd&X-Amz-SignedHeaders=host&actor_id=0&key_id=0&repo_id=658928958&response-content-disposition=attachment%3B%20filename%3DOllamaSetup.exe&response-content-type=application%2Foctet-stream
一、安装Ollama
下面就开始手工安装:
1)下载完成后,直接点击运行安装
2)成功后,在右小角可以看到运行的图标。也可以在powershell执行 ollama命令,显示如下,表示安装成功了。非常简单。
二、配置模型路径
通过配置windows的环境变了,改变ollama模型存放的位置。我只配置了几个关键的变量,具体变量配置可以参考:在windows下使用本地AI模型提供翻译、对话、文生图服务_ollama 文生图-CSDN博客
- OLLAMA_MODELS:模型保存目录
- OLLAMA_HOST:服务监听地址,默认是监听localhost:11434,如果需要局域网其他设备访问可以设置为0.0.0.0,如果需要更改默认端口,可以设置为0.0.0.0:12345。
- OLLAMA_ORIGINS:跨域配置,如果有一些特殊需求,例如想让浏览器插件可以访问本地的ollama,正常操作时会报跨域错误,所以需要设置为*
三、下载模型和运行
查看ollama现有模型库,可以访问下面地址:library
1)选择模型
2)选择模型版本,若确定加载该版本模型,拷贝运行语句在powershell运行就开始下载模型了,如下:
ollama run llama3.1
模型下载完成后,自动run模型,就可以开始聊天了(Duxiaoman-DI-XuanYuan-13B-Chat是我自己的模型,改成自己下载的模型名称即可,如果不清楚,可以运行 ollama list查看本地下载好的模型)。
四、ollama兼容openai api的访问
我们做大模型开发,基本都是通过api来访问,并不是通过聊天界面进行的。所以下面介绍ollama的api访问示例:
API信息:
base_url改为自己的IP地址
[{
"model": "llama3.1",
"base_url": "http://192.168.0.110:11434/v1",
"api_key":"ollama" ,
"price": [0.0, 0.0],
}]
将上面的信息如实填写,运行代码即可。
#!pip install openai #如果没有安装openai包
from openai import OpenAI
client = OpenAI(
base_url = "http://192.168.0.110:11434/v1",
api_key = "ollama"#可以不输
)
completion = client.chat.completions.create(
model="llama3.1",
messages=[{"role":"user","content":"你好,请介绍下自己。"}],
temperature=0.2,
top_p=0.7,
max_tokens=1024,
stream=True
)
for chunk in completion:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")
引用:
https://zhuanlan.zhihu.com/p/694835506
在windows下使用本地AI模型提供翻译、对话、文生图服务_ollama 文生图-CSDN博客
作者:John·Zou