网易首页 > 网易号 > 正文 申请入驻

Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由

0
分享至

之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。

系统硬件介绍

Ubuntu 22.04.4 LTS

CPU: i5-10400F

内存:32G

硬盘: 512G SSD

显卡: NVIDIA GeForce GTX 1060 6GB

内网IP: 192.168.1.21


下载 Ollama

访问下载: https://ollama.com/


安装Ollama 方法1、命令行下载安装(耗时长)

安装命令:

$ sudo apt  install curl

$ curl -fsSL https://ollama.com/install.sh | sh

缺点: 国内网络环境要等很久

方法2 , 手动下载安装

1、手动下载 https://ollama.com/install.sh 这个文件

$ sudo mkdir ollama
cd ollama
$ sudo wget https://ollama.com/install.sh

2、注释掉下载部分 curl xxxx 手动下载ollama-linux-{ARCH}

$ sudo vim install.sh

修改文件:
status "Downloading ollama..."
#curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"

我电脑intel/amd cpu 所以 {ARCH} = amd64 浏览器下载 https://ollama.com/download/ollama-linux-amd64 当然科学上网速度更快哟。 放在 install.sh 同目录下

3、注释掉 #$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama

改为下面一行:

$ sudo vim install.sh

修改文件:
status "Installing ollama to $BINDIR..."
$SUDO install -o0 -g0 -m755 -d $BINDIR
#$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
$SUDO install -o0 -g0 -m755 ./ollama-linux-amd64  $BINDIR/ollama

4 运行 install.sh ,安装

sh  ./install.sh


重启电脑

配置模型下载路径

cd 
sudo vim .bashrc

sudo mkdir -p /home/star/ollama/ollama_cache

然后添加一行 配置 OLLAMA_MODELS 环境变量自定义路径

### ollama model dir 改为自己的路径
# export OLLAMA_MODELS=/path/ollama_cache
export OLLAMA_MODELS=/home/star/ollama/ollama_cache

如果开始没配置OLLAMA_MODELS ,默认路径是/usr/share/ollama/.ollama/models

启动ollama服务

# ollama --help
Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

提示

star@star-ai:~$ ollama serve
Couldn't find '/home/star/.ollama/id_ed25519'. Generating new private key.
Your new public key is: 

ssh-ed25519 AAAAC3NzaC1lZDI1NTE5AAAAIPmYsSi6aIsyhC4EHEsCdBtSOqnfKmNVSf0Ofz9sVzyB

Error: listen tcp 127.0.0.1:11434: bind: address already in use

说明已经运行

修改ollama端口

vim /etc/systemd/system/ollama.service
在 [Service] 下添加  Environment="OLLAMA_HOST=0.0.0.0"

cat /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target

重新加载配置,重启ollama

systemctl daemon-reload

systemctl restart ollama

关闭服务
systemctl stop ollama
启动服务
systemctl start ollama
运行qwen大模型

ollama run  qwen
安装docker

一键安装脚本

sudo curl -sSL https://get.docker.com/ | sh

安装完成之后
star@star-ai:~$ sudo docker --version
Docker version 26.1.3, build b72abbb
安装Open WebUI

Open WebUI是一个用于在本地运行大型语言模型(LLM)的开源Web界面。

参考: https://docs.openwebui.com/getting-started/#quick-start-with-docker-

docker安装open-webui

$ sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

$ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

改国内的地址

$ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda

报错:

sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda
254b47e7994b2f0087ce0058918621523b39cf9b0e89018777c0cf98943ba2d1
docker: Error response from daemon: could not select device driver "" with capabilities: [[gpu]].

ubuntu识别不了我的显卡

$ sudo nvidia-smi
Fri May 17 18:37:15 2024       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 550.54.15              Driver Version: 550.54.15      CUDA Version: 12.4     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce GTX 1060 6GB    Off |   00000000:01:00.0 Off |                  N/A |
| 40%   33C    P8              6W /  120W |      65MiB /   6144MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|    0   N/A  N/A      1030      G   /usr/lib/xorg/Xorg                             56MiB |
|    0   N/A  N/A      1109      G   /usr/bin/gnome-shell                            4MiB |
+-----------------------------------------------------------------------------------------+

安装nvidia-container-toolkit: 确保你已经安装了nvidia-container-toolkit,并配置Docker以使用该工具包:

sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

检查Docker默认运行时配置: 确保Docker的默认运行时设置为nvidia。编辑Docker的配置文件(通常位于/etc/docker/daemon.json),并添加或修改如下内容:

sudo vim /etc/docker/daemon.json
添加:

{
  "default-runtime": "nvidia",
  "runtimes": {
    "nvidia": {
      "path": "nvidia-container-runtime",
      "runtimeArgs": []
    }
  }
}
编辑完文件后,重启Docker服务:
sudo systemctl restart docker

检查NVIDIA Container Runtime兼容性: 确保你的NVIDIA Container Runtime版本与Docker版本兼容。可以通过以下命令查看版本:

sudo docker version

nvidia-container-runtime --version

完成上述步骤后,再次尝试运行你的Docker命令。如果问题仍然存在,请提供更多的系统信息和日志,以便进一步诊断问题。

sudo docker start open-webui
登录open-webui

用IP+端口访问


修改语言为中文

OpenWebUI默认是英文的,所以修改语言为简体中文。


OpenWebUI不能连接Ollama

报错:WebUI could not connect to ollama


修改地址:http://192.168.1.21:11434


再下载千问的模型 qwen


下载大模型

ollama官方的模型仓库参见这里:https://ollama.com/library


根据自己的CPU和GPU选择合适的大模型,否则会很卡。

比如测试用的1060使用qwen:72b就很卡,问一个问题要等很久,几乎是不能用的状态。

阿里巴巴的大模型:
ollama run  qwen
ollama run qwen:14b
ollama run qwen:32b
ollama run qwen:72b
ollama run qwen:110b   # 110b 表示该模型包含了 1100 亿(110 billion)个参数


脸书大模型:
ollama run llama2
ollama run llama3
ollama run llama3:8b

谷歌的大模型:
ollama run gemma

微软的大模型
ollama run phi3
删除模型

显示所有模型
# ollama list

删除模型
# ollama rm llama3:latest
ubuntu查看GPU负载

nvidia-smi

确实在ubuntu20.04系统下确实比window10系统使用Ollama更加流畅。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
意大利部长态度也变了,由“欢迎中企投资”到“建议欧盟全面对华加税”

意大利部长态度也变了,由“欢迎中企投资”到“建议欧盟全面对华加税”

好笑娱乐君每一天
2024-06-01 08:08:25
BBR夺冠概率:凯尔特人高达91.3% 独行侠仅8.7%

BBR夺冠概率:凯尔特人高达91.3% 独行侠仅8.7%

直播吧
2024-06-01 18:10:18
马筱梅大爆料!新婚次日即向台媒揭露真相

马筱梅大爆料!新婚次日即向台媒揭露真相

圈里的甜橙子
2024-05-31 16:27:08
前经纪人写歌怒骂张柏芝!曝她黑历史比书还厚,歌词曝光信息量大

前经纪人写歌怒骂张柏芝!曝她黑历史比书还厚,歌词曝光信息量大

缘浅娱深
2024-06-01 16:27:11
蔡崇信最新发声:我们认为现在正逐渐进入一个稳定的监管环境阶段,希望能够在2027财年实现两位数的增长

蔡崇信最新发声:我们认为现在正逐渐进入一个稳定的监管环境阶段,希望能够在2027财年实现两位数的增长

新经济学家智库
2024-06-01 21:52:23
奇迹!四川村民放田水时捕获重达14.3公斤的巨型鲵!

奇迹!四川村民放田水时捕获重达14.3公斤的巨型鲵!

亿通电子游戏
2024-05-31 10:06:12
CBA外援被裁65天仍不离开 他曾是NBA高顺位新秀

CBA外援被裁65天仍不离开 他曾是NBA高顺位新秀

林子说事
2024-06-01 23:55:35
中国邮政员工自爆工资收入明细

中国邮政员工自爆工资收入明细

侃故事的阿庆
2024-06-01 20:14:45
太可怕了!细思极恐,上海家长集体报警

太可怕了!细思极恐,上海家长集体报警

月亮姐姐sz
2024-06-01 20:35:24
魅力熟女:散发成熟韵味

魅力熟女:散发成熟韵味

花小猫的美食日常
2024-06-02 04:06:11
阿里纳斯:库里和约基奇都不是划时代的天才 天才是无法模仿的

阿里纳斯:库里和约基奇都不是划时代的天才 天才是无法模仿的

直播吧
2024-06-01 16:13:18
深圳遍地“新穷人”: 还完房贷车贷,就光溜溜的什么都不剩了

深圳遍地“新穷人”: 还完房贷车贷,就光溜溜的什么都不剩了

大风文字
2024-06-02 09:30:12
太讽刺!大S再嫁具俊晔后,“当时有多嚣张,现在就有多落魄!”

太讽刺!大S再嫁具俊晔后,“当时有多嚣张,现在就有多落魄!”

娱乐八卦木木子
2024-05-31 15:11:29
朱婷首发出战,中国女排找回状态3比0大胜泰国

朱婷首发出战,中国女排找回状态3比0大胜泰国

澎湃新闻
2024-06-01 20:56:43
抑郁症其实就是个脾病,焦虑症,是被吓出来的病,祸根并不在大脑

抑郁症其实就是个脾病,焦虑症,是被吓出来的病,祸根并不在大脑

漫步风雨中
2024-05-24 12:55:20
71年,毛主席和梁兴初聊天,敲打道:你喝林彪的茶,不是他的人?

71年,毛主席和梁兴初聊天,敲打道:你喝林彪的茶,不是他的人?

历史龙元阁
2024-06-01 12:27:12
北京:开立电话卡、银行账户不得超出规定数量

北京:开立电话卡、银行账户不得超出规定数量

北青网-北京青年报
2024-05-31 22:29:03
从外商直接投资暴跌80%看社会发展的关键

从外商直接投资暴跌80%看社会发展的关键

君子天道
2024-02-21 22:39:04
唏嘘?35岁罗伊斯登场后多特连丢2球!赛后孤独蹲地目睹皇马狂欢

唏嘘?35岁罗伊斯登场后多特连丢2球!赛后孤独蹲地目睹皇马狂欢

我爱英超
2024-06-02 10:32:27
孙卓高考在即母亲发文感谢深圳二高2年多保护隐私,孙海洋更厉害

孙卓高考在即母亲发文感谢深圳二高2年多保护隐私,孙海洋更厉害

九方鱼论
2024-06-02 07:46:49
2024-06-02 11:20:49
星哥说事
星哥说事
星哥跟你说说工作生活的那些事
77文章数 180关注度
往期回顾 全部

科技要闻

成功着陆!嫦娥六号将开始月背“挖宝”

头条要闻

爆火的郭有才曾边烤腰子边唱歌 粉丝多为"小镇中老年"

头条要闻

爆火的郭有才曾边烤腰子边唱歌 粉丝多为"小镇中老年"

体育要闻

我已伤痕累累 却依然感动不了命运之神

娱乐要闻

白玉兰提名:胡歌、范伟争视帝

财经要闻

新造车5月销量: 小鹏乏力 问界暂"缺席"

汽车要闻

吉利银河E5 Flyme Auto智能座舱首发

态度原创

数码
本地
时尚
公开课
军事航空

数码要闻

10 核变 9 核 GPU 版 M2,2024 款 iPad Air 官网技术规格更新

本地新闻

食味印象|歙县限定!枇杷味儿的清甜初夏

真正不显老的女人,都不烫大妈卷和穿老年服装,打扮自然得体

公开课

近视只是视力差?小心并发症

军事要闻

匈牙利总理:欧洲已进入对俄开战准备阶段

无障碍浏览 进入关怀版