网易首页 > 网易号 > 正文 申请入驻

简单3步部署本地国产大模型DeepSeek大模型

0
分享至


简单3步部署本地国产大模型DeepSeek大模型

DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。

无奈,在使用时候deepseek总是提示服务器繁忙,请稍后再试。

本文将介绍如何通过简单 3 步在本地部署 DeepSeek 大模型,让你能够轻松体验这一强大的 AI 工具。

• 冲击国际AI竞争态势:打破了美国等西方国家的AI巨头长期领先的局面,使全球AI竞争进入技术多极化时代,如微软、亚马逊云科技、英伟达等国际科技巨头纷纷宣布接入DeepSeek。

  • • 引发行业洗牌:其他AI公司感受到压力,加快技术研发和创新步伐,如OpenAI紧急上线新一代推理模型,阿里云发布升级版通义千问旗舰模型。

  • 影响全球科技股市场
    • • 引发股价波动:英伟达等芯片制造商以及美国的微软、Meta和谷歌母公司Alphabet等科技巨头的股价受到冲击。

    • • 改变投资风向:吸引了大量资本的关注,让投资者对中国的AI产业有了更高的期待,可能会导致更多的资金流向中国的AI企业。

    推动全球AI技术发展
    • • 提供技术思路:在模型架构、算法等方面实现了多项创新,如采用创新性的混合专家架构等,为全球AI研究人员提供了新的思路。

    • • 加速技术普及:开源策略让更多的开发者和企业能够接触到先进的AI技术,降低了AI技术的使用门槛,加速其在各个领域的普及。

    影响社会文化领域
    • • 改变工作生活方式:在自然语言处理等方面的能力,可提高翻译、写作、代码生成等工作效率,在制定旅行攻略、翻译外语等日常生活场景中也广泛应用。

    • • 引发伦理监管讨论:国际社会对AI伦理问题关注度提升,数据安全、隐私保护和内容监管等问题成为焦点,促使各国制定更严格的AI大模型监管政策。

    环境准备

    部署方案:Ollama + DeepSeek-R1 + Open WebUI

    笔者的电脑硬件配置如下:

    系统: Window11

    CPU: 13th i7-13700KF

    内存: 32G

    显卡:Nvidia GeForce RTX 4070Ti

    可以运行大模型deepseek-r1的哪个版本的大模型?

    问deepseek得到的回答:

    最佳选择:优先尝试 DeepSeek-R1-7B 4-bit量化版,平衡速度和性能;若需要更高精度,可测试 DeepSeek-R1-13B 4-bit量化版(需确保显存无其他占用)。建议关注官方发布的轻量化版本或社区优化方案(如GPTQ)。

    什么是Ollama

    Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。

    提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。

    Ollama官网: https://ollama.com/

    Ollama GitHub仓库:https://github.com/ollama/ollama

    第一步、安装Ollama 下载Ollama

    Ollama下载地址:https://ollama.com/download

    支持macOS、Linux、Windows系统,根据自己的系统,下载安装包:

    Download for windows

    windows系统下安装也比较方便,双击打开 install

    安装完成没有提示,我们打开一个终端,本文以Windows PowerShell为例,大家也可以使用其他的:

    现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

    ollama run qwen
    image-20240511151819825

    安装成功,随便问几个问题。

    理论上就安装完成了,可以只在命令行中使用大模型了。

    修改路径文件保存路径

    可以不用改,如果C盘空间不够用,建议修改。

    可以看到,系统正在下载qwen的模型(并保存在C盘,C:\Users .ollama\models 如果想更改默认路径,可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务。)

    setx OLLAMA_MODELS "D:\ollama\model"
    运行DeepSeek

    https://ollama.com/library/deepseek-r1

    DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如 ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):

    在DeepSeek-R1系列中,还有1.5B、7B、8B、14B、32B、70B、671B等不同参数规模的型号。这些不同规模的模型在模型能力、资源需求和应用场景上有所不同。

    ollama run deepseek-r1:1.5b  【电脑配置低的可以运行此版本,根据文件大小和网络情况,下载时间也不确定】 ollama run deepseek-r1:7b ollama run deepseek-r1:8b ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b ollama run deepseek-r1:671b

    我这里选择运行7b(70亿参数)

    省流版命令: ollama list 和 ollama rm [模型名称] 。

    模型管理

    1. 1. 创建模型

      • • 命令: ollama create [Modelfile路径]

      • • 功能:使用包含模型信息的Modelfile来创建一个新模型。

    2. 2. 显示模型信息

      • • 命令1: ollama show [模型名称]

      • • 功能:显示特定模型的详细信息,如模型名称、版本等。

      • • 命令2: /show (在会话界面中使用)

    3. 3. 列出所有模型

      • • 命令1: ollama list

      • • 命令2: ollama ls

      • • 功能:列出本地所有可用的模型,可以在这里查找模型名称。

    4. 4. 从注册表中拉取模型

      • • 命令: ollama pull [模型名称]

      • • 功能:从模型注册表中拉取一个模型到本地使用。

    5. 5. 将模型推送到注册表

      • • 命令: ollama push [模型名称]

      • • 功能:将本地模型推送到模型注册表中,以便他人或其他系统使用。

    6. 6. 复制模型

      • • 命令: ollama cp [原模型名称] [新模型名称]

      • • 功能:复制一个模型到另一个位置或给定名称的地方。

    7. 7. 删除模型

      • • 命令: ollama rm [模型名称]

      • • 功能:删除一个已安装的模型。

    模型运行与会话管理
    1. 1. 运行模型

      • • 命令: ollama run [模型名称]

      • • 功能:运行一个已安装的模型,执行某些任务。可以根据需要指定模型的参数和配置。

    2. 2. 加载模型

      • • 命令: /load

      • • 功能:在会话界面中加载一个特定的模型或会话。可以指定一个模型的名称或路径来加载它。

    3. 3. 保存模型或会话状态

      • • 命令: /save

      • • 功能:在会话界面中保存当前的会话状态或模型。可以将当前会话或模型的配置保存为一个文件,以便以后使用。

    4. 4. 清理上下文

      • • 命令: /clear

      • • 功能:清除会话上下文。这将删除当前会话中的所有历史记录或对话内容。

    5. 5. 退出对话模型

      • • 命令: /bye

      • • 功能:退出当前与模型的对话,并退出程序。

    其他命令
    1. 1. 获取帮助信息

      • • 命令1: ollama help [命令名称]

      • • 命令2: ollama --help

      • • 功能:获取有关Ollama任何命令的帮助信息。如果指定了命令名称,则显示该命令的详细帮助信息。

    2. 2. 查看版本信息

      • • 命令1: ollama version

      • • 命令2: ollama -v

      • • 命令3: ollama --version

      • • 功能:显示当前Ollama工具的版本信息。

    3. 3. 查看快捷键

      • • 命令: /?shortcuts

      • • 功能:在会话界面中查看键盘快捷键的帮助信息,帮助更快速地进行操作。

    4. 4. 设置会话参数和配置

      • • 命令: /set 参数名 参数值

      • • 功能:用于设置会话参数和配置,例如设置消息格式、启用或禁用历史记录等。

    第二步、安装Docker

    Open WebUI是一个用于在本地运行大型语言模型(LLM)的开源Web界面。

    Open WebUI是在docker中安装的,所以要先安装docker。

    在window下安装docker 1.启动Hyper-v

    打开控制面板,在程序与功能页面选择启用或Windows功能

    然后,重启计算机。

    2.安装WSL

    打开 powershell,以管理员的身份启动命令窗口,输入

    wsl --install

    如果不是已管理员身份启动则会报错:请求的操作需要提升

    然后再次重启电脑。

    点击下载链接:https://docs.docker.com/desktop/install/windows-install/

    开源地址: https://github.com/open-webui/open-webui

    参考: https://github.com/open-webui/open-webui?tab=readme-ov-file#installation-with-default-configuration

    可以看到,如果你的Ollama和Open WebUI在同一台主机,那使用下面显示的这一行命令就可以在本地快速进行部署:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 由于我的电脑有GPU 此时我使用的是: docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

    现在我们打开终端,比如powershell,然后输入docker,回车

    然后将上边在docker中部署Open WebUI的命令复制后粘贴到终端中,回车。

    docker安装open-webui

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

    要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

    如果您仅使用 OpenAI API,请使用以下命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

    如果仅适用于 CPU,不使用 GPU,请改用以下命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    image-20240511173828471 使用浏览器Open WebUI

    安装完成后,在Docker Desktop中可以看到Open WebUI的web界面地址为:http://localhost:3000

    或者内网IP+端口,这样局域网的其他人也可以访问到,甚至是通过内网穿透,让其他人也可以访问。

    注册账号点击 sign up

    登录

    点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。

    点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,接下来就可以愉快的跟ai聊天了!

    从环境准备到获取模型文件,再到加载并运行模型,整个过程清晰明了,适合初学者和有一定经验的开发者。

    使用Ollama在本地搭建DeepSeek具有充分利用本地算力、保护数据隐私、便捷更新模型等优点,但同时也存在硬件要求高、技术门槛高、部署过程繁琐等缺点。用户在选择是否进行本地部署时,应根据自己的实际需求和技术水平进行权衡。

    写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!

    特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

    Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

    相关推荐
    热点推荐
    30岁小叔子和35岁嫂子去赶集,路过苞谷地,嫂子说这样一句话

    30岁小叔子和35岁嫂子去赶集,路过苞谷地,嫂子说这样一句话

    热心市民小黄
    2026-03-04 08:12:16
    英超史上最强降级队!狼队补时绝杀利物浦,三战连斩豪强震撼足坛

    英超史上最强降级队!狼队补时绝杀利物浦,三战连斩豪强震撼足坛

    田先生篮球
    2026-03-04 08:39:02
    世界空战史被改写:以色列F-35在德黑兰上空击落伊朗战机

    世界空战史被改写:以色列F-35在德黑兰上空击落伊朗战机

    桂系007
    2026-03-04 23:57:13
    付辛博庆生颖儿同框,两口子脸小又显年轻,大合照刘端端也“在”

    付辛博庆生颖儿同框,两口子脸小又显年轻,大合照刘端端也“在”

    玲儿爱唱歌
    2026-03-05 07:04:08
    A股:刚刚,两个大消息传来,释放一信号,一方向或迎来主升浪

    A股:刚刚,两个大消息传来,释放一信号,一方向或迎来主升浪

    云鹏叙事
    2026-03-05 00:00:07
    谢贤前女友又曝猛料!谢霆锋娶张柏芝并不是因为爱她,隐瞒所有人

    谢贤前女友又曝猛料!谢霆锋娶张柏芝并不是因为爱她,隐瞒所有人

    离离言几许
    2026-02-12 00:04:17
    2026款路虎揽胜上市 售价141.2-179.9万元

    2026款路虎揽胜上市 售价141.2-179.9万元

    车质网
    2026-03-04 09:18:13
    没想到竟然这么多工作需要保密的!网友:不让看非看被一枪毙了

    没想到竟然这么多工作需要保密的!网友:不让看非看被一枪毙了

    另子维爱读史
    2025-12-08 20:58:22
    宁可放弃中国市场,也不删镜头!《蜘蛛侠:英雄无归》没引进的真相终于来了

    宁可放弃中国市场,也不删镜头!《蜘蛛侠:英雄无归》没引进的真相终于来了

    小椰的奶奶
    2026-03-02 10:32:14
    女生主动起来有多黏人?网友:这些女的太开放了

    女生主动起来有多黏人?网友:这些女的太开放了

    带你感受人间冷暖
    2026-01-27 00:20:06
    革命卫队已事实独立!伊朗外长这句话把世界看懵了

    革命卫队已事实独立!伊朗外长这句话把世界看懵了

    凤眼论
    2026-03-04 07:41:50
    悲壮升空!伊教练机阻挡F-35:F-35首次取得击落战绩

    悲壮升空!伊教练机阻挡F-35:F-35首次取得击落战绩

    伴君终老
    2026-03-05 07:44:42
    上海影院现场意外捉奸,女子露面身材姣好,丈夫目睹后声音都变了

    上海影院现场意外捉奸,女子露面身材姣好,丈夫目睹后声音都变了

    让我的世界更加精彩
    2026-03-02 17:28:58
    麦基:我来北京是因为这是中国的大城市;我知道中国球迷为我疯狂

    麦基:我来北京是因为这是中国的大城市;我知道中国球迷为我疯狂

    懂球帝
    2026-03-04 16:34:43
    太惨了!燃油车再迎大降价,最大降幅50%,电车为何不敢接招?

    太惨了!燃油车再迎大降价,最大降幅50%,电车为何不敢接招?

    小李子体育
    2026-03-05 04:32:28
    迪丽热巴发文报平安:现在我和团队都已安全,很抱歉让大家担心;其IP地址显示为马来西亚,此前被曝滞留迪拜

    迪丽热巴发文报平安:现在我和团队都已安全,很抱歉让大家担心;其IP地址显示为马来西亚,此前被曝滞留迪拜

    扬子晚报
    2026-03-04 20:59:33
    有些地方机关事业单位退休人员退休金因为绩效奖金均摊到月而增加

    有些地方机关事业单位退休人员退休金因为绩效奖金均摊到月而增加

    郭爱华追问教育
    2026-03-05 06:29:26
    放在保险箱里的600克黄金没了,上海阿姨报警!这一细节很容易被忽略

    放在保险箱里的600克黄金没了,上海阿姨报警!这一细节很容易被忽略

    新民晚报
    2026-03-04 17:46:35
    建议大家:永远不要有职场羞耻症

    建议大家:永远不要有职场羞耻症

    洞见
    2026-03-04 09:55:44
    彻底完了!曼城被保级队逼平,球迷怒喷水货:有他在别想夺冠

    彻底完了!曼城被保级队逼平,球迷怒喷水货:有他在别想夺冠

    澜归序
    2026-03-05 06:40:10
    2026-03-05 08:44:49
    星哥说事 incentive-icons
    星哥说事
    星哥跟你说说工作生活的那些事
    302文章数 214关注度
    往期回顾 全部

    科技要闻

    4599元起!MacBook Neo发布:搭载A18 Pro

    头条要闻

    牛弹琴:美国开始借刀杀人 找到了颠覆伊朗的"马前卒"

    头条要闻

    牛弹琴:美国开始借刀杀人 找到了颠覆伊朗的"马前卒"

    体育要闻

    2026年中超,为什么值得你多看一眼?

    娱乐要闻

    谢谢谢娜 贡献出26年内娱的第一个笑话

    财经要闻

    陆铭:减少过度加班 按规定支付加班工资

    汽车要闻

    鸿蒙智行首款猎装车 尚界Z7/Z7T首发

    态度原创

    教育
    家居
    本地
    艺术
    数码

    教育要闻

    三年级思维训练,数形结合

    家居要闻

    极简无界 静居自安然

    本地新闻

    食味印象|一口入魂!康乐烤肉串起千年丝路香

    艺术要闻

    我们真的应该在中小学大力推广书法艺术吗?

    数码要闻

    苹果MacBook Neo笔记本配置解析:4599元起售,都有哪些妥协

    无障碍浏览 进入关怀版