新闻| 文章| 资讯| 行情| 企业| wap手机版| article文章| 首页|会员中心|保存桌面|手机浏览
普通会员

易达信息科技

企业列表
新闻列表
推荐企业新闻
联系方式
  • 联系人:依依
友情链接
  • 暂无链接
首页 > 新闻中心 > 离线免费用 DeepSeek本地傻瓜式安装部署流程
新闻中心
离线免费用 DeepSeek本地傻瓜式安装部署流程
发布时间:2025-02-20        浏览次数:5        返回列表

作者:Timeow

离线免费用 DeepSeek本地傻瓜式安装部署流程

新年快乐!

这几天虽然过年,但 deepseek 在科技圈的热度显然超过了春节啊!

nclick=''>

目前手机端 app 虽然能用,但网络和服务端过载,用起来还是很吃力的,况且在线版的还会有很多限制,在高强度使用时肯定是不如本地部署的离线版的。所以我就在自己的独显电脑上搞定了 deepseek,而且非常简单!

这个流程我会假设你对编程和命令行操作有一点点了解,虽然很简单,但我也会尽量详细解释每一步。

安装大语言运行框架

nclick=''>

Ollama 是一个开源的 AI 工具,支持本地运行各种模型,包括 GPT-4、deepseek 等。我们要用 deepseek 就必须要安装运行框架

nclick=''>

打开 Ollama 的官网:ollama.com,或者去 github 下载(开源的项目),如果你是 Windows 的话,就下载 Windows 的版本并安装。

克隆代码仓库 部署大模型

接着,我们可以在 Ollama 的官网直接打开 deepseek 大模型的拉取链接,在 models 里选择 deepseek-r1 即可。

nclick=''>

这时候,我们要根据显卡来选择大小不同的模型,如果你的显卡显存很大,可以选择更大一些。我的显卡是 4080,显存是 16GB,官方推荐用 32b 大小的 deepseek 模型。

nclick=''>

复制 ollama run deepseek-r1:32b,在 cmd 中粘贴并 enter:

nclick=''>

我选的 32b 大小的 deepseek 模型,文件大小是 19GB,克隆 / 下载速度还是很快的。

nclick=''>

完成后,就环境和大模型就算搭建好了。我们在 cmd 里可以直接输入 ollama run deepseek-r1:32b 命令来使用 deepseek。

用 chatbox 搭建界面

但对于大多数没有编程基础的玩家来说,命令行用起来繁琐不够直观,接下来可以通过搭建用户界面来运行。

nclick=''>

我选的是开源的 chatbox ai 工具

nclick=''>

去他们官网 chatboxai.app/zh 或 github 上下载安装所需的版本。

nclick=''>

打开后,模型提供方选择 OLLAMA API,模型选择 deepseek-r1:32b,完成!

nclick=''>

接下来就是愉快的使用过程了。还挺爽!

以上的工具其实都很傻瓜,用起来就是这么简单,对于大多数普通人来说也已经足够使用了。

nclick=''>

现在这个时代,关于 "AI 是否能替代我们 " 这样事情,其实大可不必惊恐,面对 AI 唯有为我所用才能让自己立于有利位置,毕竟 AI 也是人做出来的,不是吗?

本文来自什么值得买网站(www.smzdm.com)。