作者:Timeow
新年快乐!
这几天虽然过年,但 deepseek 在科技圈的热度显然超过了春节啊!
目前手机端 app 虽然能用,但网络和服务端过载,用起来还是很吃力的,况且在线版的还会有很多限制,在高强度使用时肯定是不如本地部署的离线版的。所以我就在自己的独显电脑上搞定了 deepseek,而且非常简单!
这个流程我会假设你对编程和命令行操作有一点点了解,虽然很简单,但我也会尽量详细解释每一步。
安装大语言运行框架
Ollama 是一个开源的 AI 工具,支持本地运行各种模型,包括 GPT-4、deepseek 等。我们要用 deepseek 就必须要安装运行框架
打开 Ollama 的官网:ollama.com,或者去 github 下载(开源的项目),如果你是 Windows 的话,就下载 Windows 的版本并安装。
克隆代码仓库 部署大模型
接着,我们可以在 Ollama 的官网直接打开 deepseek 大模型的拉取链接,在 models 里选择 deepseek-r1 即可。
这时候,我们要根据显卡来选择大小不同的模型,如果你的显卡显存很大,可以选择更大一些。我的显卡是 4080,显存是 16GB,官方推荐用 32b 大小的 deepseek 模型。
复制 ollama run deepseek-r1:32b,在 cmd 中粘贴并 enter:
我选的 32b 大小的 deepseek 模型,文件大小是 19GB,克隆 / 下载速度还是很快的。
完成后,就环境和大模型就算搭建好了。我们在 cmd 里可以直接输入 ollama run deepseek-r1:32b 命令来使用 deepseek。
用 chatbox 搭建界面
但对于大多数没有编程基础的玩家来说,命令行用起来繁琐不够直观,接下来可以通过搭建用户界面来运行。
我选的是开源的 chatbox ai 工具
去他们官网 chatboxai.app/zh 或 github 上下载安装所需的版本。
打开后,模型提供方选择 OLLAMA API,模型选择 deepseek-r1:32b,完成!
接下来就是愉快的使用过程了。还挺爽!
以上的工具其实都很傻瓜,用起来就是这么简单,对于大多数普通人来说也已经足够使用了。
现在这个时代,关于 "AI 是否能替代我们 " 这样事情,其实大可不必惊恐,面对 AI 唯有为我所用才能让自己立于有利位置,毕竟 AI 也是人做出来的,不是吗?
本文来自什么值得买网站(www.smzdm.com)。