最近用了DeepSeek分析论文和代码,发现效果比ChatGPT-4o强很多,奈何经常报服务器繁忙。
希望DeepSeek早日推出收费服务!
还是本地安装一下吧,记录一下!
一、下载并启动安装
1、从官网下载 OllamaSetup.exe
官网地址:https://ollama.com
2、默认安装在C盘,可以先拷贝安装包到D盘或者其他盘
比如我准备安装到K盘,在K盘新建Ollama目录
3、执行安装命令
4、然后会弹出安装窗口,点击安装即可。
二、安装模型
1、模型选择:https://ollama.com/library/deepseek-r1
2、我的笔记本是英伟达3070的显卡,8G显存,我选的 7B 的模型
3、重新打开一个命令行窗口,输入 ollama run deepseek-r1:7b
我在学校的校园网下载不了,在家里能正常下载。
4、测试一下
安装完成后,可以直接在终端里输入问题
使用命令行还是不方便,下面我们会介绍用可视化工具来调用deepseek模型
三、安装和配置Cherry Studio
1、下载和安装
官网地址:https://www.cherry-ai.com
直接点击下载客户端,立即下载,双击安装包,自定义安装目录
安装完后,进入页面
2、点击左下角的设置
3、选择Ollama,打开右上角开关
然后点击管理按钮
4、对我们刚刚安装的模型,点加号
4、在设置里修改默认模型
不改的话,会报错:身份验证失败,请检查API密钥
四、测试使用
发现显存占用率不高,回答一些复杂问题,质量一般,我试试再安装一个14b的。
最后发现14b回答问题比较慢,思考需要80多秒,回答质量也不高,约等于ChatGPT-4o,还是得用官网的在线版DeepSeek的啊。
您可以选择一种方式赞助本站
支付宝扫一扫赞助
微信钱包扫描赞助
赏