安装Ollama

安装引擎

地址:https://ollama.com/library/deepseek-r1:7b

打开cmd,复制右侧命令进行粘贴安装

安装本地文件读取引擎

ollama pull bge-m3

AI管理软件

https://github.com/CherryHQ/cherry-studio

添加引擎

选择左下角齿轮,选择ollama,选择管理

可以看到本地安装的引擎,点击加号

本地知识库建立及导入

左侧选择知识库,添加,随便输入名称,模型选择最小方本地引擎

添加好知识库后,点击知识库在右侧添加本地文件存放路径,开始初始化

开始对话训练

选择左侧对话按钮,在右侧选择本地引擎,即可对话

在对话框下方知识库勾选本地知识库后,所思考内容会同时参考本地所有文档

局域网内使用

默认情况下,Ollama 仅监听本地地址(127.0.0.1)。需通过环境变量 OLLAMA\_HOST 设置为 0.0.0.0:11434,使其监听所有网络接口:

添加变量

右键“此电脑” → “属性” → “高级系统设置” → “环境变量” → 新建系统变量 OLLAMA\_HOST,值设为 0.0.0.0:11434

开放防火墙

netsh advfirewall firewall add rule name="Ollama Port 11434" dir=in action=allow protocol=TCP localport=11434
正文到此结束

本文标题:DeepSeek本地搭建教程

本文链接:https://www.hantaosec.com/3803.html

除非另有说明,本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议

声明:转载请注明文章来源及链接,不带链接禁止任何转载!访问任何网络安全相关文章,则视为默认接受网络安全文章免责声明 ,请认真阅读。

喜欢我的文章吗?
别忘了点赞或赞赏,让我知道创作的路上有你陪伴。