如何用DeepSeek R1,让【人工智能】帮你构建专属个人知识库?
- 内容介绍
- 文章标签
- 相关推荐
大家好,很高兴又和大家见面啦!!!说实话,我的脑子真的不够用了。每天打开手机,各种资料、新闻、还有那些乱七八糟的推送,简直让人头大!你是不是也跟我一样,经常觉得“书到用时方恨少”,或者明明记得看过什么就是死活想不起来在哪看的?别慌,今天我们要聊的这个东西,绝对能救你的命。我们要用DeepSeek R1,这个最近火得一塌糊涂的人工智能,来搞一个专属的个人知识库。听起来是不是很高大上?其实操作起来只要你跟着我一步步来绝对没问题,在理。!
DeepSeek R1:不仅仅是聊天 它是你的大脑外挂
先说说咱们得聊聊DeepSeek R1。这玩意儿在开源领域简直就是个现象级的存在。你知道吗?它的满血版,也就是完整参数版,在保持70B的一边,居然通过架构优化把推理效率提升了3倍!3倍啊朋友们, 容我插一句... 这是什么概念?这意味着它特别适合咱们这种本地知识库的场景。但是说实话,开发者们也面临两大痛点:一是怎么低成本获取高性能模型,二是怎么保障数据隐私。毕竟谁也不想自己的小秘密被传到云端到处飞吧?

所以我们今天要做的,就是把DeepSeek R1装在本地,让它乖乖地为我们服务。这就像是你养了一只超级聪明的宠物,而且这只宠物还只听你一个人的话。 划水。 在开始之前, 我们先来看看DeepSeek R1的几个版本,大家可以,到时候电脑卡成PPT可别怪我没提醒你。
| 模型版本 | 显存需求 | 适用场景 | 推荐指数 | |
|---|---|---|---|---|
| DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | ~3GB | 低配置电脑, 简单问答 | ★★★☆☆ |
| DeepSeek-R1-Distill-Qwen-7B | 7B | ~8GB | 家用游戏本,中等复杂度任务 | ★★★★☆ |
| DeepSeek-R1-Distill-Llama-8B | 8B | ~10GB | 高性能台式机,逻辑推理 | ★★★★☆ |
| DeepSeek-R1 | 70B | ~40GB+ | 服务器级配置,专业领域研究 | ★★★★★ |
换个角度。 看到了吧?如果你只是想试试水,1.5B其实也够用了。但是想要那种“丝般顺滑”的体验,我还是建议你尽量往上冲。好了选好了模型,咱们就进入正题。搭建个人知识库的第一步,是确保你的设备已经成功部署DeepSeek。若尚未安装,你可以参考来完成安装操作。这里我就不啰嗦了毕竟今天的重点是后面的“大戏”。
安装AnythingLLM:你的知识指挥官
光有DeepSeek还不够, 我们还需要一个管家,这就是AnythingLLM。这是一款全栈AI应用程序,堪称搭建本地知识库的关键组件。它能够与DeepSeek紧密协作,实现对各类文档的高效管理,以及智能问答功能。这就像是给DeepSeek装上了手和脚,让它不仅能思考,还能帮你干活,这就说得通了。。
总体来看... 先说说我们要去下载AnythingLLM。进入官网主页后直接点击下载,进入下载页面。选择自己电脑的系统,并下载对应的版本。这里还是建议大家安装到除C盘以外的其它磁盘中,确定好安装目录后就可以进行安装了。在安装过程中,系统可能会提示需要联网下载一些依赖库,如下图所示。这是主要原因是AnythingLLM的正常运行依赖这些库的支持, 所以请保持网络畅通,按照系统提示逐步完成安装。
双击安装程序,程序开始运行后会弹出一个选择安装用户的窗口。这里大家可以根据自己的需求进行选择,选择好用户后就可以选择安装目录了。主要原因是我的是Windows系统, 这里我就无法为大家展示MAC的安装过程了苹果用户你们懂的, 站在你的角度想... 总是那么特立独行。等待安装完成,打开软件,你会看到简洁直观的界面。直接点击Get started,即可进入后续操作步骤。
配置模型:搭建通往AI的桥梁
成功安装AnythingLLM后 打开软件,先说说要创建一个工作区。工作区就像是个人知识库的“指挥中心”,所有的知识文档管理和操作都将围绕它展开。在AnythingLLM界面的左下角,点击“扳手”图标,进入设置页面。接下来本文将介绍如何利用DeepSeek-R1模型的能力,借助Ollama与AnythingLLM两个工具,实现个人知识库的构建。
YYDS... 这一步非常关键,千万别搞砸了。在“LLM首选项”中,选择Ollama作为对话模型,然后输入DeepSeek的IP地址。如果是本地运行的实例, 输入“http://127.0.0.1:11434”,注意一定要加上“http://” 。这一步就如同搭建一座桥梁,让AnythingLLM能够与DeepSeek建立通信连接,实现数据交互。这个IP地址就像是一座桥梁,一端连接着AnythingLLM,另一端连接着DeepSeek。当用户在AnythingLLM的对话页面输入问题时 AnythingLLM会借助这个IP地址,将问题准确无误地传递给DeepSeek。
DeepSeek接收到问题后 会基于其自身强大的语言理解和生成能力,以及知识库中的文档内容进行分析和处理,再说说生成回答并通过IP地址原路返回给AnythingLLM,呈现在用户面前。 C位出道。 比方说 当用户询问关于某专业领域的问题时DeepSeek会在知识库中搜索相关文档,运用其语言推理能力组织答案,再通过IP地址将答案将答案反馈给用户,实现高效的智能问答交互。
除了LLM,我们还需要配置Embedder。找到人工智能提供商 - Embedder首选项,选择嵌入引擎提供商为Ollama。这里给大家展示的是通过Ollama完成的 nomic-embed-text 文本嵌入模型的安装。nomic-embed-text是一款基于Sentence Transformers库的文本嵌入模型, 在众多文本嵌入模型中表现卓越,具备多种强大功能。从功能定位和应用场景来看, nomic-embed-text侧重于文本处理和相似性分析,影响着知识库中文本信息的组织和检索方式,提升了知识库检索的准确性和效率,整一个...。
不堪入目。 完成配置后 可以看到右上角有一个 Save changes 的选项,点击该选项保存配置的更改,之后点击左下角的返回箭头的图标,回到主页。此时我们点击右下角的 Okay, got it 即可。
别被这些新闻吓到了 咱们继续
在配置的过程中,我顺便刷了一下新闻,哎哟,这圈子真是不太平。收藏 7书到用时方恨少!NemoClaw深度解析:英伟达如何重新定义AI Agent生态NemoClaw是英伟达为OpenClaw智能体平台打造的参考堆栈和部署工具链.8年心血差点 一夜清零 !只因 自己人 装了个「龙虾」,4个核心仓库被投毒曝科大讯飞大幅裁员赔偿0.6N,官方辟谣:假消息; 日本最强AI 塌房:扒开代码全是DeepSeek;AI大厂月薪3w疯抢文科生 | 极客头条硅谷直击:黄仁勋携英伟达帝国入局龙....,另起炉灶。
看到没?连日本最强AI都“塌房”了代码里全是DeepSeek。这说明什么?说明DeepSeek真的很强啊!连人家都要抄。还有那个装“龙虾”导致仓库被投毒的,真是让人哭笑不得。所以啊,咱们搭建本地知识库,不仅是为了效率,更是为了平安!自己的数据握在自己手里那才叫踏实,精辟。。
上传文档:喂饱你的AI
配置好了模型,接下来就是最激动人心的环节了——上传文档!文档上传是搭建个人知识库非常关键的一步,主要原因是上传的文档内容将直接决定模型回答问题的准确性和质量。 最后说一句。 你可以将本地的文档直接拖拽到上传区域,也可以输入网页链接,将网页内容同步到临时交换区。
上传完成后 选择你需要的文档,点击“Move to Workspace”,把文档移动到工作区。完成移动后我们就可以在工作区看到已经上传的文档了。为了让DeepSeek能够根据上传的文档回答问题,我们还需要将文档与当前会话关联起来。在完成关联后系统会跳出下面的提示。此时我们点击右下角的 Okay, got it 即可。完成关联后回到对话页面现在就可以根据上传的文档内容进行提问了。
这里我们可以通过 ollama run deepseek-r1:1.5b 运行 deepseek-r1。当然如果你电脑够硬,直接上7B或者8B。一切准备就绪后就可以开始提问了!在对话页面输入你的问题,DeepSeek会的配置工作了。
为了让大家更清楚,我再啰嗦一下关于文本嵌入模型的选择。市面上有很多Embedding模型, 我怀疑... 咱们来对比一下你就知道为什么我推荐nomic-embed-text了。
| 模型名称 | 维度 | 特点 | 适用语言 |
|---|---|---|---|
| nomic-embed-text | 768 | 上下文长, 支持多语言,开源友好 | 多语言 |
| all-MiniLM-L6-v2 | 384 | 速度极快,资源占用低 | 主要英语 |
| bge-large-zh | 1024 | 中文语义理解极强,BAAI出品 | 中文优化 |
| e5-large-v2 | 1024 | 指令微调,检索效果好 | 多语言 |
测试与调整:让它听懂人话
完成更改后我们点击左下角的返回图标回到主页,之后再一次进行测试。按照图示步骤,我们就可以完成一次简单的测试。这时有朋友会说你这回复全是英文, 从一个旁观者的角度看... 我也看不懂啊?这个问题怎么解决呢?别着急,下面我们就来设置一下模型的语言。大家跟我一起完成语言的设置。
在AnythingLLM的设置里通常可以调整系统提示词。你可以在提示词里加上一句:“你是一个精通中文的助手,请用中文回答我的所有问题。” 这样一来DeepSeek就会乖乖地切换到中文模式了。 测试,看看效果。是不是瞬间觉得亲切多了,实锤。?
拥有这样一个知识库, 无论是都能帮助我们快速获取所需信息,提高效率。它就像一个专属的知识管家,随时为我们提供准确、便捷的服务。赶紧动手试试吧,开启你的高效知识管理之旅,杀疯了!!
这不仅仅是个教程
通过以上步骤,我们就成功地使用DeepSeek搭建了个人知识库。今天的内容到这里就全部结束了 如果大家喜欢博主的内容,可以点赞、收藏加评论支持一下博主,当然也可以将博主的内容转发给你身边需要的朋友。再说说感谢各位朋友的支持,咱们下一篇再见!!!
回顾一下 我们用到了DeepSeek R1的强大推理能力,用到了AnythingLLM的便捷管理,还用到了RAG技术。知识库,答案前从外部知识库中... 这种技术组合,简直就是为个人知识管理量身定做的。
白嫖。 虽然中间可能会遇到各种坑, 比如依赖库下载失败,或者IP地址填错导致连不上,甚至显卡显存不够跑不起来。但是当你看到它准确地从你上传的一堆PDF里找出答案的那一刻,你会发现,这一切折腾都是值得的。这就是技术的魅力,也是我们这些折腾党的乐趣所在。别再犹豫了DeepSeek都这么强了你的知识库还在裸奔吗?
大家好,很高兴又和大家见面啦!!!说实话,我的脑子真的不够用了。每天打开手机,各种资料、新闻、还有那些乱七八糟的推送,简直让人头大!你是不是也跟我一样,经常觉得“书到用时方恨少”,或者明明记得看过什么就是死活想不起来在哪看的?别慌,今天我们要聊的这个东西,绝对能救你的命。我们要用DeepSeek R1,这个最近火得一塌糊涂的人工智能,来搞一个专属的个人知识库。听起来是不是很高大上?其实操作起来只要你跟着我一步步来绝对没问题,在理。!
DeepSeek R1:不仅仅是聊天 它是你的大脑外挂
先说说咱们得聊聊DeepSeek R1。这玩意儿在开源领域简直就是个现象级的存在。你知道吗?它的满血版,也就是完整参数版,在保持70B的一边,居然通过架构优化把推理效率提升了3倍!3倍啊朋友们, 容我插一句... 这是什么概念?这意味着它特别适合咱们这种本地知识库的场景。但是说实话,开发者们也面临两大痛点:一是怎么低成本获取高性能模型,二是怎么保障数据隐私。毕竟谁也不想自己的小秘密被传到云端到处飞吧?

所以我们今天要做的,就是把DeepSeek R1装在本地,让它乖乖地为我们服务。这就像是你养了一只超级聪明的宠物,而且这只宠物还只听你一个人的话。 划水。 在开始之前, 我们先来看看DeepSeek R1的几个版本,大家可以,到时候电脑卡成PPT可别怪我没提醒你。
| 模型版本 | 显存需求 | 适用场景 | 推荐指数 | |
|---|---|---|---|---|
| DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | ~3GB | 低配置电脑, 简单问答 | ★★★☆☆ |
| DeepSeek-R1-Distill-Qwen-7B | 7B | ~8GB | 家用游戏本,中等复杂度任务 | ★★★★☆ |
| DeepSeek-R1-Distill-Llama-8B | 8B | ~10GB | 高性能台式机,逻辑推理 | ★★★★☆ |
| DeepSeek-R1 | 70B | ~40GB+ | 服务器级配置,专业领域研究 | ★★★★★ |
换个角度。 看到了吧?如果你只是想试试水,1.5B其实也够用了。但是想要那种“丝般顺滑”的体验,我还是建议你尽量往上冲。好了选好了模型,咱们就进入正题。搭建个人知识库的第一步,是确保你的设备已经成功部署DeepSeek。若尚未安装,你可以参考来完成安装操作。这里我就不啰嗦了毕竟今天的重点是后面的“大戏”。
安装AnythingLLM:你的知识指挥官
光有DeepSeek还不够, 我们还需要一个管家,这就是AnythingLLM。这是一款全栈AI应用程序,堪称搭建本地知识库的关键组件。它能够与DeepSeek紧密协作,实现对各类文档的高效管理,以及智能问答功能。这就像是给DeepSeek装上了手和脚,让它不仅能思考,还能帮你干活,这就说得通了。。
总体来看... 先说说我们要去下载AnythingLLM。进入官网主页后直接点击下载,进入下载页面。选择自己电脑的系统,并下载对应的版本。这里还是建议大家安装到除C盘以外的其它磁盘中,确定好安装目录后就可以进行安装了。在安装过程中,系统可能会提示需要联网下载一些依赖库,如下图所示。这是主要原因是AnythingLLM的正常运行依赖这些库的支持, 所以请保持网络畅通,按照系统提示逐步完成安装。
双击安装程序,程序开始运行后会弹出一个选择安装用户的窗口。这里大家可以根据自己的需求进行选择,选择好用户后就可以选择安装目录了。主要原因是我的是Windows系统, 这里我就无法为大家展示MAC的安装过程了苹果用户你们懂的, 站在你的角度想... 总是那么特立独行。等待安装完成,打开软件,你会看到简洁直观的界面。直接点击Get started,即可进入后续操作步骤。
配置模型:搭建通往AI的桥梁
成功安装AnythingLLM后 打开软件,先说说要创建一个工作区。工作区就像是个人知识库的“指挥中心”,所有的知识文档管理和操作都将围绕它展开。在AnythingLLM界面的左下角,点击“扳手”图标,进入设置页面。接下来本文将介绍如何利用DeepSeek-R1模型的能力,借助Ollama与AnythingLLM两个工具,实现个人知识库的构建。
YYDS... 这一步非常关键,千万别搞砸了。在“LLM首选项”中,选择Ollama作为对话模型,然后输入DeepSeek的IP地址。如果是本地运行的实例, 输入“http://127.0.0.1:11434”,注意一定要加上“http://” 。这一步就如同搭建一座桥梁,让AnythingLLM能够与DeepSeek建立通信连接,实现数据交互。这个IP地址就像是一座桥梁,一端连接着AnythingLLM,另一端连接着DeepSeek。当用户在AnythingLLM的对话页面输入问题时 AnythingLLM会借助这个IP地址,将问题准确无误地传递给DeepSeek。
DeepSeek接收到问题后 会基于其自身强大的语言理解和生成能力,以及知识库中的文档内容进行分析和处理,再说说生成回答并通过IP地址原路返回给AnythingLLM,呈现在用户面前。 C位出道。 比方说 当用户询问关于某专业领域的问题时DeepSeek会在知识库中搜索相关文档,运用其语言推理能力组织答案,再通过IP地址将答案将答案反馈给用户,实现高效的智能问答交互。
除了LLM,我们还需要配置Embedder。找到人工智能提供商 - Embedder首选项,选择嵌入引擎提供商为Ollama。这里给大家展示的是通过Ollama完成的 nomic-embed-text 文本嵌入模型的安装。nomic-embed-text是一款基于Sentence Transformers库的文本嵌入模型, 在众多文本嵌入模型中表现卓越,具备多种强大功能。从功能定位和应用场景来看, nomic-embed-text侧重于文本处理和相似性分析,影响着知识库中文本信息的组织和检索方式,提升了知识库检索的准确性和效率,整一个...。
不堪入目。 完成配置后 可以看到右上角有一个 Save changes 的选项,点击该选项保存配置的更改,之后点击左下角的返回箭头的图标,回到主页。此时我们点击右下角的 Okay, got it 即可。
别被这些新闻吓到了 咱们继续
在配置的过程中,我顺便刷了一下新闻,哎哟,这圈子真是不太平。收藏 7书到用时方恨少!NemoClaw深度解析:英伟达如何重新定义AI Agent生态NemoClaw是英伟达为OpenClaw智能体平台打造的参考堆栈和部署工具链.8年心血差点 一夜清零 !只因 自己人 装了个「龙虾」,4个核心仓库被投毒曝科大讯飞大幅裁员赔偿0.6N,官方辟谣:假消息; 日本最强AI 塌房:扒开代码全是DeepSeek;AI大厂月薪3w疯抢文科生 | 极客头条硅谷直击:黄仁勋携英伟达帝国入局龙....,另起炉灶。
看到没?连日本最强AI都“塌房”了代码里全是DeepSeek。这说明什么?说明DeepSeek真的很强啊!连人家都要抄。还有那个装“龙虾”导致仓库被投毒的,真是让人哭笑不得。所以啊,咱们搭建本地知识库,不仅是为了效率,更是为了平安!自己的数据握在自己手里那才叫踏实,精辟。。
上传文档:喂饱你的AI
配置好了模型,接下来就是最激动人心的环节了——上传文档!文档上传是搭建个人知识库非常关键的一步,主要原因是上传的文档内容将直接决定模型回答问题的准确性和质量。 最后说一句。 你可以将本地的文档直接拖拽到上传区域,也可以输入网页链接,将网页内容同步到临时交换区。
上传完成后 选择你需要的文档,点击“Move to Workspace”,把文档移动到工作区。完成移动后我们就可以在工作区看到已经上传的文档了。为了让DeepSeek能够根据上传的文档回答问题,我们还需要将文档与当前会话关联起来。在完成关联后系统会跳出下面的提示。此时我们点击右下角的 Okay, got it 即可。完成关联后回到对话页面现在就可以根据上传的文档内容进行提问了。
这里我们可以通过 ollama run deepseek-r1:1.5b 运行 deepseek-r1。当然如果你电脑够硬,直接上7B或者8B。一切准备就绪后就可以开始提问了!在对话页面输入你的问题,DeepSeek会的配置工作了。
为了让大家更清楚,我再啰嗦一下关于文本嵌入模型的选择。市面上有很多Embedding模型, 我怀疑... 咱们来对比一下你就知道为什么我推荐nomic-embed-text了。
| 模型名称 | 维度 | 特点 | 适用语言 |
|---|---|---|---|
| nomic-embed-text | 768 | 上下文长, 支持多语言,开源友好 | 多语言 |
| all-MiniLM-L6-v2 | 384 | 速度极快,资源占用低 | 主要英语 |
| bge-large-zh | 1024 | 中文语义理解极强,BAAI出品 | 中文优化 |
| e5-large-v2 | 1024 | 指令微调,检索效果好 | 多语言 |
测试与调整:让它听懂人话
完成更改后我们点击左下角的返回图标回到主页,之后再一次进行测试。按照图示步骤,我们就可以完成一次简单的测试。这时有朋友会说你这回复全是英文, 从一个旁观者的角度看... 我也看不懂啊?这个问题怎么解决呢?别着急,下面我们就来设置一下模型的语言。大家跟我一起完成语言的设置。
在AnythingLLM的设置里通常可以调整系统提示词。你可以在提示词里加上一句:“你是一个精通中文的助手,请用中文回答我的所有问题。” 这样一来DeepSeek就会乖乖地切换到中文模式了。 测试,看看效果。是不是瞬间觉得亲切多了,实锤。?
拥有这样一个知识库, 无论是都能帮助我们快速获取所需信息,提高效率。它就像一个专属的知识管家,随时为我们提供准确、便捷的服务。赶紧动手试试吧,开启你的高效知识管理之旅,杀疯了!!
这不仅仅是个教程
通过以上步骤,我们就成功地使用DeepSeek搭建了个人知识库。今天的内容到这里就全部结束了 如果大家喜欢博主的内容,可以点赞、收藏加评论支持一下博主,当然也可以将博主的内容转发给你身边需要的朋友。再说说感谢各位朋友的支持,咱们下一篇再见!!!
回顾一下 我们用到了DeepSeek R1的强大推理能力,用到了AnythingLLM的便捷管理,还用到了RAG技术。知识库,答案前从外部知识库中... 这种技术组合,简直就是为个人知识管理量身定做的。
白嫖。 虽然中间可能会遇到各种坑, 比如依赖库下载失败,或者IP地址填错导致连不上,甚至显卡显存不够跑不起来。但是当你看到它准确地从你上传的一堆PDF里找出答案的那一刻,你会发现,这一切折腾都是值得的。这就是技术的魅力,也是我们这些折腾党的乐趣所在。别再犹豫了DeepSeek都这么强了你的知识库还在裸奔吗?

