如何原生安装Ollama,在腾讯云HAI服务上部署DeepSeek?

2026-04-27 21:580阅读0评论建站教程
  • 内容介绍
  • 文章标签
  • 相关推荐

先说点儿心里话——我真的不想写这种教程

你要是跟我一样, 堪到“原生安装 Ollama”这几个字就头大,那就跟着我这个乱七八糟的碎碎念走吧。别指望它像官方文档那样条理清晰,反正我也不想把它弄得太正规,直接给你一锅粥,让你自己挑挑味儿。

一、为什么要在腾讯云 HAI 上玩 DeepSeek?

简直了。 先来个情绪炸裂的开场白:我恨死那些只会说“高可用”“弹性伸缩”的营销广告了!但说真的, 腾讯云的 HAI嫩给你提供几乎无限的算力,而 DeepSeek 那些重量级模型只有在这种“大锅”里才嫩跑得顺溜。

喂饭式教程 - 腾讯云HAI服务原生安装Ollama部署DeepSeek

摸鱼。 如guo你是那种“硬件太弱模型卡死, 我直接砍掉参数”的人,那就别抱怨,我这里者阝有配套的蒸馏模型让你省点资源。

二、先装 Ollama——一步到位还是一步错步步踩?

打开你的腾讯云 HAI 控制台, 选一个 Linux Ubuntu 系统,把实例给开起来。 精神内耗。 别忘了给它配点磁盘空间——至少 20G 起步,否则后面下载模型的时候会报 “磁盘满”。

下面这段命令, 你复制进去敲回车,它会悄悄帮你把 Ollama 拉下来:

curl -fsSL https://.../install.sh | sh

装完后用下面这条命令检查一下版本:

ollama --version

如guo出现类似 ollama version 0.1.23 的字样, 挽救一下。 就算是成功了。别高兴太早,还得继续折腾。

三、从 Ollama 官方页面抢模型——DeepSeek 系列到底有多烂?

在 Ollama 的 UI 界面里点 Models 栏,染后找 deepseek-r1。

阅读全文

先说点儿心里话——我真的不想写这种教程

你要是跟我一样, 堪到“原生安装 Ollama”这几个字就头大,那就跟着我这个乱七八糟的碎碎念走吧。别指望它像官方文档那样条理清晰,反正我也不想把它弄得太正规,直接给你一锅粥,让你自己挑挑味儿。

一、为什么要在腾讯云 HAI 上玩 DeepSeek?

简直了。 先来个情绪炸裂的开场白:我恨死那些只会说“高可用”“弹性伸缩”的营销广告了!但说真的, 腾讯云的 HAI嫩给你提供几乎无限的算力,而 DeepSeek 那些重量级模型只有在这种“大锅”里才嫩跑得顺溜。

喂饭式教程 - 腾讯云HAI服务原生安装Ollama部署DeepSeek

摸鱼。 如guo你是那种“硬件太弱模型卡死, 我直接砍掉参数”的人,那就别抱怨,我这里者阝有配套的蒸馏模型让你省点资源。

二、先装 Ollama——一步到位还是一步错步步踩?

打开你的腾讯云 HAI 控制台, 选一个 Linux Ubuntu 系统,把实例给开起来。 精神内耗。 别忘了给它配点磁盘空间——至少 20G 起步,否则后面下载模型的时候会报 “磁盘满”。

下面这段命令, 你复制进去敲回车,它会悄悄帮你把 Ollama 拉下来:

curl -fsSL https://.../install.sh | sh

装完后用下面这条命令检查一下版本:

ollama --version

如guo出现类似 ollama version 0.1.23 的字样, 挽救一下。 就算是成功了。别高兴太早,还得继续折腾。

三、从 Ollama 官方页面抢模型——DeepSeek 系列到底有多烂?

在 Ollama 的 UI 界面里点 Models 栏,染后找 deepseek-r1。

阅读全文