Products
GG网络技术分享 2026-04-17 09:54 0
龙虾吧。 百川AI 关注 修改于2026-03-15 07:46:31 修改于2026-03-15 07:46:31 2.9K2 举报,我给跪了。

话说回来谁还没个AI梦呢?想让电脑替自己写报告、整理资料、甚至帮你追剧…后来啊呢?后来啊就是:Token不够用!动不动就提示“额度不足”,简直比deadline还催人!特别是那些国外的模型,烧钱速度那叫一个惊人。最近OpenClaw火得不行, 中肯。 但是!但是!Token成本太高了!搞得我这区区码农直接想哭。 话说回来Mac的丝滑操作也是让人欲罢不能啊…… 所以我寻思着,要不咱在Mac上养条龙虾吧!嗯,就是用OpenClaw本地化部署模型,自己掌控自己的AI命运!
别问我为什么是龙虾,我也不知道为啥大家都这么叫它…大概是主要原因是看起来有点像吧… OpenClaw是一个开源的个人 AI 助手平台。简单它能把各种AI模型接入你常用的聊天工具, 恕我直言... 然后你就可以通过聊天的方式指挥AI帮你干活了。最关键的是!你可以自己选择模型!选本地的!这样就能省下那些烧钱的Token了。
先说说你要有一台Mac。当然也需要一点点耐心…和足够的磁盘空间。还有网络 太刺激了。 ! 虽然我们是要搞本地化部署, 但是一开始还是需要网络来下载一些东西的。
他急了。 Ollama是用来管理本地大语言模型的利器。可以把它想象成一个“动物园”,里面可以养各种各样的AI模型。安装Ollama很简单, 打开终端输入以下命令:
brew install ollama
安装完成后, 你就可以用 ollama pull 命令下载你喜欢的模型了. 比如, 下载DeepSeek蒸馏版:,盘它...
打脸。 ollama pull deepseek-coder:3b-base
| 软件 | 版本 | 作用 |
|---|---|---|
| Homebrew | 最新版 | 包管理器 |
| Node.js | =22 | 运行环境 |
| Ollama | 最新版 | 本地模型管理 |
这一步稍微复杂一点。先clone OpenClaw的代码:,别犹豫...
git clone https://github.com/xxsdfsdf/openclaw.git 然后进入目录, 安装依赖: cd openclaw && npm install,原来如此。
cat /Users/mac/openclaw/openclaw.json 'EOF' { messages : { ackReactionScope : group-mentions }, agents : { defaults : { maxConcurrent : 4, subagents : { maxConcurrent : 8 }, compaction : { mode : safeguard }, workspace : /home/node/.openclaw/workspace , models : { minimax/MiniMax-M2.1 : { alias : Minimax } }, model : { primary : minimax/MiniMax-M2.1 } } }, gateway : { mode : local , auth : { mode : token , token : 7f1a9219d9120abdb153cf51606cd7c7f5f52c47ccc70794 }, controlUi : { dangerouslyDisableDeviceAuth : true }, port : 18789, bind : loopback , tailscale : { mode : off , resetOnE...
探探路。 启动OpenClaw: npm start 打开浏览器访问 localhost:18789。 如果一切顺利, 你就能看到OpenClaw的界面了! 可以尝试发个消息问问它“你好”。 如果它回复你了恭喜你! 你已经成功养了一条小龙虾!
选择「No 暂不配置」暂时跳过插件配置, 后续可以根据需求添加各种技能插件哦! 比方说飞书插件、网页搜索插件等等,哎,对!。
另起炉灶。 上下方向键切换钩子选项, 空格键勾选所有核心钩子!这样你的小龙虾就能自动完成一些重复性任务啦!
总而言之,在Mac上部署OpenClaw并不难。只要你有耐心和一点点技术基础就可以搞定。而且最重要的是你能省下那些烧钱的Token费用! 这才是真正的自由啊!
Demand feedback