Products
GG网络技术分享 2026-01-23 17:36 3
这场guan与理解的漫长修补,究竟隐藏着怎样的秘密?说实话,我也想问!
你有没有遇到过这种情况:明明觉得自己说得hen清楚了但AI就是听不懂你在说什么?huo者它突然开始胡言乱语,前一秒还记得的事情,下一秒就忘了?别急着砸键盘, 物超所值。 也别怀疑是自己的表达Neng力有问题。真相可Neng没那么简单——也许,问题根本不在于你怎么說,而在於機器到底「kan到」了什麼。

Zui近这个概念特bie火,火到连硅谷那些平时不爱说话的技术大牛dou出来站台了。Shopify的老大Tobi Lütke, 还有那个在AI圈几乎是神一般存在的Andrej Karpathy,两个人不约而同地在社交媒体上提到了一个新词儿——context engineering中文叫上下文工程。这名字听起来挺高大上的,对吧?但说实话,我第一次kan到的时候也是一脸懵逼,这玩意儿到底跟之前的有啥区别?为什么突然之间suo有人dou开始聊这个了?
要理解上下文工程,咱们得先聊聊它的「老前辈」——。记得ChatGPT刚出来那会儿, 网上铺天盖地dou是各种「万NengPrompt模板」,什么「你是一个专业的XX」「请用Markdown格式输出」「step by step思考」……大家dou在研究怎么写提示词才Neng让AI表现得geng好。 YYDS! 这波热潮持续了整整一年多, 各种课程、教程满天飞,仿佛只要掌握了写提示词的技巧,就Neng召唤神龙一样召唤出完美的AI回答。
可不是吗! 但慢慢地,有人发现不对劲了。不管提示词写得多么精妙,总有一些场景让AI显得特bie笨。比如让它读一份长长的合同, 它读到后面就忘了前面在说什么;比如多轮对话进行到第十轮的时候,它突然开始称呼你为「您」——主要原因是它Yi经忘记你们之前聊了什么。geng别说那些需要调用外部工具、处理实时数据的复杂任务了单纯靠写提示词根本搞不定。
不堪入目。 这时候就有个问题浮现出来了:我们是不是把太多责任dou压在「提示词」这一个环节上了?机器理解Neng力的瓶颈,真的只是主要原因是我们没说清楚吗?
答案明摆着不是。
说到这儿,我必须给你讲一个特bie形象的例子。你有没有试过跟一个记忆力只有10分钟的人聊天?你们聊前5分钟的事情, 他记得清清楚楚;但只要一超过10分钟,他就彻底忘了甚至会问你一些你早就回答过的问题。听起来hen荒谬对吧?但大语言模型的情况其实差不多就是这么回事,别怕...。
LLM的大小是有限制的。这个限制就像是一个「工作记忆」的容量, 超出这个容量的信息,它要么直接忽略,要么就得丢弃一些旧的信息来容纳新的。 将心比心... 而且即便在容量范围内, yin为对话继续、时间推移,模型对早期信息的「注意力」也会逐渐下降——它不是故意忘的,是真的记不住了。
这就是为什么单纯优化提示词Yi经不够用了,走捷径。。
我开心到飞起。 主流LLM模型的对比 模型名称Mothly价格 Grok 3 Beta100万tokens$40/月 Gemma 3 27B100万tokens$30/月 Qwen 3 235B$200K tokens$50/月
NVIDIA CEO黄仁勋在一次演讲中提到过一个观点,我觉得特bie到位。他说现在的大模型就像是一个fei常聪明但健忘的员工, 你每次布置任务dou得把suo有的背景信息重新讲一遍,否则它就会凭着自己的理解去猜——而这种猜往往dou是错的。😓这比喻太扎心了但确实一针见血。
Demand feedback