网站优化

网站优化

Products

当前位置:首页 > 网站优化 >

这场关于理解的漫长修补,究竟隐藏着怎样的?

GG网络技术分享 2026-01-23 17:36 3


这场guan与理解的漫长修补,究竟隐藏着怎样的秘密?说实话,我也想问!

你有没有遇到过这种情况:明明觉得自己说得hen清楚了但AI就是听不懂你在说什么?huo者它突然开始胡言乱语,前一秒还记得的事情,下一秒就忘了?别急着砸键盘, 物超所值。 也别怀疑是自己的表达Neng力有问题。真相可Neng没那么简单——也许,问题根本不在于你怎么說,而在於機器到底「kan到」了什麼。

上下文工程的前世今生,一场guan与理解的漫长修补

Zui近这个概念特bie火,火到连硅谷那些平时不爱说话的技术大牛dou出来站台了。Shopify的老大Tobi Lütke, 还有那个在AI圈几乎是神一般存在的Andrej Karpathy,两个人不约而同地在社交媒体上提到了一个新词儿——context engineering中文叫上下文工程。这名字听起来挺高大上的,对吧?但说实话,我第一次kan到的时候也是一脸懵逼,这玩意儿到底跟之前的有啥区别?为什么突然之间suo有人dou开始聊这个了?

从提示词到上下文:一场静悄悄的范式大转移

要理解上下文工程,咱们得先聊聊它的「老前辈」——。记得ChatGPT刚出来那会儿, 网上铺天盖地dou是各种「万NengPrompt模板」,什么「你是一个专业的XX」「请用Markdown格式输出」「step by step思考」……大家dou在研究怎么写提示词才Neng让AI表现得geng好。 YYDS! 这波热潮持续了整整一年多, 各种课程、教程满天飞,仿佛只要掌握了写提示词的技巧,就Neng召唤神龙一样召唤出完美的AI回答。

可不是吗! 但慢慢地,有人发现不对劲了。不管提示词写得多么精妙,总有一些场景让AI显得特bie笨。比如让它读一份长长的合同, 它读到后面就忘了前面在说什么;比如多轮对话进行到第十轮的时候,它突然开始称呼你为「您」——主要原因是它Yi经忘记你们之前聊了什么。geng别说那些需要调用外部工具、处理实时数据的复杂任务了单纯靠写提示词根本搞不定。

不堪入目。 这时候就有个问题浮现出来了:我们是不是把太多责任dou压在「提示词」这一个环节上了?机器理解Neng力的瓶颈,真的只是主要原因是我们没说清楚吗?

答案明摆着不是。

当机器开始「失忆」:LLM的先天缺陷让人头疼

说到这儿,我必须给你讲一个特bie形象的例子。你有没有试过跟一个记忆力只有10分钟的人聊天?你们聊前5分钟的事情, 他记得清清楚楚;但只要一超过10分钟,他就彻底忘了甚至会问你一些你早就回答过的问题。听起来hen荒谬对吧?但大语言模型的情况其实差不多就是这么回事,别怕...。

LLM的大小是有限制的。这个限制就像是一个「工作记忆」的容量, 超出这个容量的信息,它要么直接忽略,要么就得丢弃一些旧的信息来容纳新的。 将心比心... 而且即便在容量范围内, yin为对话继续、时间推移,模型对早期信息的「注意力」也会逐渐下降——它不是故意忘的,是真的记不住了。

这就是为什么单纯优化提示词Yi经不够用了,走捷径。。

我开心到飞起。 主流LLM模型的对比 模型名称Mothly价格 Grok 3 Beta100万tokens$40/月 Gemma 3 27B100万tokens$30/月 Qwen 3 235B$200K tokens$50/月

NVIDIA CEO黄仁勋在一次演讲中提到过一个观点,我觉得特bie到位。他说现在的大模型就像是一个fei常聪明但健忘的员工, 你每次布置任务dou得把suo有的背景信息重新讲一遍,否则它就会凭着自己的理解去猜——而这种猜往往dou是错的。😓这比喻太扎心了但确实一针见血。

RAG是救命稻草吗?其实它只是开始!hen多人以为接入了RAG就万事大吉了对吧?搞个向量数据库,把文档存进去,查询的时候检索出来喂给模型,kan起来是个完美的解决方案。但实际用起来呢?检索出来的内容要么太多太杂, 把模型的注意力稀释得七零八落;要么太少太准,wan全不相关的垃圾信息被一股脑地塞进来模型反而geng糊涂了。 这就涉及到另一个关键问题:你往模型脑子里塞什么信息, 怎么塞,以什么顺序塞,塞多少,这些细节真的太太太重要了! ✨RAG只是工具,不是目的。它解决的是「信息来源」的问题,但没有解决「如何组织这些信息让模型geng好理解」的问题。而后者,正是上下文工程要干的事情。


提交需求或反馈

Demand feedback