前言:
你是不是也有过这样的经历?为了让AI生成满意的内容,把提示词改了一遍又一遍,从“写一篇营销文案”加到“写一篇面向25-35岁女性的美妆产品营销文案,要突出天然成分和保湿功效”,结果AI还是时不时跑偏。
要是遇到需要多轮互动的复杂任务,比如让AI帮你整理一周的会议纪要并生成待办事项,聊着聊着AI就忘了之前说的关键信息,这不是你写提示词的能力不行,而是AI已经进入“代理时代”,光靠提示工程早就不够用了。
上下文工程
现在行业里有个新趋势,Anthropic、OpenAI这些头部AI公司的工程师都在偷偷练一门新技能:上下文工程。
根据Anthropic今年10月发布的最新研究,当AI从简单工具升级成能自主完成任务的“代理”时,提示词能发挥的作用最多只占30%,剩下的70%全靠对“上下文”的管理。
这里说的上下文,可不是简单的对话历史,而是AI在工作时能接触到的所有信息,包括系统指令、工具权限、外部数据,甚至是它自己记的笔记。
之前大家做提示工程,就像给AI写一份详细的操作手册,希望它一步不差地照做。
但实际用起来会发现,手册写得再细,遇到手册里没提到的情况,AI还是会“卡壳”。
比如让AI帮你处理客户投诉,提示词里写了“要耐心安抚客户”,可遇到客户提出的退款要求超出常规政策时,AI要么只会重复“很抱歉给您带来不便”,要么就乱承诺退款期限。
这就是提示工程的局限,它只能应对固定场景,却管不了AI在复杂任务中遇到的动态变化。
上下文工程不一样,它更像给AI配了一个“智能管家”。这个管家会根据任务进展,随时给AI递上最需要的信息,还会帮AI整理之前的工作记录,确保它不会“健忘”。
举个例子,Anthropic开发的代码代理ClaudeCode,处理大型数据库分析时,不会像传统AI那样把所有数据都塞进系统里,那样不仅慢,还容易让AI抓不住重点。
它会先让AI生成针对性的查询指令,用Bash命令提取关键数据片段,再把这些片段作为上下文喂给AI,最后让AI输出分析结果。
这种方式下,AI的注意力始终集中在核心信息上,分析效率比传统方法提升了40%以上,出错率还下降了25%。
为什么上下文工程这么重要?核心原因在于AI和人一样,注意力是有限的。AI的“注意力预算”就藏在它的上下文窗口里,比如GPT-4Turbo的上下文窗口是128Ktokens,大概能装下一本《红楼梦》的文字量。
但研究发现,当上下文窗口里的token数量超过50K时,AI准确回忆信息的能力会下降30%,这就是行业里说的“上下文腐烂”现象。
就像我们同时处理10件事时会分心一样,AI面对太多信息也会“顾此失彼”。更关键的是,AI的注意力机制和我们不一样。
它基于Transformer架构,每一个token都要和其他所有token建立联系,token越多,需要处理的关系就越多,如果有n个token,就要处理n²对关系。
AI更加聪明了
当token数量从1万增加到10万时,关系数量会从1亿暴涨到100亿,AI处理这些关系的能力会越来越“稀疏”,自然就没办法精准聚焦关键信息。
这也是为什么有时候你给AI发了很长的参考资料,它却还是会忽略里面的重要数据。
想做好上下文工程,首先得搞懂“有效上下文”的核心,用最少的信息,让AI做出最准确的反应。
这就像给考试的学生划重点,不是把整本书都划满,而是挑出考频最高的核心知识点。具体怎么做?有三个实用方向。
第一个是系统提示要找对“高度”。很多人写系统提示要么太细,把“如果客户说A就回复B,如果客户说C就回复D”这种死板的逻辑全塞进去,结果遇到新情况AI就不会变通。
要么太笼统,只写“帮我处理客户问题”,AI根本不知道该怎么下手。
真正好用的系统提示是中间状态,比如给客服AI的提示:“处理客户咨询时,优先确认客户需求类型,再根据对应流程回复,遇到超出权限的问题,告知客户会转接专属顾问,并记录客户联系方式”。
这样既给了AI明确的框架,又留了灵活处理的空间。
第二个是工具要“精”不要“多”。
现在很多人做AI代理,喜欢给它装一堆工具,翻译、画图、数据分析的工具全加上,结果AI用的时候反而不知道该选哪个。
Anthropic的工程师发现,工具集越臃肿,AI的决策效率越低,当工具数量超过8个时,AI选择错误工具的概率会上升18%。
好的工具设计应该像手机里的常用APP,每个工具只做一件事,而且功能不重叠。比如做数据分析,就设计一个“数据提取工具”专门拉取数据,一个“可视化工具”专门生成图表,AI用的时候不用纠结,直接根据需求选对应的工具就行。
第三个是少样本提示要选对例子。不少人觉得给AI的例子越多越好,把各种边缘案例都加进去,结果反而让AI抓不住核心逻辑。
其实AI更需要“多样化、规范化”的例子,就像老师教学生解题,不会拿100道类似的题,而是选5道涵盖不同考点的典型题。
比如教AI写产品标题,不用给它20个护肤品标题,而是选3个不同品类的例子:“美妆类:XX粉底液,持妆12小时不氧化。
家电类:XX扫地机器人,自动集尘30天;食品类:XX坚果礼盒,每日一小包更新鲜”,AI通过这几个例子就能掌握不同品类标题的核心逻辑。
除了做好静态的上下文设计,动态的上下文管理更重要,尤其是面对需要长时间处理的任务。
这里有三个经过验证的实用技巧。第一个是“压缩”技术。当AI的对话历史快满了,就把之前的内容提炼成摘要,用摘要代替原始对话,给新内容腾出空间。
普通用户也能操作
比如让AI帮你写一篇万字长文,每写2000字就做一次压缩,把之前的写作思路、核心观点总结成300字左右的摘要,再基于摘要继续写。
这样既能保证AI不“忘事”,又能节省上下文空间,Anthropic测试发现,用压缩技术处理长文本任务,上下文占用量能减少60%,而且内容连贯性不会下降。
第二个是“结构化笔记”。让AI把关键信息记在专门的“笔记”里,这些笔记存在上下文窗口之外,需要的时候再调出来。
比如让AI管理项目,它可以随时记录“10月8日会议确定:需求文档10月15日前完成,负责人XX”“10月10日进度:需求文档完成60%,遇到XX问题”。
就算上下文窗口重置,AI只要读取这些笔记,就能接着之前的进度推进。
Claude在玩《宝可梦》游戏时就用了这个方法,它能记录“过去1234步在1号道路训练,皮卡丘从5级升到8级,目标10级”,就算游戏进程持续十几个小时,也能保持目标一致。
第三个是“子代理架构”。遇到特别复杂的任务,比如做一份行业研究报告,不用让一个AI从头做到尾,而是拆成几个子代理。
一个子代理专门找资料,一个子代理负责分析数据,一个子代理负责撰写报告,最后由主代理整合结果。
每个子代理只处理自己擅长的部分,不用管其他环节,这样每个子代理的上下文都很聚焦。
Anthropic的多代理研究系统测试显示,用这种架构做行业研究,效率比单代理提升了50%,报告的准确性还能提高23%。
可能有人会问,以后AI的上下文窗口越来越大,是不是就不用做上下文工程了?其实不然。
就算未来AI的上下文窗口能装下100本书,“信息相关性”的问题还是存在,给AI太多无关信息,它还是会分心。
就像我们的电脑硬盘再大,也会整理文件夹,不会把所有文件都堆在桌面上。
而且随着AI自主性越来越强,它需要处理的动态信息会更多,更需要通过上下文工程来引导它聚焦核心任务。
现在已经有不少企业开始布局上下文工程。Anthropic在Claude开发者平台推出了内存工具测试版,能让AI轻松存储和调用外部笔记。
国内的一些AI公司也在优化工具管理功能,帮助用户给AI筛选核心工具。
对于普通用户来说,不用等到这些功能完全成熟,现在就能从简单的事情做起,比如给AI发参考资料时,先自己提炼核心观点,再把观点发给AI。
用AI处理多步任务时,每完成一步就让AI总结一下进度。
这些小操作,其实就是上下文工程的基础。AI的发展一直是“能力升级”和“管理方式升级”同步推进的。
从最初的关键词搜索,到后来的提示词交互,再到现在的代理自主任务,每一次升级都需要新的管理思路。
提示工程帮我们打开了AI应用的大门,而上下文工程正在帮我们把这扇门开得更大,它不是要取代提示工程,而是让AI的能力能更精准地落地到实际场景中。
结语:
未来,真正懂AI的人,不会再纠结“怎么写好一句提示词”,而是会思考“怎么给AI搭建一个高效的信息环境”。
毕竟,让AI在杂乱的信息里找答案,不如直接把最关键的信息递到它面前,这才是AI代理时代的核心竞争力。
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com