热搜词: 河南思皓 思皓

今日科普|大模型增加上下文长度, 意味着什么?

DeepSeek推出了新一代大语言模型DeepSeek-V3.1引人注目。亮点之一是上下文长度从64K扩展到了128K。

这个数字听起来很技术,但它实际上关乎人工智能如何“理解”和“回应”人类——它不仅是一次参数提升,更是大模型能力边界的一次突破。

如何理解?

今日科普,为你解答。

湖南日报全媒体记者王铭俊

[知识多一点]

什么是上下文长度?

简单来说,上下文长度决定了模型在一次交互中能“记住”多少内容。它包括了你的问题、之前的对话历史、你提供的参考资料以及模型已经给出的回答。就像人在聊天时能回顾刚才说过的话一样,模型的“记忆力”越强,它的回答就越连贯、越精准。

技术上,这个长度以Token为单位计算。一个Token可以是一个英文单词或词缀、一个汉字或词语的一部分。比如“湘绣”可能被拆成“湘”和“绣”两个Token。128K大小的Token大约相当于十万汉字,比一本约7万字的《边城》还要多。

这次升级,意味着模型不仅可以深度处理超长文档,它在长对话中的表现也更可靠。这将减少模型“幻觉”,即胡说八道的风险。

当然,上下文拉长也带来挑战,尤其是对算力的要求上升。而且,模型的记忆仍是“会话级”的,一旦对话重启,它就会“忘记”之前的内容。

行业也在通过探索更高效的架构,比如优化注意力机制、引入外部记忆库等,让模型既能记得多,又不用付出过高的计算代价。

大语言模型中的注意力机制就像读书人手里的高亮笔和智能放大镜,读书人不会平均用力地去读桌上所有的书,而是通过“高亮笔”和“放大镜”快速扫描整张书桌,并决定应重点关注哪些部分。

外部记忆库则给大语言模型配了一个随叫随到的“秘书”,网友一问问题,它就立刻去庞大的资料库里将相关的文件找出来、划好重点,然后只把这些关键信息递给AI。

指导:湖南师范大学人工智能系副主任江沸菠