西安专业网站建设服务公司安徽观元建设有限公司网站

张小明 2026/1/11 17:26:53
西安专业网站建设服务公司,安徽观元建设有限公司网站,北京建设执业资格注册网站,南昌seo关键词这是一篇发表于 2025 年 10 月《Trends in Cognitive Sciences》上的文章。文章的核心在于探讨如何利用认知神经科学#xff08;Cognitive Neuroscience#xff09;中关于人类“情景记忆”#xff08;Episodic Memory, EM#xff09;的研究成果#xff0c;来改进现有的记忆…这是一篇发表于 2025 年 10 月《Trends in Cognitive Sciences》上的文章。文章的核心在于探讨如何利用认知神经科学Cognitive Neuroscience中关于人类“情景记忆”Episodic Memory, EM的研究成果来改进现有的记忆增强型大语言模型Memory-Augmented LLMs, MA-LLMs。AI 的“记忆”瓶颈与人类的启示在过去几年中大语言模型LLM展现了惊人的语义理解能力仿佛拥有了博学的“大脑皮层”语义记忆。为了解决 LLM 无法记住长周期信息的问题工业界广泛采用了检索增强生成RAG或超长上下文窗口技术给模型外挂了一个“硬盘”。然而这篇论文指出现有的 AI 记忆系统虽然能“存”海量数据但在“用”数据的方式上不仅低效而且极度违反人类的认知直觉 。人类的情景记忆Episodic Memory——即我们对过去独特经历的回忆——并非简单的数据库查询。我们在理解世界时会自动对连续的体验进行切分只在关键时刻记录或回忆并且记忆会随着时间动态重组。相比之下目前的 AI 往往机械地每隔 K 个 Token 检索一次或者把记忆当作静态的文本块。这篇综述发出了强有力的呼吁为了让 LLM 真正理解复杂的真实世界我们需要从计算机工程转向认知仿生构建具有“类人情景记忆”的 AI。一、基石LLM 的记忆架构 vs 人脑记忆系统为了理解如何改进作者首先建立了一个清晰的映射框架将 LLM 的组件与人类记忆系统对应起来 语义记忆 (Semantic Memory)模型权重 (Weights)就像人类的大脑皮层通过反复学习积累通用知识一样LLM 通过预训练将世界知识压缩在神经网络的权重中。这是一种累积的、缓慢变化的知识。工作记忆 (Working Memory)上下文窗口 (Context Window)人类的工作记忆负责在短时间内维持和操作信息。对于 LLM这就是它的 Context Window上下文窗口。通过自注意力机制Self-Attention模型可以在这个窗口内灵活地组合信息。情景记忆 (Episodic Memory)外部存储 (External Memory)这是本论文的主角。人类通过海马体Hippocampus快速记录一次性的经历。对于 MA-LLMs记忆增强型 LLM这对应于外部的键值对Key-Value数据库或文档库。技术细节Transformer 中的记忆原理为了深入理解这层对应关系我们需要看一眼 Transformer 的核心计算——自注意力机制。这其实就是一个记忆检索过程。其核心数学形式可以理解为查询Query与键Key的匹配进而提取值ValueQ (Query)你当前想找什么比如当前的对话。K (Key)记忆库里的索引标签。V (Value)实际存储的记忆内容。作者指出现有的长上下文模型Long-context models实际上是试图强行把所有记忆都塞进“工作记忆”Context Window中 。但这非常低效且昂贵。更符合人类直觉的做法是建立一个独立的、类似海马体的快速存储系统只在需要时将相关记忆“调入”工作记忆 。下图展示了这种基于 Transformer 自注意力机制的记忆检索原理它不仅是工作记忆的基础也是外部情景记忆的接口。如图所示(A) 展示了标准注意力机制如何在窗口内工作(B) 展示了这套机制如何扩展到长期记忆检索——通过计算当前输入与过去潜在记忆的匹配度来激活相关信息。二、核心差异MA-LLMs 哪里“不像”人五大关键错位这是全篇论文最精华的部分。作者详细剖析了当前主流 MA-LLMs如 RAG 系统与人类情景记忆的五个根本性差异。1. 动态更新 (Dynamic Memory Updating)AI 的做法典型的“只读不改”或“只增不改”。一旦信息被写入向量数据库它通常就静态地躺在那里。人类的做法记忆是活的。我们的记忆在存储后会被不断修饰。重构与遗忘新的信息会更新旧的记忆无关的细节会被遗忘。离线重放 (Replay)就像做梦一样海马体会重放情景记忆将其“教”给大脑皮层从而转化为长期语义知识Consolidation 。启示AI 需要引入“重放”机制利用空闲时间优化记忆库甚至利用情景记忆来微调模型权重。2. 事件分割 (Event Segmentation)AI 的做法机械切分。大多数 RAG 系统将长文本简单粗暴地按固定长度例如每 256 个 token切成块Chunk。这导致语义被截断上下文丢失。人类的做法按“事件”切分。当我们从“走进餐厅”变成“坐下点菜”时大脑会感知到一个“事件边界”Event Boundary。这种边界通常对应着预测误差的飙升Surprise 。启示AI 应当基于“惊奇度”Surprise/Prediction Error来切分记忆块而不是字数。研究表明基于事件切分的模型能显著减少检索干扰 。3. 选择性 (Selective Encoding and Retrieval)AI 的做法全覆盖。为了不漏掉信息模型往往倾向于把所有东西都存下来并且每生成一句话都去检索一次。人类的做法极其“吝啬”。编码选择性我们主要在事件结束边界时进行强烈的记忆编码而不是每时每刻都在记 。检索选择性只有当当前信息不足以预测未来即出现认知缺口或不确定性高时我们才会去调用情景记忆 。如果当前很顺畅我们根本不会去翻旧账。启示引入“门控机制”。只有当模型对下一个词的预测不确定时才触发检索。这能大幅降低计算成本并减少错误记忆的干扰 。4. 时间连续性 (Temporal Contiguity)AI 的做法点状检索。检索出的通常是散落在不同时间点的 Top-K 个片段彼此孤立。人类的做法时间流。当我们回忆起某个时刻如“去年生日”我们不仅通过语义关联回忆还会自然地顺着时间线想起“接下来发生了什么” 。启示记忆检索应当包含时间索引允许模型在检索到一个片段后自动预加载该片段随后的内容。5. 检索竞争 (Competition at Retrieval)AI 的做法并行堆叠。检索出 5 个或 10 个相关文档全部塞进 Prompt 给模型看。人类的做法赢家通吃。记忆检索是高度竞争的。通常只有一个最佳匹配的记忆会浮现到意识中其他的会被抑制 。启示过多的检索结果特别是包含错误信息的会产生误导。AI 需要更强的过滤机制只让最相关的那一个记忆进入工作流程。下图生动地对比了这种差异。(A) 典型的 MA-LLM机械切块、静态存储、一次性检索一堆碎片。(B) 人类情景记忆连续输入被分割成有意义的事件Event Segmentation只有在特定时刻如感到困惑或事件切换时才进行选择性编码和检索且记忆会动态更新和重放。三、评估与测试如何证明模型拥有了“人类灵魂”目前的 AI 评估大多基于简单的问答QA比如“权力的游戏第二季有几集”。这种问题目标明确答案就在库里。但真实世界并非如此。新的测试范式真实世界的模拟作者提出了一个极具创新性的基准任务设计旨在模拟真实生活的连续性和不确定性。TV Show Summary Task电视剧剧情摘要任务编码阶段给模型看大量它没见过的电视剧剧本一次性阅读。测试阶段逐句展示剧情摘要。核心机制模型需要自己决定是“继续看下一句摘要”获取更多信息还是“接管Take Over”并预测接下来的剧情。如果过早接管可能因为线索太少检索到错误的剧集记忆混淆导致预测错误扣分。如果太晚接管错失了预测机会不得分。如果根本没看过该剧模型应该意识到自己没印象选择保持沉默而不是胡编乱造。这个任务完美捕捉了真实记忆的挑战不仅要记对还要知道“何时回忆”以及“何时闭嘴”。如图所示模型在接收剧情摘要流时必须权衡“等待更多线索”与“主动预测”的风险这迫使模型学会人类那样的选择性检索策略。脑神经匹配 (Neural Alignment)除了行为测试作者还提议直接看“脑子”。利用编码模型Encoding Model方法将 AI 模型的内部激活状态Embeddings映射到人类大脑在观看同样视频时的 fMRI功能性磁共振成像信号 。如果一个 MA-LLM 的内部状态能更准确地预测海马体和大脑皮层的活动说明它更接近人类的思维方式。该图展示了如何使用编码模型对比 AI 与大脑。通过让 AI 和人类“看”同一个故事计算二者神经活动的相似度从而量化 AI 的“拟人化”程度。四、结论与展望这篇论文不仅仅是对现状的批评它为 AI 的未来指明了一条生物启发Bio-inspired的道路。结论核心效率至上人类记忆的“怪癖”如遗忘、选择性检索并非缺陷而是为了在复杂、嘈杂的世界中实现计算效率和预测准确性最大化的进化结果。双赢局面将这些机制引入 LLM不仅能让 AI 更像人Cognitive Modeling 的胜利更能直接提升 AI 在长文本处理、复杂推理中的性能AI Engineering 的胜利 。未来展望多模态记忆未来的记忆不应只有文本还应包含视觉和听觉线索因为非语言线索如语气变化往往是触发事件分割的关键 。记忆巩固 (Consolidation)真正实现“夜间做梦”般的离线学习让情景记忆逐渐转化为模型直觉权重解决灾难性遗忘问题 。通过模仿人类大脑处理过去的方式我们或许终将造出不仅能“检索”过去更能真正“理解”时间的人工智能。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

wordpress小工具九宫格快速排名生客seo

示意图 图号说明 【关联】图纸编号规则中 (1)表1-17 滚筒直径序列;(图号 尾部数字后两位) (2)表1-21 滚筒轴承内径序列; (3)图号组成(通用&…

张小明 2026/1/7 15:18:52 网站建设

西安地产网站建设WordPress评级评分主题

从零开始玩转 Elasticsearch 数据:手把手教你高效浏览与分析 你是不是也遇到过这样的场景? 凌晨两点,线上服务突然报警,日志里成千上万条 JSON 记录像洪水般涌来。你想找一条关键的错误信息,却只能靠肉眼翻滚浏览器滚…

张小明 2026/1/9 12:53:22 网站建设

电子商务网站订单功能长春网站快照优化公司

case 条件语句的应用实践 文章目录case 条件语句的应用实践1 case 条件语句的语法2 case 条件语句实践3 实践:给输出的字符串加颜色4 case 语句企业级生产案例示例1:控制sshd服务示例2:管理用户5 case 条件语句的 Linux 系统脚本范例6 本章小…

张小明 2026/1/8 19:54:07 网站建设

wordpress添加pdf手机网站图片优化

Linly-Talker数字人可以唱歌吗?音乐类内容可行性测试 在虚拟偶像登台演唱会、AI歌手发布单曲的今天,人们不禁要问:一个由“一张图一段文字”就能驱动的数字人系统——比如Linly-Talker,是否也能真正“唱”一首歌? 这不…

张小明 2026/1/10 1:14:53 网站建设

网站建设的内容管理自己建的网站能赚钱吗

终极C语言学习指南:完整PPT课件免费获取 【免费下载链接】C程序设计第五版谭浩强著PPT资源下载 - **标题**: C程序设计(第五版)谭浩强 著PPT- **内容**: 本课件共有十章,涵盖了C语言的基础知识和高级应用。每章内容都配有丰富的图…

张小明 2025/12/27 20:00:30 网站建设

中国深圳航空公司官方网站付费阅读网站建设

3D打印丝材管理难题怎么破?Spoolman开源工具5分钟搞定库存追踪 【免费下载链接】Spoolman Keep track of your inventory of 3D-printer filament spools. 项目地址: https://gitcode.com/gh_mirrors/sp/Spoolman 在3D打印爱好者的日常工作中,丝材…

张小明 2026/1/10 10:47:33 网站建设