老T博客

Ai 现在真正缺的不是算力,而是“记忆”

Ai 现在真正缺的不是算力,而是“记忆”

这两年看了很多关于 AI 的分析文章,包括老T自己也写过几篇,但越写越觉得,大家讨论的焦点可能有点偏了。无论是算力、模型参数,还是中美 AI 投资规模的对比,本质上都还是停留在“结果层面”的比较:谁算得更快,谁应用得更多,谁融资规模更大。这种讨论方式并非没有意义,但它隐含了一个前提假设:只要掌握了足够多的知识、数据和方法,智慧就会自然出现。

可一旦把 AI 放回现实世界的组织、企业和社会结构中去看,这个假设就会立刻显得站不住脚。因为在真实世界里,智慧从来不只是知识的堆积,更是长期经验的沉淀。而经验,恰恰是当前大多数 AI 最严重缺失的部分。

智慧不仅是知识更是经验

很多人习惯把 AI 的能力理解为“知道得多”,但现实中的智慧,往往体现在“见过什么、经历过什么、在类似情境下吃过什么亏”。一个老律师、老工程师、老管理者,真正值钱的地方,并不在于他能背出多少规则、掌握多少数据,而在于他经历过足够多不确定的场景,知道什么时候规则该破例,什么时候数据该反着看。

这些经验,并不是抽象的知识条目,而是一整套与时间、环境、情绪、博弈相关的判断积累。而问题在于,当前的 AI,几乎完全生活在“知识世界”里,极少真正进入“经验世界”,更谈不上在真实环境中为这些经验承担后果。

在现实的商业世界里,几乎没有哪个重要决策,是靠一条规则自动跑出来的。同一个产品,为什么给 A 客户 9 折,给 B 客户 8 折?如果真去复盘这类决策,就会发现,答案往往不在销售系统里,也不在 Excel 表格中,而是散落在各种非结构化信息里:某次电话里提到的背景、对方联系人的身份特征、微信群里的一句“这个客户情况特殊”、跨部门沟通时的临时妥协,甚至某个负责人基于当下风险判断拍板的直觉。

这些信息极其重要,却几乎从来不会被系统性记录。但最终留下来的,只有一个冷冰冰的结果数据。

这也解释了为什么很多公司明明“数据很多”,但一到需要总结经验、制定规则、复制成功路径时,就发现根本无从下手。因为数据记录的是结果,而不是决策本身。

值得注意的是,最近我看了几篇关于 Ai “智能体”(Agent)方面的文章,发现很多创业公司已经在往这个方向发展。

比如,FoundationCapital 的 AI’s trillion-dollar opportunity: Context graphs (人工智能的万亿美元机遇:上下文图表),作者认为:“上一代企业软件通过打造数据记录系统,创造了一个价值万亿美元的软件生态。如今,正在构建上下文图的初创公司正在奠定下一个万亿美元的基础。” 只是这些文章对 Ai 智能体的看法还是过于“理想主义”。

当然,也正如我之前在 AI投资或将把美国拖入另一场反恐战争的泥潭 一文中也提到,美国现在习惯性吹 Ai 泡沫,没点“理想主义”,还真没办法把这个泡沫吹起来。毕竟,人类的经验本身是主观的,并不一定正确,有时候也很模糊,并不必然存在逻辑关系。比如“一朝被蛇咬,十年怕井绳”,本身就是个模糊判断,并且到底是 10 年、20年还是1年,也没法量化,但这些都在人类行为本身“容错”范围内。

大多数 Ai 只看得见结果

把视角切回 Ai,本质问题就更清楚了。当前绝大多数 Ai,尤其是面向大众的对话式 Ai,本质上都更擅长做一件事:从已有结果中模拟出来结果。它们可以总结、归纳、生成,看起来非常聪明,但前提是,这些结果本身已经被结构化、被记录、被喂给模型。

可现实世界中,最有价值的“经验”,恰恰是不能被结构化的。这就导致一个非常尴尬的局面,Ai 能分析一万条历史成交数据,却无法理解那一单为什么“必须这么做”,Ai 能生成看似合理的决策建议,却很难解释“当时为什么这么选”。

换句话说,现在很多 Ai,更像是一个永远在事后复盘,却从未真正参与过决策过程的旁观者。绝大多数决策程序,其实都是人工告诉它的。

大家可能在日常使用 Ai 时都会注意到一个现象,目前市面上大多数 Ai 只能在同一个对话中记得上下文信息,甚至,当这个对话的回合过多时,前边输入到 Ai 的规则,可能又被它忽略掉了。

从技术角度看,这个问题常常被包装成“上下文长度”“多轮对话能力”“记忆模块”等工程问题,但讲白了,这种 Ai 就是回合制的,一次对话结束,“智慧”就被清空,上下文一断,所有规则判断都要重新来过。

而现实世界的决策,从来不是这样的。大多数时候,我们每个人的决策都是连续的、有因果关系的,很多判断本身依赖于“你之前是怎么想的”“你当时为什么没选那条路”“这个例外是不是已经发生过”。如果没有长期记忆,就不可能形成真正的经验。

这也是为什么,现在很多 Ai 看起来“很会说话”,却很难真正承担长期决策角色。它们更像一个聪明的临时顾问,而不是一个在组织里干了多年、知道轻重缓急的老员工。

ChatGPT 和 Gemini 在这方面走的更前一点,支持记忆保存功能。但我最近在 HN 看到的一篇技术博客中 I Reverse Engineered ChatGPT’s Memory System, and Here’s What I Found! ,作者对 ChatGPT 的记忆功能逆向解构后,发现这种记忆保存其实重点就是记录了一些“元数据”,类似国籍、语言、性别、年龄、职业、对话方向、项目类型等等,与其说是完整的决策记忆,不如说是技术上的投机取巧了。

信息割裂正在抬高 Ai 的成本

如果说 Ai 缺乏决策记忆是一个全球性问题,那么在国内,这个问题被进一步放大了。原因也并不复杂,我此前在 不同运营商之间打电话能畅通无阻,聊天软件之间为何“老死不相往来”? 中也提到,就是信息割裂。

微信、钉钉、飞书、抖音、微博、QQ,各自形成封闭生态,决策痕迹被分散在不同平台、不同权限、不同数据结构中。表面上,这是协议不统一、加密方式不同、接口标准各异,但根源并不在技术,而在商业利益和生态封闭。

这些平台的核心资产不是“连接”,而是“用户关系”和“行为数据”。而决策记忆,恰恰是这些数据中最敏感、也最不愿意外流的一部分。

结果就是,Ai 要想还原一次完整决策,需要穿越的不是技术障碍,而是一堵又一堵人为筑起的围墙。

西方在这方面稍微有优势一点,正如前几天我看到陶小桃的一篇文章: 欧盟好像很喜欢出张嘴制定规则而不是做前沿技术 ,在西方语境下,无论是监管推动,还是历史形成的协议文化,都在客观上为平台间的部分互通留下了空间。比如,《欧盟数字市场法案》出台后,像 Facebook、WhatsApp 等全球前几名的聊天软件,都已经逐步实现互联互通。

不过,这并不是简单的“谁更先进”的问题,而是制度和生态差异。同时,也不意味着商业巨头会主动放弃利益,但至少在制度层面,数据的流动性没有被完全堵死。而 Ai,恰恰是一个对信息连续性极度敏感的系统。

Ai 的长期持久记忆能力是大趋势

最近一段时间,很多群里都在吐槽内存价格暴涨,抛开背后那些“阴谋论”不谈,“Ai 算力需求爆发”至少也算是一个合理的解释方向。只是,我觉得这种解释还不算很完整。

当下 Ai 发展最迅猛的无疑是“智能体”应用,而智能体的运行毫无疑问需要大量内存参与计算。与先前主要靠 GPU 运算的模式相比,有了显著变化。

也就是说,其实现在 Ai 正在从“算一次给答案”,转向“长期参与决策”,正在从“回合制”,过渡到“长期记忆”。这也意味着,对 Ai 系统而言,“记忆”远比计算更重要。记住上下文,记住历史判断,记住那些无法被轻易结构化的过程信息,当这些记忆成为核心能力,内存就不再只是硬件指标,而是一种新的基础设施,正如英伟达的 GPU 一样。

回头再看这一轮 Ai 风口,老T越来越觉得,Ai 发展真正的分水岭可能并不在模型参数、推理速度,甚至也不完全在算力规模。而在于谁能构建可持续的 Ai 记忆系统,谁能用 Ai 替代高频、重流程、强依赖经验的环节,谁能把分散在不同平台、不同组织中的数据信息串联起来。

最后的赢家,也许不是最会算的,而是最会记的。

但也正如前边提到,智慧不仅包含知识还包含经验,当你问 Ai 今天中午吃什么时,未来的 Ai 可能会通过收集你很长一段时间的饮食记录、胃口倾向、账户余额、日程安排等等各类数据信息,分析出来一个最理想的答案,但它永远不知道,你突然间回想起外婆家的可口饭菜时,所需要的临时决定。

#人工智能 #ai智能体 #上下文记忆 #决策经验 #信息割裂 #中国互联网

评论