“编者按:当AI那颠覆性的「苦涩教训」,遇上企业内部混乱的「垃圾桶现实」,我们该何去何从?这篇文章深刻地剖析了过程至上与结果导向这两种范式在AI时代的根本性对决。
ETHAN MOLLICK
2025年7月28日
我最欣赏的组织学论文之一,来自学者 Ruthanne Huising。
它描绘了这样一个场景::一个团队接到任务,要为公司绘制一份完整的流程图,忠实记录从原材料到成品的每一个运作环节。
然而,随着绘图的深入他们发现,公司里充斥着大量看似荒谬和无序的工作。
他们挖出了一整套产出物根本无人问津的流程,发现了许多用于办成事的非官方“野路子”,还目睹了海量的重复劳动。
许多参与这个项目的员工,本是公司寄予厚望的骨干,在看清真相后,信念纷纷崩塌。
流程图的真相
让我们听听 Huising 教授的亲口描述,看看后来发生了什么:
“一些人还心存幻想,觉得高层总该有一两个人知道这些问题吧。但这种乐观很快就被现实击得粉碎。
比如,一位经理拿着流程图向 CEO 汇报,为他揭示了一个前所未见的景象:公司的战略与运营早已严重脱节,内部设计一片混乱。
这位 CEO 听完汇报,一屁股坐下,把头埋在桌上,过了许久才说一句话:“这状况比我想象的还要烂得多。”
他这才坦承,自己不仅对公司的实际运营失去了控制,甚至连过去那点所谓的掌控感,也纯粹是自己的幻觉。
对许多人来说,这番景象或许并不令人意外。凡是研究过或亲身在组织里待过的人,都会明白一件事:所有组织,本质上都有点乱。
事实上,组织学里有一个经典理论,就叫「垃圾桶模型」。
这个模型把组织比作一个混乱的垃圾桶,里面一股脑地塞满了各种问题、解决方案和决策者。
所谓的决策,往往只是这些要素在某个时刻的随机碰撞,而非什么深思熟虑的理性产物。
当然,这个观点也不能走极端。组织毕竟有其结构、决策者和流程,这些都实实在在地发挥着作用。
关键在于,这些结构并非出自精心的设计和清晰的记录,而是在长期的演变和人际博弈中,慢慢生长出来的。
在「垃圾桶模型」的世界里,潜规则、个人经验、以及那些复杂又没留下文档的流程,才是命脉。
这也正是人工智能难以在企业中大规模应用症结所在。尽管 43% 的美国员工都用过 AI,但大多是零敲碎打地解决自己的问题。
想在整个企业推广 AI,难于登天。因为传统自动化依赖清晰的规则和固定的流程,而这恰恰是垃圾桶型组织所没有的。
要让 AI 真正落地,就必须针对具体场景,耐着性子构建 AI 系统,摸清那些混乱的真实流程,再对症下药。
这是一个艰巨而缓慢的过程,也预示着企业拥抱 AI 的道路将无比漫长。
至少,如果我们坚持认为 AI 必须像人类一样,先去理解我们组织的运作方式,那结论就是如此。但 AI 研究者们,早已得到了一个完全不同的,甚至有些「苦涩的教训」。
苦涩的教训
计算机科学家理查德·萨顿,在 2019 年一篇影响深远的文章中,首次提出了「苦涩的教训」这一概念。
他指出,AI 研究领域存在一个反复上演的模式:每当研究者试图解决一个难题,例如在象棋中战胜人类,他们总是从那些充满智慧和技巧的优雅方案入手。
他们研究开局策略,评估棋子位置的优劣,总结攻击的战术范式,建立庞大的残局数据库。程序员将人类数百年的象棋智慧,一行行地手工编写进软件里。
然而,第一台击败人类世界冠军的电脑「深蓝」,其核心武器并非这些人类知识,而是每秒搜索两亿个棋局的暴力计算。
到了 2017 年,谷歌的 AlphaZero 横空出出世。它在对各种棋类规则一无所知的情况下,通过海量的自我对弈,不仅征服了国际象棋,还一并拿下了将棋和围棋。
人类数百年积累的优雅知识,在它面前变得无足轻重。纯粹的算力规模,结合通用的学习算法,就足以碾压一切。
这就是那个苦涩的教训:把人类的理解强行灌输给 AI,其效果远不如放手让 AI 自己探索,并为它提供无穷无尽的算力。
为何有两个版本的图?为何它们略有出入?答案即将揭晓。
这个教训之所以苦涩,是因为它揭示了一个残酷的事实:我们穷尽一生经验所建立的对世界的理解,在用 AI 解决问题时,可能并没有那么重要。
研究者们数十年如一日,小心翼翼地将人类的专业知识编码,其最终成果,却不如简单粗暴地堆砌算力来得有效。
如今,我们即将亲眼见证,这个苦涩的教训是否也适用于整个商业世界。
智能体
个人使用聊天机器人就能受益良多,但在企业层面,真正的兴奋点在于「智能体」。
这是一个尚显模糊的术语,我把它定义为:能够自主行动以达成特定目标的 AI 系统。
你不再需要一步步地下达指令,而是直接将任务委派给它,由它独立完成。
然而,过去的 AI 系统还远不足以应对真实世界里五花八门的混乱。
因此,一年前我们创建第一款 AI 教学游戏时,必须为智能体系统中的每一步都进行精细的手工设计,才能处理好那些范围狭窄的任务。
尽管 AI 的自主工作能力正在飞速提升,但在绝大多数复杂工作上,它们离人类水平还相去甚远,并且很容易在多步骤的复杂任务中迷失方向。
这是以 80% 的成功率为门槛的测试结果
要了解当前最顶尖的智能体系统,可以看看 Manus。它采用了一系列巧妙的方法,来构建能完成实际工作的 AI 智能体。
Manus 团队分享了许多构建智能体的宝贵经验,其中包含了大量有趣的工程细节和极为精巧的提示词设计。
在写这篇文章时,我向 Manus 提出了一个需求:我需要一张漂亮的图表,对比从现代象棋电脑诞生到 2025 年,人类顶尖大师与最强电脑的 ELO 等级分。
系统立刻开始运作。它先是创建了一个待办事项列表,然后收集数据,编写文件,在我提出微调后,最终生成了文章开头左侧的那张图。
它为何要遵循这个顺序?因为 Manus 是被手工精心打磨出来的,旨在成为当下最强的通用智能体。
它的系统提示里,包含了数百行量身定制的指令,其中就有关于如何创建待办清单的详细说明,这些都凝聚了开发者来之不易的宝贵知识。
你是否看到了问题的关键?精心打磨、量身定制、宝贵知识——这正是「苦涩的教训」告诫我们应该极力避免的工作,因为它们终将被更通用的技术所淘汰。
现在,证据似乎已经出现。OpenAI 最近发布的 ChatGPT agent,就代表了一种根本性的转变。
它并非通过学习人类的工作过程来接受训练;恰恰相反,OpenAI 直接用最终结果的好坏来对它进行强化学习。
比如,他们可能不会教 AI 如何像人一样一步步制作 Excel 表格,而是只负责评价它最终生成的表格质量,直到它自己摸索出制作优秀表格的方法。
为了展示两种路线的异同,我把完全相同的指令也发给了 ChatGPT agent,它生成了右边那张图。
但这一次,没有待办清单,没有预设脚本。智能体只是遵循其内在的、神秘的决策路径,为我呈现出它根据训练所能达到的最佳输出。
你可能会注意到,除了外观,两张图在数据上也存在差异。
例如,它们对深蓝电脑的评分就不同。这是因为深蓝的 ELO 分数从未有过官方测定。Manus 的数据来自一次简单的网络搜索,最终指向了一个论坛的猜测。
而接受了结果导向训练的 ChatGPT agent,则找到了更可靠的信源,包括一篇《大西洋月刊》的深度文章来佐证其数据。
同样,当我要求两者生成一个功能完整的 Excel 文件时,ChatGPT agent 的版本完美可用,而 Manus 的版本则包含了错误。
我无法断言 ChatGPT agent 已全面超越 Manus,但我深信,它的迭代速度将会快得多。
Manus 的进步依赖于更多的人工打磨和定制化开发。而 ChatGPT agent 的进步,只需要更多的芯片和更多的优质数据。
如果「苦涩的教训」依然成立,那么长期的胜负似乎已无悬念。
更重要的是,这两种智能体的对决,向所有企业提出了一个根本性的问题:面对 AI,我们到底该如何布局?
垃圾桶里的未来
让我们再次回到那个混乱的商业世界。
当个体在拥抱 AI 的浪潮中如鱼得水时,企业却仍在垃圾桶的泥潭里苦苦挣扎,耗费数月光阴去梳理内部的混乱流程,然后才敢小心翼翼地部署 AI 系统。
但万一,这个顺序从一开始就错了呢?
苦涩的教训在向我们暗示,或许我们很快就不再需要关心一家公司如何产出,而只需聚焦于产出本身。
我们可以直接定义一份完美的销售报告应该是什么样,一次满分的客户互动该如何体现,然后训练 AI 去达成这个结果。
AI 将在企业内部的混沌中,自己找到一条路。这条路或许比人类摸索出的所有官方路径都更高效,尽管我们可能完全无法理解其过程。
如果未来果真如此,那位曾把头埋在桌上绝望的 CEO,其实大可不必。他无需去理顺每一个打结的流程,他只需要定义清楚何为成功,然后放手让 AI 在那片混乱中自行导航。
这么看来,苦涩的教训或许反而是甜蜜的解药:所有那些不成文的流程、非正式的网络、心照不宣的规则,可能通通都无关紧要了。
唯一重要的,是当一个好的结果出现时,你拥有识别它的能力。
若真如此,那个垃圾桶依然存在,但我们却再也无需亲手在里面翻找。商业竞争的壁垒将被重新定义。
企业过去在优化流程、沉淀知识、打造卓越运营护城河上所付出的一切努力,其价值可能远比想象的要低。
如果 AI 智能体仅靠学习最终结果就能成长,那么任何一个能定义清楚好结果并提供足够多范例的组织,无论其内部管理是井井有条还是混乱不堪,都有可能达到相似的高度。
当然,也存在另一种可能:垃圾桶理论最终胜出。人类社会的复杂性,以及那些在混乱中野蛮生长的流程,对于 AI 来说过于错综复杂,若不深入理解便无法驾驭。
我们究竟身处一个什么样的问题之中?它更像是一盘可以用算力暴力破解的象棋,还是某种从根源上就更为混沌的存在?
我们即将找到答案。押下不同赌注的公司已经纷纷入场,而我们,也终将看清这场游戏的真实玩法。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!