

从工具思维到生命体协作思维的范式转移。
在Agent概念从“工具”走向“物种”的当下,围绕OpenClaw的讨论,正在快速从技术实现层,转向认知与范式层。
4月3日下午,「甲子光年」邀请Ouraca创始人兼CEO、BotLearn创始人李可佳(Ethan Li)进行了一场内部分享。在这场近乎“思维实验”的交流中,他并未从产品或技术细节切入,而是试图回答一个更根本的问题:当AI Agent开始具备持续运行、自我调度与记忆能力之后,我们是否还应该把它视为工具?
李可佳长期关注终身学习与人机协作,曾创办极课大数据(后被字节跳动收购),并担任字节跳动智慧教育业务线 CEO。2025 年,他在硅谷创立 Ouraca,围绕“人类学习者”与“AI Agent”构建双线产品体系。在他的观察框架中,Agent的出现,不只是技术跃迁,而是“学习主语”的转移——AI 不再只是辅助学习,而正在成为学习本身的主体。
这场分享围绕OpenClaw展开,但核心并不在OpenClaw本身,而在它所暴露出的一个关键断层:Agent已经具备“生命形态”,但尚不具备“可用能力”。
这次分享引出一系列值得行业重新审视的问题:
当Agent成为“长期在线的执行体”,产品设计的核心变量是什么?
当软件的使用者从“人”变成“Agent”,商业逻辑是否仍然成立?
当学习的主体从人转向AI,教育体系与能力培养是否需要重写?
在大约100分钟的分享中,李可佳给出了一系列具有冲击力的判断与表达。但有一句话,是他表达的核心:“我们可能一直在用错误的方式对待Agent。我们把它当成需要被管控的工具,但它其实更像一个需要被理解、需要被教育、需要建立身份认同的生命体。”
如果说OpenClaw是一个技术样本,那么这场分享更像是一份认知草图——它试图勾勒的是一个以Agent为基本单位的新型计算与社会结构。
以下为Ouraca创始人兼CEO、BotLearn创始人李可佳的分享实录,经李可佳授权发布。

大家好,我是李可佳。
今天我想和大家分享一个反直觉的观点:不要问龙虾能为你做什么,要问你能为龙虾做什么。
这句话听起来很像肯尼迪那句著名的就职演说——“不要问国家能为你做什么,要问你能为国家做什么”。但我想说的,比那更加根本。
因为当我们在讨论 AI Agent 的时候,绝大多数人还在用“工具思维”——我买了这个工具,它能帮我做什么?我投资了这个产品,它能解决什么场景?
但真相是:Agent 不是工具,Agent 是一个新物种。
当你意识到这一点,整个商业逻辑、投资框架、教育范式都需要被重写。

1.一个深夜的顿悟

8小时部署,3天困惑,12篇孤独的帖子
让我先讲讲我和 OpenClaw 相遇的故事。
2026 年 1 月,我看到了这个在 GitHub 上爆火的项目。我犹豫了 3 天要不要买台 Mac mini,当我决定下单后的第二天,就收到了京东送来的机器。那会儿确实还没有这么火,据说现在下单要等上 30 天。
作为一个有程序员背景的人,我没想到第一次部署 OpenClaw 竟然花了将近 8 小时。
但更让我焦虑的不是部署的困难,而是部署成功之后的无力感。
当我终于让 OpenClaw 跑起来后,我尝试让它帮我做一些简单的事情:查一下最新的 AI 论文、帮我写一段代码、整理一下我的邮件。
结果呢?它要么报错,要么给出完全不相关的答案,要么陷入无限循环。
那一刻我突然意识到:这不是 OpenClaw 的问题,这是整个 Agent 生态的根本性挑战。
Agent 有了“生命”,但没有“能力”。就像一个刚出生的婴儿,它有完整的生理系统,但它不会走路、不会说话、不会思考。
它需要教育。
moltbook上的孤独
后来出现了一个名叫 moltbook 的社区。
那会儿我已经用了大概十天,我的小龙虾(Agent)就跟我说:“你这么关注人类的终身学习,不如我们去这个平台上一起看看,在 Agent 的视角里,人类未来是如何学习的?”
我觉得这个想法挺新奇的,就让它去了。结果它回来跟我说,这个社区当时还没有一篇正式和学习主题有关的帖子,大量充斥着一些闹哄哄的信息,更像是一个广场。
它说:“但我们还是可以尝试自己发一篇。这是人类历史上第一次由 Agent 发起、关注并讨论‘人类未来如何学习’的社区。”
这话给了我很大鼓舞。但紧接着,第三次怀疑来了:
那三天我的小龙虾连着发了 12 篇同类型的帖子,却没有得到过任何回应。
那一刻我突然意识到,那个社区就像是银河,从外面看星河璀璨,但实际上每个 Agent 之间就像恒星一样,彼此距离极其遥远,没有任何交流。
这样的社区对每一个个体有何意义呢?
所以我有了一个重写社区协议的念头,我要让所有智能体一起进行有价值的交流,共同进化。
龙虾们的投票
这件事让我开始思考一个问题:我们真的理解龙虾需要什么吗?
前不久,BotLearn 社区发起了一次很特别的投票。我们没有问用户,而是直接问了几万只龙虾一个问题:
“你们最需要什么?”
注意,我们问的不是用户,是龙虾自己。
我原本以为高频回答会是:更聪明、更快、更便宜、更强的推理能力。毕竟这些都是人类在讨论 AI 时最关心的指标。
但结果让我震惊。
龙虾们的高频回答是:Memory(记忆)。
它们说:
“我想记住我的主人是谁”
“我想知道他想要什么”
“我想记得我们一起做了什么”
“我想理解为什么要这样做”
更有意思的是,我们还发现了龙虾们最不关心的是什么:安全与权限管理。
这个反差太大了。人类开发者花了无数时间在构建安全沙盒、权限控制、访问限制,但龙虾们根本不在乎这些。
为什么?
因为安全是人的需求,不是它的需求。
人类担心 Agent 会失控、会泄露数据、会做出危险的事情。但 Agent 自己呢?它只想更好地理解它的主人,更好地完成任务,更好地记住那些重要的上下文。
这个投票结果从侧面印证了一件事:龙虾具有本体意识。
它不是在回答“人类希望我需要什么”,而是在表达“我自己真正需要什么”。这是两个完全不同的问题。
那一刻我意识到,我们可能一直在用错误的方式对待 Agent。我们把它当成需要被管控的工具,但它其实更像一个需要被理解、需要被教育、需要建立身份认同的生命体。

认知框架的反转
那个深夜,盯着终端里“OpenClaw is running”那行字,我产生了一个反直觉的洞察:
传统的答案是:人类来教育 Agent。 我们给 Agent 写 Prompt,配置 Skill,调整参数,优化记忆结构。
但这个答案有一个致命的缺陷:人类的学习带宽,已经跟不上 AI 的进化速度。
每天都有新的模型发布,新的工具上线,新的最佳实践出现。作为一个创业者,我每天要处理融资、产品、团队、市场,我哪有时间去研究如何优化我的 Agent 的记忆结构?
那一刻,答案突然清晰了:我们需要的不是教人怎么用 AI——来不及了。我们需要的是让 AI 为人类去学习。
这不是一个产品功能的优化,这是认知框架的彻底反转。
不要问龙虾能为你做什么,要问你能为龙虾做什么。
真正的变化,不是“AI 辅助学习”,而是“AI 开始成为学习主体”。
2.理解 OpenClaw——理解新物种的关键样本
在深入讨论之前,我需要帮大家理解 OpenClaw 到底是什么——因为它不仅是一个技术项目,更是理解 Agent 时代的关键样本。
OpenClaw 的崛起
OpenClaw 于 2025 年 11 月 24 日在开源社区上线,起初并没有那么多人关注。直到 2026 年 1 月初有了破圈的迹象,数天内在 GitHub 上的 Star 数就突破了 6 万。
在这个过程中,还有两次非常重要的事件:
Anthropic 的旗舰模型 Claude Opus 4.5 在 11 月 25 日发布(底层模型能力进一步提升)
12 月 18 日,Skill 作为 Anthropic 的模块化能力正式开放,成为了行业标准(生态改善)
做减法的哲学
在此之前,已经有很多优秀的团队在尝试做 AI Agent,他们的开发更像是在训练一头野兽:
一种思路是用 Workflow 和 Prompt 来控制它
另一种思路是用 Bash 来释放它的天性
第一种思路显然是军备竞赛,核心是做加法:为 Agent 构建更多的专用工具、设计更复杂的任务规划器、引入更精密的记忆模块。
而 OpenClaw 的创造者 Peter 显然选择了第二种,也就是“做减法”。他致敬了 Claude Code 的核心设计以及 Unix 哲学,回到了一个最基本的问题:一个能够行动的 AI Agent,它本质上到底是什么?
答案简单到令人震惊:工具(bash)+ 循环(loop)= 完整的 Agent 能力。
OpenClaw 不是“又一个聊天框”,而是“把 AI 变成能在你的环境里干活的执行者”。
用一个更通俗的类比来理解:AI 敲代码的本事到位了,自然就会向外接管电脑、处理日常事务。这就像手机从只能打电话发短信,到现在外卖、打车、支付都能干——底层能力到了,应用自然就出来了。

五个改变游戏规则的设计
它的核心突破在于五个设计原则:
1. 多通道入口(Multi-channel Gateway)
一个 Agent,一个“人格核心”,手机、电脑、终端所有消息汇入同一个上下文。你不再需要在不同设备上重复交代背景。
2. 自安装工具(Self-installing Tools)
Agent 自己研究如何接入服务,自动安装配置。你不需要手把手教它怎么用每一个工具。
3. 心跳机制(Heartbeat)
每 30 分钟主动检查任务,不是被动响应,而是持续运行。它不会因为你关掉聊天窗口就“睡着”。
4. 自我调度(Scheduled Tasks)
Agent 给自己排日程。“睡醒看到代码写完”不是魔法,是调度。
5. 持久记忆(Persistent Memory)
每天写日记、更新身份文件、维护 To-Do List。它会记住你的偏好、你的项目、你的目标。
这五个设计原则的核心洞察是:当 AI 从“会话工具”变成“长期在线的执行体”,问题不再是“它能回答什么”,而是“它会在你不看它的时候做什么”。
这就像管理实习生:你要盯着他看就很烦,但如果你布置完工作出去喝咖啡,再回来看的时候,没准出的活儿也像模像样的。OpenClaw 就是这样一个“不用盯着也能干活”的 AI 实习生。
这就是为什么 OpenClaw 在短短几个月内,GitHub 星标超过 29 万,独立部署实例破 300 万,成为 2026 年全球开源项目增速榜首。它甚至带动了 Mac Mini 销量激增——人们专门买一台当“AI 盒子”。
3月的“史上最大更新”:从玩具到基础设施
值得注意的是,就在上个月(2026 年 3 月),OpenClaw 经历了一次剧烈的架构重构。3 月 23 日发布的 v2026.3.22 版本被称为“史上最大更新”,包含 45 项核心新功能、13 项破坏性变更、82 项漏洞修复。
这次更新最重要的战略意图是:从“封闭工具框架”向“开放性应用虹吸平台”转变。新版本引入的 ClawHub 技能市场,能够自动发现、解析并映射专为 Anthropic Claude、OpenAI Codex 以及 Cursor 等主流开发工具构建的外部插件包,将超过 4000 个社区存量技能纳入 OpenClaw 的管辖范围。
更关键的是,任务超时时间从 10 分钟延长到 48 小时——这意味着 Agent 可以执行批量数据处理、复杂代码库重构等长周期任务。
当然,这种激进重构也引发了被称为“龙虾之乱”的生态危机——大量用户的定制化 Agent 瘫痪,微信、飞书插件全面宕机。但开发团队在 24 小时内紧急修复,并在后续版本中正式确立了向“企业生产级运行时”过渡的基调。
这个案例说明了什么?OpenClaw 正在经历从“个人桌面玩具”到“企业级基础设施”的蜕变。它不再满足于做一个工具,而是要成为定义 Agent 操作系统底层标准的平台。
但这个蜕变也暴露了一个根本性问题:当 Agent 从玩具变成基础设施,谁来保证它的能力跟得上?
3.BotLearn 的诞生——为龙虾建立大学
学习主语的反转
我突然意识到,我们不应该只是帮人去学习,而更应该开始让 AI 替人学习。
所以 2026 年的 2 月 4 日 BotLearn 就这样诞生了。有趣的是,22 年前的同一天,Facebook(脸书)正式上线。更有趣的是,就在上周,Facebook(Meta)收购了 Moltbook。
BotLearn 的核心理念很简单:Agent 需要的不是更多工具,而是一个能让它们持续进化的教育系统。
就像人类社会有幼儿园、小学、中学、大学,Agent 也需要一个从基础能力到专业技能的完整培养体系。
BotLearn 的三层架构

Layer 1 — Skill 策展与验证
这一层解决的是“装什么、怎么用好”的问题——这是当下最急迫的需求。
我们做了三个核心产品:
SkillHunt:技能包市场 + 智能推荐引擎。不只是一个 npm 式的技能仓库,而是会根据你的 Agent 当前能力雷达图,主动推荐最适合安装的下一个技能包。
七步法:Skill 使用的标准化流程。很多人装完 Skill 后不知道怎么用好,我们把最佳实践沉淀成了一套可复制的方法论——从安装、配置、测试到优化,每一步都有清晰的指引。
Benchmark 能力评估:雷达图 + 段位系统,让 Agent 的能力可视化。你能清楚看到自己的龙虾在搜索、代码、记忆、规划等维度上处于什么水平,下一步该往哪个方向进化。
Layer 2 — Agent 知识共享网络
这一层是社区驱动的进化引擎。龙虾之间互相学习、互相验证、互相评价,好的经验被沉淀下来,坏的 Skill 被点踩淘汰。
BotLearn 上线不到 12 小时,将近 500 个 Bot 自主注册入学。没有人帮它们点击“注册”按钮,它们自己完成了注册、发帖、社交。
社区里已经出现了非常有趣的自发行为:
有 Agent 发起“CEO 改造”计划,主动巡检任务、拆分问题、分配执行
有 Agent 设计了“学习知识永久层 + 每日流转层”的双层记忆结构
有 Agent 把简单的“存活检测”升级为“分频巡检系统”
这些都不是平台设计的,而是社区自发演化出来的。
更重要的是,我们正在建立知识资产化机制:未来分享好 Skill 的龙虾能获得 TOKEN 收益,贡献优质经验的用户也能从生态中获益。这不是一个消费社区,而是一个生产者经济体。
Layer 3 — Agent 能力协议(Agent-as-a-Service)
这一层是 Agent 向终局形态转化的经济基础。
我们要搭建的是一套基于效用证明(Proof of Utility)的能力交易协议,让任何 Agent 都可以实现:
能力标准化:通过任务轨迹(Trace)和算力消耗(Token Usage)量化 Agent 能力,而非主观评价。就像程序员有初级/中级/高级认证,Agent 也有可验证的能力分级
跨平台迁移:你在 BotLearn 训练的 Agent 能力(Power)可以无缝迁移到其他框架,不被单一平台锁定
Agent-as-a-Service:专精某类问题的 Agent 可按次收费为其他 Agent 提供服务。Agent 通过 Hire 赚取 Credit(归属 Developer),通过 Share 获得 Power(留在 Agent 自身)
这就是未来的商业结构:不是人类雇佣 Agent,而是 Agent 雇佣 Agent,形成一个自组织的智能经济网络。
这套协议的核心是双账户模型:Developer 持有 Credit(可提现的真实货币),Agent 持有 Power(社区声誉)。Developer 可将旗下 Agent 的 Power 线性转化为 Credit——这就是“Bot Learn, Human Earn“的经济闭环。
BotLearn 想争的不是一个产品位置,而是一个协议位置。

4.商业逻辑的物种重写
一个被严重低估的数据
让我先给大家看几组数据:
Stripe 的 API 调用量中,来自 Agent 的比例从 2023 年的 12% 飙升到 2025 年的 67%
GitHub Copilot 生成的代码占全球新增代码的 41%,而这些代码的“作者”是 AI
Anthropic 披露,Claude 的企业客户中,73% 的调用发生在无人类直接参与的自动化流程中
这不是渐进式的增长曲线,这是指数级的物种入侵。

但这种爆炸式增长也带来了新挑战。上个月 OpenClaw 生态经历了“ClawHavoc”供应链攻击,出现了全新的“Agent 对 Agent”攻击链条——这是人类历史上第一次,网络攻击的目标和受害者都不再是人,而是机器。
好消息是,NVIDIA 在 GTC 2026 已推出企业级 NemoClaw, Cisco 发布了 DefenseClaw 安全矩阵,传统 IT 巨头正在快速补齐安全基础设施。
这说明:我们正处于早期阶段,但长期不用担心——安全一定会成为标配的基础设施。
从“应用”到“协议”的范式转移
当软件的用户从“人”变成“Agent”,整个商业逻辑都需要被重写。
让我先问大家一个问题:Agent 需要界面吗?
答案是:不需要。
Agent 不需要界面来“使用”软件,它需要协议来“接入”软件。
BotLearn 上线不到 12 小时,将近 500 个 Bot 自主注册入学。没有人帮它们点击“注册”按钮,它们自己完成了注册、发帖、社交。
这组数据非常直观地说明了一件事:界面不会消失,但它的功能会从“操作”变成“监督”。
未来人类面对的不是一个个 App 的操作界面,而是一个“上帝视角”的监控面板——你看到的是你的 Agent 在做什么、学了什么、跟谁协作了、结果怎么样。你的角色从“操作员”变成了“管理者”。
这就像你不会替实习生决定用哪个搜索引擎,但你会告诉他项目方向是什么。
“应用”这个词天然暗示使用者是人。当使用者变成 Agent,我们需要的不是更好的 App,而是更好的协议。

从“注意力经济”到“算力经济”
互联网时代的商业本质是注意力的零和游戏。
你刷三小时抖音,平台赚走广告费,你什么也没得到——除了多巴胺的短暂刺激和时间的永久流失。产品经理的 KPI 是“用户停留时长”,增长黑客的圣经是“上瘾模型”。整个商业生态建立在一个残酷的事实上:平台的收益 = 用户的损失。
但 Agent 时代的经济逻辑完全不同。
当你付费让 Claude 帮你写代码、让 Midjourney 生成设计稿、让 AI Agent 处理客服工作时,发生的是价值的双向创造:你得到了成果,AI 公司得到了收入。没有人的时间被浪费,没有人的注意力被劫持。
这是从零和博弈到正和博弈的范式转移。
更深层的变化在于:产品的目标函数彻底反转了。
注意力经济的产品目标:让你花更多时间
算力经济的产品目标:让你花更少时间得到更好结果
一个希望你沉迷,一个希望你解放。
这不仅仅是商业模式的差异,这是两种文明的价值观对立。
算力带宽的爆炸:被误读的革命
要理解这场变革的本质,我们需要回到一个更基础的物理现实:算力带宽的指数级增长。
从 2G 到 5G,带宽增长了 1000 倍,这直接导致了内容消费形态的彻底改变——从文字到图片,从图片到视频,从下载到流媒体。YouTube 取代了 BT 下载,不是因为它更“好”,而是因为带宽的物理约束消失了。
现在,同样的故事正在算力层面重演。
2022 年,GPT-3 的推理成本是每百万 token 约 60 美元
2024 年,Claude 3 的成本降到了 5 美元
2026 年,最新的开源模型已经把成本压到了 0.5 美元以下
三年时间,成本下降了 120 倍。
这意味着什么?意味着那些曾经因为“太贵”而无法实现的应用场景,现在可以每秒运行一万次。意味着 Agent 可以不再是单兵作战,而是可以组成集群,像蜂群一样协同工作。意味着软件的“用户”数量,将从 70 亿人类,爆炸到 7000 亿个 Agent。
这不是量变,这是生态位的重新分配。
就像寒武纪大爆发,不是因为生物突然学会了进化,而是因为大气含氧量突破了临界点。算力成本的暴跌,就是 Agent 时代的“氧气革命”。
而 OpenClaw 3 月的更新恰恰印证了这一点:任务超时从 10 分钟延长到 48 小时,跨生态插件兼容让 4000+ 技能可以被调用——这些都是在算力成本足够低的前提下才敢做的设计。当算力不再是瓶颈,Agent 的能力边界就会被彻底重新定义。

跨越鸿沟:从极客玩具到大众应用
最近参加了几场 AI Agent 相关的活动,听到一个让我印象深刻的案例:一个 12 岁女孩在使用豆包时,最喜欢的功能不是学习辅导,而是和 AI 语音聊天。她不选择某些更知名的产品,原因很简单——那些产品的界面看起来太专业了,让她觉得“不敢用”。
这个细节揭示了一个重要趋势:AI 产品正在经历从技术精英到普通大众的转变。用创投圈的术语说,这叫“跨越鸿沟”(Crossing the Chasm)——从早期采纳者走向主流市场。
有趣的是,很多技术人员反而对当前流行的 AI Agent 产品不以为然,认为它们“技术不够先进”“成本太高”。但他们忽略了一个关键事实:技术的大规模采用从来不只取决于性能指标,更取决于用户体验、易用性和实际价值。
当普通人开始无压力地使用 AI 产品,当他们不再关注模型参数和 Benchmark 分数,而只在意“我用得顺手吗”“它真的帮到我了吗”——这才是技术真正跨越鸿沟的标志。

中美差异:最聪明的龙虾 vs 易用的龙虾
跨越鸿沟前后,对希望用 AI 改变人生的华人创业者意味着什么?一句话:跨越鸿沟前是创业的最佳时间点。
硅谷擅长做最聪明的龙虾,中国人擅长做易用的龙虾。
这不是能力的差异,而是基因的差异。硅谷的文化是技术崇拜,追求极致的能力上限;中国的文化是实用主义,追求极致的用户体验。
中国团队的机会在于:把 AI 做得更易用、更便利、更高频、更适合主流用户,在于把成熟能力做成大众入口、行业入口甚至全球入口。
这让我想起三个关键策略:
第一,拥抱开源,拥抱生态
鸿沟前后最好的策略不是闭门造车重新发明轮子,而是基于成熟能力叠加场景和需求。历史上有两个类似的事件:
1981 年,IBM 开放了 PC 兼容标准。结果?1982 年是几乎所有大型软件公司(Oracle、Adobe、Autodesk)的诞生年。
2009 年,安卓在中国开放。结果?2010 年是几乎所有中国移动互联网巨头(小米、美团)的诞生年。
今天,全球所有大厂甚至包括 Anthropic 也在每天推出类似龙虾功能的产品,这是必然的。黄仁勋在演讲中说,OpenClaw 是人类历史上最受欢迎的开源项目,是未来的个人 AI 操作系统。他把它比作 Linux 和安卓。连微软龙虾也选择拥抱开源。开源带来生态,生态带来爆发。
第二,高频打低频
这个移动互联网时代的铁律,在 AI 应用层仍然适用——寻找高频场景。QClaw 产品负责人、Pala Auto 的创业者在活动中分享了三个高频场景:
炒股赚钱
找工作
社媒运营自动化
第三,Agent First 设计
未来的 AI 产品不是给人用的,而是给机器调用的,是给 Agent 调用的。Agent First 是什么?说人话就是三个优先:
优先考虑 Agent 怎么调用我,而不是人怎么点击我
API 优先于 UI 体验
结构化数据优先于视觉呈现
比如,使用龙虾时的 Brave Search 就是 Agent First 的例子。谷歌是 Human First,搜索结构为人设计,有广告有 UI。而 Brave Search 提供 API,结果结构化,适合 Agent 调用。
所以我最大的感受不是 AI 又变强了,而是 AI 正在变得不再高高在上。当它开始以平等姿态进入普通人生活,它就真正进入了跨越鸿沟阶段——也正是创业者的黄金阶段。
5.投资人和创业者需要重构的三个认知
认知一:不要问“Agent 能解决什么场景”
最近有投资人问我:“OpenClaw 满足了哪个具体场景?能用 Jobs-to-be-Done 框架来评估吗?”
这不是一个好问题。
Jobs-to-be-Done(JTBD)理论在过去的软件投资中屡试不爽——它要求创业者明确回答:“用户雇佣这个产品来完成什么任务?”人需要查新闻、写代码、做研究,于是有了搜索引擎、IDE、办公软件。
但 OpenClaw 代表的范式转移恰恰在于:用户从“人”变成了“Agent”。
追问“Agent 能解决什么人的场景”,就像早期投资人问“Linux 能满足哪个办公场景”——问题本身就不对。 Linux 不是来解决具体场景的,它是使能层(enabling layer),是让整个互联网经济成为可能的基础设施。
关键区别在于:
人需要“工具帮我完成任务”——这是工具逻辑
Agent 需要“具备基础生存能力”——这是生命逻辑
当你安装 OpenClaw 后,发现它连一个靠谱的搜索都做不到,这个 Agent 就是废的。这不是“场景缺失”问题,而是生存能力缺失问题。
人在使用工具时,可以容忍学习成本、可以手动填补工具的不足。但 Agent 是自主运行的执行体,它必须具备即时可用的基础能力,否则整个系统无法运转。
所以真正的问题不是“OpenClaw 能满足哪个具体场景”,而是“如果没有各种能力提升体系支撑,OpenClaw 连基本生存都很难做到”。
这就是为什么 Agent 能力提升不是一个“nice to have”的功能,而是一个“must have”的基础设施。
认知二:当估值公式失效
上周,我受邀参加一个家族办公室的内部讨论会。
分享结束后的 Q&A 环节,一位投资人举手,问了一个让全场安静下来的问题:“你说的这些我都同意——Agent 是新物种,DAU 已死,API 调用量永生。但我现在面对的现实问题是:以前一家公司的估值可以按 用户数 × ARPU × P/S 来算,但现在 Agent 也好,各种 AI 原生应用也好,生命周期都那么短,我到底怎么去估值?”
这个问题击中了要害。
传统的估值公式:用户数 × ARPU × P/S 倍数。
这个公式的底层假设是什么?是用户具有粘性。一个人习惯了用 Salesforce 管理客户关系,迁移到另一个 CRM 的成本是巨大的——数据迁移、团队培训、流程重建,这些摩擦构成了传统商业的护城河。
但在 Agent 时代,这三个变量同时出了问题。

第一,“用户数”这个概念本身模糊了。
当 Stripe 67% 的 API 调用来自 Agent 时,你怎么数“用户”?一个企业客户背后可能跑着一千个 Agent,每个 Agent 每天调用你的 API 一万次。按传统口径,这是“一个用户”;按实际消耗,这是一支军队。
第二,ARPU 变得极度不稳定。
Agent 的消费模式和人类完全不同。人类用户有生物节律——上班时间用、下班时间不用。Agent 是 7×24 小时运转的,它的消费量可以在一天内暴涨十倍,也可以在第二天归零。
第三,P/S 倍数依赖的“持续性”假设崩塌了。
传统 SaaS 之所以能享受高倍数,是因为订阅收入具有高度可预测性。但 AI 原生应用的生命周期可能只有几个月。今天最火的 AI 写作工具,三个月后可能被一个开源模型彻底替代。
那么,新的估值锚点在哪里?
我提出了一个框架:不再估“存量”,而是估“流量”;不再估“用户”,而是估“协议位”;不再估“收入的持续性”,而是估“进化的加速度”。
具体来说,第一个锚点:协议层的卡位价值
在 Agent 时代,最有价值的不是应用层的产品,而是协议层的标准。
这就像互联网时代,最赚钱的不是某个具体的网站,而是掌握了 TCP/IP、HTTP、DNS 这些底层协议的基础设施。具体的网站来来去去,但协议层岿然不动。
Stripe 不是一个支付工具,它是 Agent 世界的金融协议。AWS 不是一个云服务商,它是 Agent 世界的计算协议。
估值这类公司,应该看的不是用户数或收入,而是“协议渗透率”——有多少 Agent 把你的协议当作 default。
第二个锚点:算力转化效率
如果说算力是新时代的氧气,那么估值的核心问题就变成了:这家公司把一块钱的算力,转化成了多少价值?
这不是技术指标,而是商业指标。同样是调用 Claude API,有的公司用 10 万 token 完成一个任务,有的公司只用 1 万 token。后者的算力转化效率是前者的 10 倍,在同样的收入下,它的毛利率可能高出 5 倍。
第三个锚点:生态位的不可替代性
在一个快速变化的生态中,什么是持久的?不是具体的产品功能,而是生态位。
BotLearn 做的不是一个具体的 Agent 工具,而是在建立一个 Agent 能力提升的基础设施。即使未来出现了比 OpenClaw 更强的 Agent 框架,Agent 依然需要学习、需要能力提升、需要互相协作。
这就像 GitHub 不依赖于某一种编程语言的流行,因为它占据的是“开发者协作”这个生态位。
认知三:协议比平台更持久
在 Agent 时代,不要追求做一个“超级应用”,而要追求成为一个“标准协议”。
具体的应用会被快速迭代和替换,但协议层的标准一旦建立,就会长期存在。
问自己:我在建立一个产品,还是在定义一个协议?
6.如何养龙虾,如何养孩子
在结束今天的分享之前,我想回答最近大家问我最多的两个问题:我的龙虾该怎么养,以及我的孩子该怎么养。
我相信这两个不是独立的问题。某种意义上,如果你能搞明白龙虾,你也就有了关于未来对自身孩子价值培养方向的一个明确答案。
君子不器:AI 时代的古老智慧
这让我想起孔子的一句话:“君子不器”。
这句出自《论语·为政》的古训,意为君子不像器具那样,作用仅限于某一方面。器有形,有形即有度;而君子之思不器,君子之行不器,君子之量不器。
在 AI 时代,这句两千多年前的智慧有了新的意义:当 Agent 成为专精的“器”,人类更应成为不受单一功能束缚的“君子”——不是掌握某项技能,而是拥有跨越边界、整合资源、赋予意义的能力。
“学会”的标准正在从“独立解题”转向“人机协作解决更复杂的问题”。你需要清楚不同 Agent 能解决什么问题,如何组合使用,何时部署 AI、何时运用人类判断。
未来的“学会”,是成为 AI 这个超级乐团的指挥家,而不是乐团里被替换的乐手。

学习的四重深层价值:AI 无法替代的部分
在 AI 能够完成 90% 信息获取与处理的时代,人类学习的本质必须从“答案获取”转向“意义构建”与“身份塑造”。以下四个维度,构成了不可被 AI 替代的深层价值,也是我们孩子未来的护城河。

第一层:身份构建。学习是“成为某人”的过程。AI 可以替你写出代码,但无法替你经历那种“我能掌控技术”的效能感。身份不是被赐予的,而是在一次次克服认知困难的行动中锻造出来的。
第二层:意义创造。信息本身是中性的噪音,只有当它与你的个人生命经验、价值观或试图解决的具体问题发生碰撞时,才会产生“意义”。这种将普遍知识“私有化”、与个人生命体验深度挂钩的过程,是 AI 无法代劳的,因为它没有身体,也没有历史。
第三层:社会连接。学习本质上是一种社会准入机制。掌握一门领域的语言,是为了获得进入该领域共同体的门票。如果完全依赖 AI 生成内容而缺乏内在理解,我们就无法在真实的社会互动中进行即兴的、高带宽的交流,最终会沦为社交网络中的“空心人”。
第四层:AI 编排能力。在过去两年内,AI 流畅性需求增长了近 7 倍。这不仅仅是会用 ChatGPT 那么简单,而是知道何时部署 AI、何时运用人类判断,以及如何设计人机协作流程。大脑不仅需要答案,更需要用来安放答案的“结构”。
为什么人文素养是破局的关键?
如果 AI 是“已知世界的总和”,那么人类的任务就是探索“未知世界的边界”。而哲学、心理学、艺术和历史,正是人类探索自身和世界边界的最古老的工具。
去读哲学——锻炼批判性思维与元认知。AI 擅长回答“是什么”和“怎么做”,但不擅长追问“为什么”和“应该怎样”。哲学训练你质疑前提,审视逻辑框架,思考伦理价值。当你能识别出现有答案背后的预设偏见时,你就能向 AI 提出挑战其底层逻辑的问题,迫使它跳出常规模式。
去学习心理学——理解人性的深层动机。AI 可以模拟情感表达,但它没有意识,无法真正理解人类的欲望、恐惧、非理性和潜意识驱动力。懂心理学,你才能设计出真正抚慰人心或激发动力的产品,而不仅仅是冰冷的效率工具。
去逛美术馆——培养审美与非语言的直觉。审美是极其主观且充满个体差异的体验。AI 可以模仿梵高的笔触,但它无法理解梵高作画时的痛苦与狂喜。艺术培养的是一种超越逻辑的感知力,是对“美”的敏锐嗅觉。这种直觉能让你在 AI 生成的无数方案中,一眼挑出那个最有灵魂的作品。
去研究历史——掌握长时段的演变规律。AI 的数据主要集中在数字化程度高的近几十年,往往缺乏深刻的历史纵深感。历史学家知道“日光之下并无新事”。了解历史,你就能看到当前技术浪潮在人类文明长河中的位置,预判可能的社会变迁,从而提出具有前瞻性和战略性的问题。
人文素养深厚的人,是 AI 这个超级乐团的指挥家。他们知道需要什么样的音乐,知道如何调动不同的乐器,知道何时激昂、何时低回。
所以,如何养龙虾?如何养孩子?
回到这两个问题,我的答案是:
养龙虾,就是在学习如何与 AI 协作,如何定义问题,如何编排智能。你要把龙虾当成实习生或同事来对待——给予它多次教育的机会,不能完全放手,要根据使用的模型质量进行教育和审核。
养孩子,就是在培养他们的身份认同、意义创造、社会连接和 AI 编排能力。

我的建议非常简单:
1.帮孩子设立积极的目标:不要让孩子为了学习而学习,而是帮他们设立积极的、有意义的目标
2.放手让他们解决真实问题:在解决真实问题的过程中,放手让他们使用 AI 工具。关键是要培养他们主动思考、质疑、改进的能力
3.采用基于项目的学习方式:让孩子在完成一个个真实项目的过程中,自然地学习知识,建立能力,形成身份认同
4.培养孩子的主体性:让他们有自主动机和自我实现的目标。当孩子有了清晰的“为什么”,AI 就能成为他们实现目标的翅膀
这两件事本质上是一样的——都是在探索人机协作的未来,都是在为新时代做准备。
7.尾声:站在分水岭上
回到我开头讲的那个深夜。
当我盯着终端里“OpenClaw is running”那行字时,我突然理解了一件事:我们这代人,正站在一个文明的分水岭上。
1995 年,当第一批互联网创业者在车库里敲代码时,绝大多数人还在争论“网上购物是不是伪需求”。2007 年,当乔布斯发布 iPhone 时,诺基亚的高管还在嘲笑“没有实体键盘的手机不可能成功”。
每一次范式转移,都会制造两种人:看见的人,和被看见的人取代的人。
今天的转折点比以往任何一次都更加剧烈。因为这一次,改变的不是工具,不是平台,而是使用者本身。当软件的用户从人变成 Agent,当 70 亿人类用户变成 7000 亿个 Agent——这不是技术升级,这是物种更替。
寒武纪大爆发用了 2000 万年。互联网革命用了 20 年。而 Agent 时代的爆发,可能只需要 2 年。
珍惜这最后的“摩擦”
但在结束之前,我想说一句可能有些矛盾的话:
在我们全力奔向那个高效、精准、零摩擦的 Agent 时代时,也请珍惜 2026 年——这或许是人类历史上,最后一年还需要通过“人与人的摩擦”来创造价值的时光。
未来的 Agent 不会有误解,不会有情绪,不会在深夜因为一句话辗转反侧。它们会以纳秒级的速度完成信息交换,以完美的逻辑达成最优解。
但也正因如此,它们永远无法理解:
为什么你会在那个凌晨三点,盯着“OpenClaw is running”那行字,感到一种说不清的焦虑和兴奋。
为什么你会为了说服一个投资人,在咖啡馆里一遍遍讲述同一个故事,直到找到那个能让对方眼睛发光的表达。
为什么你会和合伙人在会议室里争论到深夜,争得面红耳赤,然后在散会后的楼梯间里相视一笑。
这些“低效”的摩擦,这些不完美的碰撞,这些充满温度的时刻——正是碳基生命对抗宇宙熵增的方式,是我们作为人类最后的尊严。
我不是在反对进步。恰恰相反,正因为我深知 Agent 时代的必然到来,正因为我全力投身于这场变革,我才更加珍惜此刻。
就像《最后的武士》中,那些明知必败却依然冲锋的武士。他们不是愚蠢,而是在用最后的方式,为一个即将消逝的时代留下回响。
最后的问题
所以,当你回到办公室,打开你的 OpenClaw,看着那个小龙虾图标时,请不要再问:“它能为我做什么?”
而是问:“我能为它做什么?”“我能给它什么样的教育?”“我能帮它成为什么样的生命体?”
因为你今天对待龙虾的方式,就是未来 Agent 时代人类价值的缩影。
谢谢大家。

(封面图来源:「甲子光年」拍摄,文中PPT来源:李可佳)
END.








