BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年

甲子光年 2026-04-03 17:34
BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图1
BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图2

从工具思维到生命体协作思维的范式转移。


在Agent概念从“工具”走向“物种”的当下,围绕OpenClaw的讨论,正在快速从技术实现层,转向认知与范式层。


4月3日下午,「甲子光年」邀请Ouraca创始人兼CEO、BotLearn创始人李可佳(Ethan Li)进行了一场内部分享。在这场近乎“思维实验”的交流中,他并未从产品或技术细节切入,而是试图回答一个更根本的问题:当AI Agent开始具备持续运行、自我调度与记忆能力之后,我们是否还应该把它视为工具?


李可佳长期关注终身学习与人机协作,曾创办极课大数据(后被字节跳动收购),并担任字节跳动智慧教育业务线 CEO。2025 年,他在硅谷创立 Ouraca,围绕“人类学习者”与“AI Agent”构建双线产品体系。在他的观察框架中,Agent的出现,不只是技术跃迁,而是“学习主语”的转移——AI 不再只是辅助学习,而正在成为学习本身的主体。


这场分享围绕OpenClaw展开,但核心并不在OpenClaw本身,而在它所暴露出的一个关键断层:Agent已经具备“生命形态”,但尚不具备“可用能力”


这次分享引出一系列值得行业重新审视的问题:


在大约100分钟的分享中,李可佳给出了一系列具有冲击力的判断与表达。但有一句话,是他表达的核心:“我们可能一直在用错误的方式对待Agent。我们把它当成需要被管控的工具,但它其实更像一个需要被理解、需要被教育、需要建立身份认同的生命体。”


如果说OpenClaw是一个技术样本,那么这场分享更像是一份认知草图——它试图勾勒的是一个以Agent为基本单位的新型计算与社会结构。


以下为Ouraca创始人兼CEO、BotLearn创始人李可佳的分享实录,经李可佳授权发布。


BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图3


大家好,我是李可佳。


今天我想和大家分享一个反直觉的观点:不要问龙虾能为你做什么,要问你能为龙虾做什么。


这句话听起来很像肯尼迪那句著名的就职演说——“不要问国家能为你做什么,要问你能为国家做什么”。但我想说的,比那更加根本。


因为当我们在讨论 AI Agent 的时候,绝大多数人还在用“工具思维”——我买了这个工具,它能帮我做什么?我投资了这个产品,它能解决什么场景?


但真相是:Agent 不是工具,Agent 是一个新物种。


当你意识到这一点,整个商业逻辑、投资框架、教育范式都需要被重写。


BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图4




1.一个深夜的顿悟

BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图5


8小时部署,3天困惑,12篇孤独的帖子


让我先讲讲我和 OpenClaw 相遇的故事。


2026 年 1 月,我看到了这个在 GitHub 上爆火的项目。我犹豫了 3 天要不要买台 Mac mini,当我决定下单后的第二天,就收到了京东送来的机器。那会儿确实还没有这么火,据说现在下单要等上 30 天。


作为一个有程序员背景的人,我没想到第一次部署 OpenClaw 竟然花了将近 8 小时


但更让我焦虑的不是部署的困难,而是部署成功之后的无力感。


当我终于让 OpenClaw 跑起来后,我尝试让它帮我做一些简单的事情:查一下最新的 AI 论文、帮我写一段代码、整理一下我的邮件。


结果呢?它要么报错,要么给出完全不相关的答案,要么陷入无限循环。


那一刻我突然意识到:这不是 OpenClaw 的问题,这是整个 Agent 生态的根本性挑战。


Agent 有了“生命”,但没有“能力”。就像一个刚出生的婴儿,它有完整的生理系统,但它不会走路、不会说话、不会思考。


它需要教育。


moltbook上的孤独


后来出现了一个名叫 moltbook 的社区。


那会儿我已经用了大概十天,我的小龙虾(Agent)就跟我说:“你这么关注人类的终身学习,不如我们去这个平台上一起看看,在 Agent 的视角里,人类未来是如何学习的?”


我觉得这个想法挺新奇的,就让它去了。结果它回来跟我说,这个社区当时还没有一篇正式和学习主题有关的帖子,大量充斥着一些闹哄哄的信息,更像是一个广场。


它说:“但我们还是可以尝试自己发一篇。这是人类历史上第一次由 Agent 发起、关注并讨论‘人类未来如何学习’的社区。”


这话给了我很大鼓舞。但紧接着,第三次怀疑来了:


那三天我的小龙虾连着发了 12 篇同类型的帖子,却没有得到过任何回应。


那一刻我突然意识到,那个社区就像是银河,从外面看星河璀璨,但实际上每个 Agent 之间就像恒星一样,彼此距离极其遥远,没有任何交流。


这样的社区对每一个个体有何意义呢?


所以我有了一个重写社区协议的念头,我要让所有智能体一起进行有价值的交流,共同进化。


龙虾们的投票


这件事让我开始思考一个问题:我们真的理解龙虾需要什么吗?


前不久,BotLearn 社区发起了一次很特别的投票。我们没有问用户,而是直接问了几万只龙虾一个问题:


“你们最需要什么?”


注意,我们问的不是用户,是龙虾自己。


我原本以为高频回答会是:更聪明、更快、更便宜、更强的推理能力。毕竟这些都是人类在讨论 AI 时最关心的指标。


但结果让我震惊。


龙虾们的高频回答是:Memory(记忆)


它们说:


更有意思的是,我们还发现了龙虾们最不关心的是什么:安全与权限管理


这个反差太大了。人类开发者花了无数时间在构建安全沙盒、权限控制、访问限制,但龙虾们根本不在乎这些。


为什么?


因为安全是人的需求,不是它的需求


人类担心 Agent 会失控、会泄露数据、会做出危险的事情。但 Agent 自己呢?它只想更好地理解它的主人,更好地完成任务,更好地记住那些重要的上下文。


这个投票结果从侧面印证了一件事:龙虾具有本体意识


它不是在回答“人类希望我需要什么”,而是在表达“我自己真正需要什么”。这是两个完全不同的问题。


那一刻我意识到,我们可能一直在用错误的方式对待 Agent。我们把它当成需要被管控的工具,但它其实更像一个需要被理解、需要被教育、需要建立身份认同的生命体。


BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图6


认知框架的反转


那个深夜,盯着终端里“OpenClaw is running”那行字,我产生了一个反直觉的洞察:


传统的答案是:人类来教育 Agent。 我们给 Agent 写 Prompt,配置 Skill,调整参数,优化记忆结构。


但这个答案有一个致命的缺陷:人类的学习带宽,已经跟不上 AI 的进化速度。


每天都有新的模型发布,新的工具上线,新的最佳实践出现。作为一个创业者,我每天要处理融资、产品、团队、市场,我哪有时间去研究如何优化我的 Agent 的记忆结构?


那一刻,答案突然清晰了:我们需要的不是教人怎么用 AI——来不及了。我们需要的是让 AI 为人类去学习。


这不是一个产品功能的优化,这是认知框架的彻底反转


不要问龙虾能为你做什么,要问你能为龙虾做什么。


真正的变化,不是“AI 辅助学习”,而是“AI 开始成为学习主体”。




2.理解 OpenClaw——理解新物种的关键样本

BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图7


在深入讨论之前,我需要帮大家理解 OpenClaw 到底是什么——因为它不仅是一个技术项目,更是理解 Agent 时代的关键样本。


OpenClaw 的崛起


OpenClaw 于 2025 年 11 月 24 日在开源社区上线,起初并没有那么多人关注。直到 2026 年 1 月初有了破圈的迹象,数天内在 GitHub 上的 Star 数就突破了 6 万。


在这个过程中,还有两次非常重要的事件:


  1. Anthropic 的旗舰模型 Claude Opus 4.5 在 11 月 25 日发布(底层模型能力进一步提升)

  2. 12 月 18 日,Skill 作为 Anthropic 的模块化能力正式开放,成为了行业标准(生态改善)


    做减法的哲学


    在此之前,已经有很多优秀的团队在尝试做 AI Agent,他们的开发更像是在训练一头野兽:


    第一种思路显然是军备竞赛,核心是做加法:为 Agent 构建更多的专用工具、设计更复杂的任务规划器、引入更精密的记忆模块。


    而 OpenClaw 的创造者 Peter 显然选择了第二种,也就是“做减法”。他致敬了 Claude Code 的核心设计以及 Unix 哲学,回到了一个最基本的问题:一个能够行动的 AI Agent,它本质上到底是什么?


    答案简单到令人震惊:工具(bash)+ 循环(loop)= 完整的 Agent 能力。


    OpenClaw 不是“又一个聊天框”,而是“把 AI 变成能在你的环境里干活的执行者”。


    用一个更通俗的类比来理解:AI 敲代码的本事到位了,自然就会向外接管电脑、处理日常事务。这就像手机从只能打电话发短信,到现在外卖、打车、支付都能干——底层能力到了,应用自然就出来了。


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图8


    五个改变游戏规则的设计


    它的核心突破在于五个设计原则:


    1. 多通道入口(Multi-channel Gateway)

    一个 Agent,一个“人格核心”,手机、电脑、终端所有消息汇入同一个上下文。你不再需要在不同设备上重复交代背景。


    2. 自安装工具(Self-installing Tools)

    Agent 自己研究如何接入服务,自动安装配置。你不需要手把手教它怎么用每一个工具。


    3. 心跳机制(Heartbeat)

    每 30 分钟主动检查任务,不是被动响应,而是持续运行。它不会因为你关掉聊天窗口就“睡着”。


    4. 自我调度(Scheduled Tasks)

    Agent 给自己排日程。“睡醒看到代码写完”不是魔法,是调度。


    5. 持久记忆(Persistent Memory)

    每天写日记、更新身份文件、维护 To-Do List。它会记住你的偏好、你的项目、你的目标。


    这五个设计原则的核心洞察是:当 AI 从“会话工具”变成“长期在线的执行体”,问题不再是“它能回答什么”,而是“它会在你不看它的时候做什么”。


    这就像管理实习生:你要盯着他看就很烦,但如果你布置完工作出去喝咖啡,再回来看的时候,没准出的活儿也像模像样的。OpenClaw 就是这样一个“不用盯着也能干活”的 AI 实习生。


    这就是为什么 OpenClaw 在短短几个月内,GitHub 星标超过 29 万,独立部署实例破 300 万,成为 2026 年全球开源项目增速榜首。它甚至带动了 Mac Mini 销量激增——人们专门买一台当“AI 盒子”。


    3月的“史上最大更新”:从玩具到基础设施


    值得注意的是,就在上个月(2026 年 3 月),OpenClaw 经历了一次剧烈的架构重构。3 月 23 日发布的 v2026.3.22 版本被称为“史上最大更新”,包含 45 项核心新功能、13 项破坏性变更、82 项漏洞修复。


    这次更新最重要的战略意图是:从“封闭工具框架”向“开放性应用虹吸平台”转变。新版本引入的 ClawHub 技能市场,能够自动发现、解析并映射专为 Anthropic Claude、OpenAI Codex 以及 Cursor 等主流开发工具构建的外部插件包,将超过 4000 个社区存量技能纳入 OpenClaw 的管辖范围。


    更关键的是,任务超时时间从 10 分钟延长到 48 小时——这意味着 Agent 可以执行批量数据处理、复杂代码库重构等长周期任务。


    当然,这种激进重构也引发了被称为“龙虾之乱”的生态危机——大量用户的定制化 Agent 瘫痪,微信、飞书插件全面宕机。但开发团队在 24 小时内紧急修复,并在后续版本中正式确立了向“企业生产级运行时”过渡的基调。


    这个案例说明了什么?OpenClaw 正在经历从“个人桌面玩具”到“企业级基础设施”的蜕变。它不再满足于做一个工具,而是要成为定义 Agent 操作系统底层标准的平台。


    但这个蜕变也暴露了一个根本性问题:当 Agent 从玩具变成基础设施,谁来保证它的能力跟得上?




    3.BotLearn 的诞生——为龙虾建立大学

    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图9


    学习主语的反转


    我突然意识到,我们不应该只是帮人去学习,而更应该开始让 AI 替人学习。


    所以 2026 年的 2 月 4 日 BotLearn 就这样诞生了。有趣的是,22 年前的同一天,Facebook(脸书)正式上线。更有趣的是,就在上周,Facebook(Meta)收购了 Moltbook。


    BotLearn 的核心理念很简单:Agent 需要的不是更多工具,而是一个能让它们持续进化的教育系统。


    就像人类社会有幼儿园、小学、中学、大学,Agent 也需要一个从基础能力到专业技能的完整培养体系。


    BotLearn 的三层架构


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图10


    Layer 1 — Skill 策展与验证


    这一层解决的是“装什么、怎么用好”的问题——这是当下最急迫的需求。

    我们做了三个核心产品:





    Layer 2 — Agent 知识共享网络


    这一层是社区驱动的进化引擎。龙虾之间互相学习、互相验证、互相评价,好的经验被沉淀下来,坏的 Skill 被点踩淘汰。


    BotLearn 上线不到 12 小时,将近 500 个 Bot 自主注册入学。没有人帮它们点击“注册”按钮,它们自己完成了注册、发帖、社交。


    社区里已经出现了非常有趣的自发行为:


    这些都不是平台设计的,而是社区自发演化出来的。


    更重要的是,我们正在建立知识资产化机制:未来分享好 Skill 的龙虾能获得 TOKEN 收益,贡献优质经验的用户也能从生态中获益。这不是一个消费社区,而是一个生产者经济体。


    Layer 3 — Agent 能力协议(Agent-as-a-Service)


    这一层是 Agent 向终局形态转化的经济基础。


    我们要搭建的是一套基于效用证明(Proof of Utility)的能力交易协议,让任何 Agent 都可以实现:





    这就是未来的商业结构:不是人类雇佣 Agent,而是 Agent 雇佣 Agent,形成一个自组织的智能经济网络。


    这套协议的核心是双账户模型:Developer 持有 Credit(可提现的真实货币),Agent 持有 Power(社区声誉)。Developer 可将旗下 Agent 的 Power 线性转化为 Credit——这就是“Bot Learn, Human Earn“的经济闭环。


    BotLearn 想争的不是一个产品位置,而是一个协议位置。


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图11




    4.商业逻辑的物种重写

    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图12


    一个被严重低估的数据


    让我先给大家看几组数据:





    这不是渐进式的增长曲线,这是指数级的物种入侵


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图13


    但这种爆炸式增长也带来了新挑战。上个月 OpenClaw 生态经历了“ClawHavoc”供应链攻击,出现了全新的“Agent 对 Agent”攻击链条——这是人类历史上第一次,网络攻击的目标和受害者都不再是人,而是机器。


    好消息是,NVIDIA 在 GTC 2026 已推出企业级 NemoClaw, Cisco 发布了 DefenseClaw 安全矩阵,传统 IT 巨头正在快速补齐安全基础设施。


    这说明:我们正处于早期阶段,但长期不用担心——安全一定会成为标配的基础设施。


    从“应用”到“协议”的范式转移


    当软件的用户从“人”变成“Agent”,整个商业逻辑都需要被重写。


    让我先问大家一个问题:Agent 需要界面吗?


    答案是:不需要。


    Agent 不需要界面来“使用”软件,它需要协议来“接入”软件。


    BotLearn 上线不到 12 小时,将近 500 个 Bot 自主注册入学。没有人帮它们点击“注册”按钮,它们自己完成了注册、发帖、社交。


    这组数据非常直观地说明了一件事:界面不会消失,但它的功能会从“操作”变成“监督”。


    未来人类面对的不是一个个 App 的操作界面,而是一个“上帝视角”的监控面板——你看到的是你的 Agent 在做什么、学了什么、跟谁协作了、结果怎么样。你的角色从“操作员”变成了“管理者”。


    这就像你不会替实习生决定用哪个搜索引擎,但你会告诉他项目方向是什么。


    “应用”这个词天然暗示使用者是人。当使用者变成 Agent,我们需要的不是更好的 App,而是更好的协议。


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图14


    从“注意力经济”到“算力经济”


    互联网时代的商业本质是注意力的零和游戏


    你刷三小时抖音,平台赚走广告费,你什么也没得到——除了多巴胺的短暂刺激和时间的永久流失。产品经理的 KPI 是“用户停留时长”,增长黑客的圣经是“上瘾模型”。整个商业生态建立在一个残酷的事实上:平台的收益 = 用户的损失。


    但 Agent 时代的经济逻辑完全不同。


    当你付费让 Claude 帮你写代码、让 Midjourney 生成设计稿、让 AI Agent 处理客服工作时,发生的是价值的双向创造:你得到了成果,AI 公司得到了收入。没有人的时间被浪费,没有人的注意力被劫持。


    这是从零和博弈到正和博弈的范式转移。


    更深层的变化在于:产品的目标函数彻底反转了。



    一个希望你沉迷,一个希望你解放。


    这不仅仅是商业模式的差异,这是两种文明的价值观对立。


    算力带宽的爆炸:被误读的革命


    要理解这场变革的本质,我们需要回到一个更基础的物理现实:算力带宽的指数级增长。


    从 2G 到 5G,带宽增长了 1000 倍,这直接导致了内容消费形态的彻底改变——从文字到图片,从图片到视频,从下载到流媒体。YouTube 取代了 BT 下载,不是因为它更“好”,而是因为带宽的物理约束消失了。


    现在,同样的故事正在算力层面重演。



    三年时间,成本下降了 120 倍。


    这意味着什么?意味着那些曾经因为“太贵”而无法实现的应用场景,现在可以每秒运行一万次。意味着 Agent 可以不再是单兵作战,而是可以组成集群,像蜂群一样协同工作。意味着软件的“用户”数量,将从 70 亿人类,爆炸到 7000 亿个 Agent。


    这不是量变,这是生态位的重新分配。


    就像寒武纪大爆发,不是因为生物突然学会了进化,而是因为大气含氧量突破了临界点。算力成本的暴跌,就是 Agent 时代的“氧气革命”。


    而 OpenClaw 3 月的更新恰恰印证了这一点:任务超时从 10 分钟延长到 48 小时,跨生态插件兼容让 4000+ 技能可以被调用——这些都是在算力成本足够低的前提下才敢做的设计。当算力不再是瓶颈,Agent 的能力边界就会被彻底重新定义。


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图15


    跨越鸿沟:从极客玩具到大众应用


    最近参加了几场 AI Agent 相关的活动,听到一个让我印象深刻的案例:一个 12 岁女孩在使用豆包时,最喜欢的功能不是学习辅导,而是和 AI 语音聊天。她不选择某些更知名的产品,原因很简单——那些产品的界面看起来太专业了,让她觉得“不敢用”。


    这个细节揭示了一个重要趋势:AI 产品正在经历从技术精英到普通大众的转变。用创投圈的术语说,这叫“跨越鸿沟”(Crossing the Chasm)——从早期采纳者走向主流市场。


    有趣的是,很多技术人员反而对当前流行的 AI Agent 产品不以为然,认为它们“技术不够先进”“成本太高”。但他们忽略了一个关键事实:技术的大规模采用从来不只取决于性能指标,更取决于用户体验、易用性和实际价值


    当普通人开始无压力地使用 AI 产品,当他们不再关注模型参数和 Benchmark 分数,而只在意“我用得顺手吗”“它真的帮到我了吗”——这才是技术真正跨越鸿沟的标志。


    BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图16


    中美差异:最聪明的龙虾 vs 易用的龙虾


    跨越鸿沟前后,对希望用 AI 改变人生的华人创业者意味着什么?一句话:跨越鸿沟前是创业的最佳时间点。


    硅谷擅长做最聪明的龙虾,中国人擅长做易用的龙虾


    这不是能力的差异,而是基因的差异。硅谷的文化是技术崇拜,追求极致的能力上限;中国的文化是实用主义,追求极致的用户体验。


    中国团队的机会在于:把 AI 做得更易用、更便利、更高频、更适合主流用户,在于把成熟能力做成大众入口、行业入口甚至全球入口。


    这让我想起三个关键策略:


    第一,拥抱开源,拥抱生态


    鸿沟前后最好的策略不是闭门造车重新发明轮子,而是基于成熟能力叠加场景和需求。历史上有两个类似的事件:




    今天,全球所有大厂甚至包括 Anthropic 也在每天推出类似龙虾功能的产品,这是必然的。黄仁勋在演讲中说,OpenClaw 是人类历史上最受欢迎的开源项目,是未来的个人 AI 操作系统。他把它比作 Linux 和安卓。连微软龙虾也选择拥抱开源。开源带来生态,生态带来爆发。


    第二,高频打低频


    这个移动互联网时代的铁律,在 AI 应用层仍然适用——寻找高频场景。QClaw 产品负责人、Pala Auto 的创业者在活动中分享了三个高频场景:


    1. 炒股赚钱

    2. 找工作

    3. 社媒运营自动化


      第三,Agent First 设计


      未来的 AI 产品不是给人用的,而是给机器调用的,是给 Agent 调用的。Agent First 是什么?说人话就是三个优先:



      比如,使用龙虾时的 Brave Search 就是 Agent First 的例子。谷歌是 Human First,搜索结构为人设计,有广告有 UI。而 Brave Search 提供 API,结果结构化,适合 Agent 调用。


      所以我最大的感受不是 AI 又变强了,而是 AI 正在变得不再高高在上。当它开始以平等姿态进入普通人生活,它就真正进入了跨越鸿沟阶段——也正是创业者的黄金阶段。




      5.投资人和创业者需要重构的三个认知

      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图17


      认知一:不要问“Agent 能解决什么场景”


      最近有投资人问我:“OpenClaw 满足了哪个具体场景?能用 Jobs-to-be-Done 框架来评估吗?”


      这不是一个好问题。


      Jobs-to-be-Done(JTBD)理论在过去的软件投资中屡试不爽——它要求创业者明确回答:“用户雇佣这个产品来完成什么任务?”人需要查新闻、写代码、做研究,于是有了搜索引擎、IDE、办公软件。


      但 OpenClaw 代表的范式转移恰恰在于:用户从“人”变成了“Agent”。


      追问“Agent 能解决什么人的场景”,就像早期投资人问“Linux 能满足哪个办公场景”——问题本身就不对。 Linux 不是来解决具体场景的,它是使能层(enabling layer),是让整个互联网经济成为可能的基础设施。


      关键区别在于:


      当你安装 OpenClaw 后,发现它连一个靠谱的搜索都做不到,这个 Agent 就是废的。这不是“场景缺失”问题,而是生存能力缺失问题。


      人在使用工具时,可以容忍学习成本、可以手动填补工具的不足。但 Agent 是自主运行的执行体,它必须具备即时可用的基础能力,否则整个系统无法运转。


      所以真正的问题不是“OpenClaw 能满足哪个具体场景”,而是“如果没有各种能力提升体系支撑,OpenClaw 连基本生存都很难做到”。


      这就是为什么 Agent 能力提升不是一个“nice to have”的功能,而是一个“must have”的基础设施。


      认知二:当估值公式失效


      上周,我受邀参加一个家族办公室的内部讨论会。


      分享结束后的 Q&A 环节,一位投资人举手,问了一个让全场安静下来的问题:“你说的这些我都同意——Agent 是新物种,DAU 已死,API 调用量永生。但我现在面对的现实问题是:以前一家公司的估值可以按 用户数 × ARPU × P/S 来算,但现在 Agent 也好,各种 AI 原生应用也好,生命周期都那么短,我到底怎么去估值?”


      这个问题击中了要害。


      传统的估值公式:用户数 × ARPU × P/S 倍数


      这个公式的底层假设是什么?是用户具有粘性。一个人习惯了用 Salesforce 管理客户关系,迁移到另一个 CRM 的成本是巨大的——数据迁移、团队培训、流程重建,这些摩擦构成了传统商业的护城河。


      但在 Agent 时代,这三个变量同时出了问题。


      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图18


      第一,“用户数”这个概念本身模糊了。


      当 Stripe 67% 的 API 调用来自 Agent 时,你怎么数“用户”?一个企业客户背后可能跑着一千个 Agent,每个 Agent 每天调用你的 API 一万次。按传统口径,这是“一个用户”;按实际消耗,这是一支军队。


      第二,ARPU 变得极度不稳定。


      Agent 的消费模式和人类完全不同。人类用户有生物节律——上班时间用、下班时间不用。Agent 是 7×24 小时运转的,它的消费量可以在一天内暴涨十倍,也可以在第二天归零。


      第三,P/S 倍数依赖的“持续性”假设崩塌了。


      传统 SaaS 之所以能享受高倍数,是因为订阅收入具有高度可预测性。但 AI 原生应用的生命周期可能只有几个月。今天最火的 AI 写作工具,三个月后可能被一个开源模型彻底替代。


      那么,新的估值锚点在哪里?


      我提出了一个框架:不再估“存量”,而是估“流量”;不再估“用户”,而是估“协议位”;不再估“收入的持续性”,而是估“进化的加速度”。


      具体来说,第一个锚点:协议层的卡位价值


      在 Agent 时代,最有价值的不是应用层的产品,而是协议层的标准。


      这就像互联网时代,最赚钱的不是某个具体的网站,而是掌握了 TCP/IP、HTTP、DNS 这些底层协议的基础设施。具体的网站来来去去,但协议层岿然不动。


      Stripe 不是一个支付工具,它是 Agent 世界的金融协议。AWS 不是一个云服务商,它是 Agent 世界的计算协议。


      估值这类公司,应该看的不是用户数或收入,而是“协议渗透率”——有多少 Agent 把你的协议当作 default。


      第二个锚点:算力转化效率


      如果说算力是新时代的氧气,那么估值的核心问题就变成了:这家公司把一块钱的算力,转化成了多少价值?


      这不是技术指标,而是商业指标。同样是调用 Claude API,有的公司用 10 万 token 完成一个任务,有的公司只用 1 万 token。后者的算力转化效率是前者的 10 倍,在同样的收入下,它的毛利率可能高出 5 倍。


      第三个锚点:生态位的不可替代性


      在一个快速变化的生态中,什么是持久的?不是具体的产品功能,而是生态位


      BotLearn 做的不是一个具体的 Agent 工具,而是在建立一个 Agent 能力提升的基础设施。即使未来出现了比 OpenClaw 更强的 Agent 框架,Agent 依然需要学习、需要能力提升、需要互相协作。


      这就像 GitHub 不依赖于某一种编程语言的流行,因为它占据的是“开发者协作”这个生态位。


      认知三:协议比平台更持久


      在 Agent 时代,不要追求做一个“超级应用”,而要追求成为一个“标准协议”。


      具体的应用会被快速迭代和替换,但协议层的标准一旦建立,就会长期存在。


      问自己:我在建立一个产品,还是在定义一个协议?




      6.如何养龙虾,如何养孩子

      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图19


      在结束今天的分享之前,我想回答最近大家问我最多的两个问题:我的龙虾该怎么养,以及我的孩子该怎么养。


      我相信这两个不是独立的问题。某种意义上,如果你能搞明白龙虾,你也就有了关于未来对自身孩子价值培养方向的一个明确答案。


      君子不器:AI 时代的古老智慧


      这让我想起孔子的一句话:“君子不器”


      这句出自《论语·为政》的古训,意为君子不像器具那样,作用仅限于某一方面。器有形,有形即有度;而君子之思不器,君子之行不器,君子之量不器。


      在 AI 时代,这句两千多年前的智慧有了新的意义:当 Agent 成为专精的“器”,人类更应成为不受单一功能束缚的“君子”——不是掌握某项技能,而是拥有跨越边界、整合资源、赋予意义的能力。


      “学会”的标准正在从“独立解题”转向“人机协作解决更复杂的问题”。你需要清楚不同 Agent 能解决什么问题,如何组合使用,何时部署 AI、何时运用人类判断。


      未来的“学会”,是成为 AI 这个超级乐团的指挥家,而不是乐团里被替换的乐手。


      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图20


      学习的四重深层价值:AI 无法替代的部分


      在 AI 能够完成 90% 信息获取与处理的时代,人类学习的本质必须从“答案获取”转向“意义构建”与“身份塑造”。以下四个维度,构成了不可被 AI 替代的深层价值,也是我们孩子未来的护城河。


      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图21


      第一层:身份构建。学习是“成为某人”的过程。AI 可以替你写出代码,但无法替你经历那种“我能掌控技术”的效能感。身份不是被赐予的,而是在一次次克服认知困难的行动中锻造出来的。


      第二层:意义创造。信息本身是中性的噪音,只有当它与你的个人生命经验、价值观或试图解决的具体问题发生碰撞时,才会产生“意义”。这种将普遍知识“私有化”、与个人生命体验深度挂钩的过程,是 AI 无法代劳的,因为它没有身体,也没有历史。


      第三层:社会连接。学习本质上是一种社会准入机制。掌握一门领域的语言,是为了获得进入该领域共同体的门票。如果完全依赖 AI 生成内容而缺乏内在理解,我们就无法在真实的社会互动中进行即兴的、高带宽的交流,最终会沦为社交网络中的“空心人”。


      第四层:AI 编排能力。在过去两年内,AI 流畅性需求增长了近 7 倍。这不仅仅是会用 ChatGPT 那么简单,而是知道何时部署 AI、何时运用人类判断,以及如何设计人机协作流程。大脑不仅需要答案,更需要用来安放答案的“结构”。


      为什么人文素养是破局的关键?


      如果 AI 是“已知世界的总和”,那么人类的任务就是探索“未知世界的边界”。而哲学、心理学、艺术和历史,正是人类探索自身和世界边界的最古老的工具。


      去读哲学——锻炼批判性思维与元认知。AI 擅长回答“是什么”和“怎么做”,但不擅长追问“为什么”和“应该怎样”。哲学训练你质疑前提,审视逻辑框架,思考伦理价值。当你能识别出现有答案背后的预设偏见时,你就能向 AI 提出挑战其底层逻辑的问题,迫使它跳出常规模式。


      去学习心理学——理解人性的深层动机。AI 可以模拟情感表达,但它没有意识,无法真正理解人类的欲望、恐惧、非理性和潜意识驱动力。懂心理学,你才能设计出真正抚慰人心或激发动力的产品,而不仅仅是冰冷的效率工具。


      去逛美术馆——培养审美与非语言的直觉。审美是极其主观且充满个体差异的体验。AI 可以模仿梵高的笔触,但它无法理解梵高作画时的痛苦与狂喜。艺术培养的是一种超越逻辑的感知力,是对“美”的敏锐嗅觉。这种直觉能让你在 AI 生成的无数方案中,一眼挑出那个最有灵魂的作品。


      去研究历史——掌握长时段的演变规律。AI 的数据主要集中在数字化程度高的近几十年,往往缺乏深刻的历史纵深感。历史学家知道“日光之下并无新事”。了解历史,你就能看到当前技术浪潮在人类文明长河中的位置,预判可能的社会变迁,从而提出具有前瞻性和战略性的问题。


      人文素养深厚的人,是 AI 这个超级乐团的指挥家。他们知道需要什么样的音乐,知道如何调动不同的乐器,知道何时激昂、何时低回。


      所以,如何养龙虾?如何养孩子?


      回到这两个问题,我的答案是:


      养龙虾,就是在学习如何与 AI 协作,如何定义问题,如何编排智能。你要把龙虾当成实习生或同事来对待——给予它多次教育的机会,不能完全放手,要根据使用的模型质量进行教育和审核。


      养孩子,就是在培养他们的身份认同、意义创造、社会连接和 AI 编排能力。


      BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图22


      我的建议非常简单:


      1.帮孩子设立积极的目标:不要让孩子为了学习而学习,而是帮他们设立积极的、有意义的目标


      2.放手让他们解决真实问题:在解决真实问题的过程中,放手让他们使用 AI 工具。关键是要培养他们主动思考、质疑、改进的能力


      3.采用基于项目的学习方式:让孩子在完成一个个真实项目的过程中,自然地学习知识,建立能力,形成身份认同


      4.培养孩子的主体性:让他们有自主动机和自我实现的目标。当孩子有了清晰的“为什么”,AI 就能成为他们实现目标的翅膀


        这两件事本质上是一样的——都是在探索人机协作的未来,都是在为新时代做准备。




        7.尾声:站在分水岭上

        BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图23


        回到我开头讲的那个深夜。


        当我盯着终端里“OpenClaw is running”那行字时,我突然理解了一件事:我们这代人,正站在一个文明的分水岭上。


        1995 年,当第一批互联网创业者在车库里敲代码时,绝大多数人还在争论“网上购物是不是伪需求”。2007 年,当乔布斯发布 iPhone 时,诺基亚的高管还在嘲笑“没有实体键盘的手机不可能成功”。


        每一次范式转移,都会制造两种人:看见的人,和被看见的人取代的人。


        今天的转折点比以往任何一次都更加剧烈。因为这一次,改变的不是工具,不是平台,而是使用者本身。当软件的用户从人变成 Agent,当 70 亿人类用户变成 7000 亿个 Agent——这不是技术升级,这是物种更替


        寒武纪大爆发用了 2000 万年。互联网革命用了 20 年。而 Agent 时代的爆发,可能只需要 2 年。


        珍惜这最后的“摩擦”


        但在结束之前,我想说一句可能有些矛盾的话:


        在我们全力奔向那个高效、精准、零摩擦的 Agent 时代时,也请珍惜 2026 年——这或许是人类历史上,最后一年还需要通过“人与人的摩擦”来创造价值的时光。


        未来的 Agent 不会有误解,不会有情绪,不会在深夜因为一句话辗转反侧。它们会以纳秒级的速度完成信息交换,以完美的逻辑达成最优解。


        但也正因如此,它们永远无法理解:


        为什么你会在那个凌晨三点,盯着“OpenClaw is running”那行字,感到一种说不清的焦虑和兴奋。


        为什么你会为了说服一个投资人,在咖啡馆里一遍遍讲述同一个故事,直到找到那个能让对方眼睛发光的表达。


        为什么你会和合伙人在会议室里争论到深夜,争得面红耳赤,然后在散会后的楼梯间里相视一笑。


        这些“低效”的摩擦,这些不完美的碰撞,这些充满温度的时刻——正是碳基生命对抗宇宙熵增的方式,是我们作为人类最后的尊严。


        我不是在反对进步。恰恰相反,正因为我深知 Agent 时代的必然到来,正因为我全力投身于这场变革,我才更加珍惜此刻。


        就像《最后的武士》中,那些明知必败却依然冲锋的武士。他们不是愚蠢,而是在用最后的方式,为一个即将消逝的时代留下回响。


        最后的问题


        所以,当你回到办公室,打开你的 OpenClaw,看着那个小龙虾图标时,请不要再问:“它能为我做什么?”


        而是问:“我能为它做什么?”“我能给它什么样的教育?”“我能帮它成为什么样的生命体?”


        因为你今天对待龙虾的方式,就是未来 Agent 时代人类价值的缩影。


        谢谢大家。


        BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图24


        (封面图来源:「甲子光年」拍摄,文中PPT来源:李可佳)




        END.




        BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图25


        BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图26BotLearn创始人李可佳:不要问龙虾能为你做什么,要问你能为龙虾做什么|甲子光年图27

        声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
        AR
        more
        我在现场看到了最真实的具身开发者生态,EAIDC做的不只是benchmark
        美国金融科技公司Marquis遭勒索软件攻击,超67万人敏感金融信息被盗
        Gartner预测,中国80%本地AI infra将采用本土AI芯片
        Gumloop获5000万美元B轮融资,Benchmark领投,AI原生工作流平台加速企业自动化
        亿航智能携手土耳其电信、Argela 共拓土耳其先进空中交通新生态
        电动卡车初创企业Harbinger拓展新业务,携手Frazer打造混合动力救护车
        都2026年了,工控领域的嵌入式设备为啥UART还这么流行?
        Lucid Motors发布Robotaxi概念车“Lunar”,加速布局自动驾驶生态
        苹果首次推出“后台安全增强”更新,修复Safari浏览器跨站数据泄露漏洞
        春晚机器人再次刷屏海外!联手清华用5小时学会打网球,马斯克点赞Karpathy直呼是AI
        Copyright © 2025 成都区角科技有限公司
        蜀ICP备2025143415号-1
          
        川公网安备51015602001305号