
- 面壁智能的先行:
这正是面壁智能在2月发布并开源MiniCPM-o 4.5时提出的核心理念。在其技术报告中,面壁智能将目标定义为构建一个能够处理和生成「交错多模态信息」的系统,其核心动机就是摆脱「对讲机」的束缚。
- TML的愿景:
在其博客中,翁荔团队明确指出,要从「回合制」转变为处理平行的输入、输出信息流。AI 应该能一边听你说话,一边看着周围的环境,同时思考并生成回应,甚至在你话音未落时就能捕捉到意图,进行打断或补充。

▲面壁智能Omni-Flow框架示意图

▲TML微轮次框架示意图
- 让模型自己决定「何时说」:
由于信息是连续输入的,模型学会了在对话的「流」中寻找最佳发言时机,彻底摆脱了对VAD的依赖。
- 实现「主动交互」:
模型不再是被动等待指令的机器,而是可以主动与周围的环境进行交互,对环境的变动、人物做出反应。
TML(2026年5月):交付的是一份详尽的技术博客和一支制作精良的Demo视频。它成功地将一个激动人心的技术愿景传递给了世界,但截至目前,它仍是一个「期货」。
面壁智能(2026年2月与4月):交付的是一套完整、开源、可立即上手的技术栈。包括了可部署的模型权重、复现所有工作的源代码、长达数十页的详尽技术报告,以及人人可试玩的在线Demo。它是一个已经可以触摸和使用的「现货」。
▲MiniCPM-o 4.5视觉主动提醒


