前 OpenAI 首席技术官米拉·穆拉蒂所创办的人工智能公司 Thinking Machines,正式发布了其首款产品 Tinker。
Tinker 是一个专为微调语言模型而设计的应用程序接口(API)。

专为研究者设计,化繁为简
这款名为 Tinker 的工具,旨在通过微调技术,自动化地创建定制化的前沿模型。
它本质上是一个托管式的微调接口,核心优势在于,即使在进行大规模分布式训练时,研究人员依然能完全掌控数据和算法。
这意味着,研究者们终于可以从繁重的底层基础设施管理中解放出来,更轻松地进行模型微调。
技术核心:兼顾控制力与自动化
Tinker 的适用范围极广,无论小型模型还是像 Qwen-235B-A22B 这样的超大型专家混合模型,都能得到良好支持,模型间的切换也仅需一行代码。
它没有把训练过程变成一个无法窥探的黑箱,而是开放了像前向后向传播和采样这样的底层训练环节。
同时,系统又会自动处理任务调度、资源扩展和故障恢复等复杂工作,达到了控制力与自动化的精妙平衡。
此外,Tinker 采用了低秩自适应技术,允许多个训练任务共享同一批图形处理器,这不仅大幅降低了成本,也让更多实验得以并行开展。
配套的开源项目 Tinker Cookboo
k 还提供了丰富的即用型方案,帮助研究者跳过编写样板代码的繁琐步骤,直接专注于核心想法的验证。
开启微调新范式
官方介绍,Tinker 会负责处理所有的调度、资源分配和故障恢复工作,使得用户无论是进行小型还是大型的训练,都能立即启动,无需为基础设施管理而烦恼。
Tinker 的价值已在顶尖学术界得到验证。普林斯顿大学用它训练定理证明器,斯坦福大学则用它构建化学推理模型。
伯克利大学的研究人员运行了复杂的多智能体强化学习循环,Redwood Research 也成功微调了 Qwen3-32B 模型来解决棘手的控制问题。
正如行业专家 Andrej Karpathy 所分析的,Tinker 将数据与算法设计等 90% 的创造性选择权交还给研究者,而将基础设施的麻烦减少到不足一成。
他进一步阐释,对于分类器或处理流水线这类数据丰富、目标明确的任务,微调往往是最佳策略。在这种场景下,小而精的专用模型,其表现能够超越依赖大型提示的通用模型。
Tinker 的真正变革性在于,它彻底改变了模型微调的门槛与方式。研究者不再需要庞大的工程团队支持,就能快速将想法付诸实践。
其核心设计哲学,便是在屏蔽分布式训练复杂性的同时,赋予研究者对训练循环的完全控制权,让他们能聚焦于真正重要的创新,而非重复劳动。
目前,Tinker 已面向研究人员和开发者开放私人测试版,用户可在 Thinking Machines 官网上申请加入等待名单,官方称将立即开始接纳新用户。
虽然产品初期免费,但团队也表示,未来几周内将推出基于实际使用量的定价方案。
参考资料:https://thinkingmachines.ai/tinker/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!