
Thinking Machines 公司发布了 Tinker,这是一个用于开放权重语言模型微调的 API。这项服务旨在帮助开发者减少基础设施开销,并提供托管的调度、GPU 分配和检查点处理等功能。通过抽象化集群管理,Tinker 使开发者可以通过简单的 Python 调用进行微调。
Tinker 支持多种模型架构,从小型模型到大型 混合专家系统,如 Qwen-235B-A22B。开发者可以通过更改 Python 代码中的一个字符串来微调模型。该 API 提供了像 forward_backward 和 sample 这样的原语,可以作为灵活的构建块用于后训练方法。该平台集成了 LoRA,可以提高并行运行微调时 GPU 内存的利用率,对于研究小组和资源有限的团队来说,这很实用。
该公司还发布了 Tinker Cookbook,这是一个使用该 API 实现常见微调技术的开源存储库。其中包括强化学习方法和偏好优化工作流。来自普林斯顿、斯坦福、伯克利和 Redwood Research 的早期用户已经将 Tinker 应用于定理证明、化学推理及多智能体强化学习等任务。
Tinker 进入的这个领域之前就已经有其他的微调解决方案,如 Hugging Face 的 Trainer API、OpenAI 的微调端点 和 MosaicML 的 Composer。这些框架提供了更高层次的抽象或专注于特定的训练流程,而 Tinker 则侧重于暴露可以组合成新方法的低级原语,赋予开发者更多控制权,但不需要他们管理基础设施。
来自社区的最初反馈强调了灵活性和简单性之间的平衡。AI 专业人士 Ignacio de Gregorio 评论道:
这太棒了。RLaaS 正是企业所缺失的解决方案,它在实现目标的同时,还外包了最不利于企业发展的环节(分布式训练)。
Thinking Machines 公司 创始人 Mira Murati 指出:
Tinker 为研究人员带来了前沿工具,提供了清晰的抽象用于编写实验和训练流程,同时处理了分布式训练的复杂性。它支持创新研究、模型定制,并提供了可靠的基线。
目前,Tinker 尚处于封闭测试阶段。早期访问免费,后续将采用按使用量计费的模式。开发者和研究团队可直接向 Thinking Machines 申请访问权限。
原文链接:
https://www.infoq.com/news/2025/10/thinking-machines-tinker/
声明:本文为 InfoQ 翻译,未经许可禁止转载。
10 月 23 - 25 日,QCon 上海站即将召开,95+ 精彩议题已上线!快来锁定参会席位,详情可联系票务经理 18514549229 咨询。

今日荐文

你也「在看」吗?👇