
继 7 月 26 日开源『书生』科学多模态大模型Intern-S1之后,上海人工智能实验室(上海AI实验室)今天推出了轻量化版本Intern-S1-mini。
凭借领先的通用与专业科学能力,Intern-S1上线后连续多日登顶HuggingFace多模态Trending全球第一,并在开源社区引发了广泛关注。作为 8B 参数的“迷你模型”,Intern-S1-mini同样兼具通用能力与专业科学能力,且更加适合快速部署和二次开发。Intern-S1-mini性能速览:
通用能力稳居同量级第一梯队:在MMLU-Pro、AIME2025、MMMU等多项权威基准上表现卓越,展现出兼具稳定性与竞争力的综合实力;
科学专业能力优异:在化学、材料等任务表现尤为突出,在SmolInstruct、ChemBench、MatBench等基准测试中显著领先;在物理、地球、生物等学科任务中也保持第一梯队水平,体现出扎实的科学理解与跨领域泛化能力;
减身材不减实力,助力科研、开发、教育多种场景。

Intern-S1-mini体验页面(点击文末阅读原文直达):
https://chat.intern-ai.org.cn/
GitHub链接:
https://github.com/InternLM/Intern-S1
HuggingFace链接:
https://huggingface.co/internlm/Intern-S1-mini
ModelScope链接:
https://modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1-mini
小模型大融合,通用与科学能力极致平衡
在多技能学习过程中,模型常面临数据冲突,导致能力之间此消彼长。尤其是轻量模型,这种冲突更为明显。
Intern-S1-mini延续大模型Intern-S1的设计理念,覆盖文本、图像、分子式、蛋白质等多模态、多任务数据领域。多模态与多任务的叠加,再加上轻量化的模型尺寸,对能力融合算法提出了极高要求。
研究团队充分发挥通专融合路线的技术优势,使Intern-S1-mini在各种能力之间实现了极致的平衡,能够同时兼顾文本、图文与科学能力,实现轻量模型也能拥有 “大模型” 的综合实力。
Intern-S1-mini在多项通用评测基准(如MMLU-Pro、AIME-2025、MMMU)中表现出色,通用能力稳居第一梯队;在科学任务中同样卓越,尤其在化学、材料等领域表现突出,在SmolInstruct、ChemBench、MatBench等基准中显著领先;在物理、地球、生物等学科任务中也保持领先水平,展现强劲的专业学科实力。
轻量、高效、易用,共促科学模型繁荣
当前,多模态模型在多类型任务上表现出优异性能,但因庞大的参数规模和高额计算成本,限制了其在消费级GPU等低门槛设备上的应用。Intern-S1-mini作为轻量级科学多模态大模型,在参数规模与性能之间取得了良好平衡,大幅降低了对高端计算设备的依赖,为更多下游应用的发展提供了可能。
目前大模型训练微调框架LLaMA-Factory已实现了对Intern-S1-mini的支持,上手门槛极低,仅需24GB单卡即可完成LoRA微调,用户无需昂贵算力也能轻松体验模型的全部能力。
无论是开展科学研究,探索化学、材料等专业任务;或是进行二次开发,在产品或应用中快速验证创意;抑或在教学实践中,让学生直观理解多模态大模型的原理与应用等场景,Intern-S1-mini都能快速提供更便捷的专业支持。
具体实现可参考:https://github.com/hiyouga/LLaMA-Factory/pull/8976
轻量、高效、易用的Intern-S1-mini,不仅让科研人员、开发者和教育工作者等社区用户能够轻松体验科学多模态大模型的强大能力,也为更多创意应用和科研探索提供了可能。
未来,在研究范式创新及模型能力提升的基础上,上海AI实验室将持续推进Intern-S1及其全链条工具体系开源,支持免费商用,同时提供线上开放服务,与各界共同拥抱更广阔的开源生态,共促科学模型繁荣,携手打造更懂科学的AI助手。




