【AI】清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

人工智能产业链union 2025-08-28 14:55

资讯配图
资讯配图

来源:新智元

【导读】大模型再强,也躲不过上下文限制的「蕉绿」!MIT等团队推出的一套组合拳——TIM和TIMRUN,轻松突破token天花板,让8b小模型也能实现大杀四方。

一直以来,上下文限制,如同「紧箍咒」限制了模型的潜能。

如今,一种全新突破性方案已经到来。

来自MIT、普林斯顿、特拉维夫大学等机构联手,重磅推出「线程推理模型」(TIM)——一种专为递归和分解式问题求解而训练的大模型。

资讯配图

论文地址:https://arxiv.org/pdf/2507.16784

与此同时,研究团队还提出了「推理运行时」引擎TIMRUN,让长程推理成为现实。

具体来说,他们将自然语言建模为「推理树」,由任务、思考、递归子任务、结论组成,实现了多轨并行推理。

此时,树的「长度」和「深度」成为了度量的标准。

在生成过程中,TIMRUN就像一个内存管家,只保留当前最需要的token键/值状态,可以反复利用推理中的位置编码和GPU内存页。

TIM+TIMRUN这套组合拳,让推理效率直接飙升。

实验结果显示,即便在90%的内存占用下,TIM能实现高吞吐性能。

同时,在数学任务中,TIM可以提供给精准推理,信息检索挑战应对自如,能轻松完成需要长程推理和跨多步工具调用的任务。


资讯配图
LLM脑容量不够?剪掉无用记忆


大模型的本质,是token序列生成器。

不论是循环神经网络(RNN),还是Transformer,都受限于一个致命的问题:上下文窗口。

比如,Deepseek R1标配的128k上下文,在现实中,一个复杂任务动不动就超出了这一上限。

若是LLM再从外部一边调用工具,一边推理,token只会越跑越多,最终导致GPU内存爆表。

更别提,传统的「线性序列」方式,全部记住了所有上下文,内容占用更高。

为了破解记忆瓶颈,开发者们通常将复杂工作流,拆分为多个模块,然后再交由AI智能体分工协作。

然而在实操中,「多智能体架构」出现了协调难、延迟高等问题。

在研究人员看来,推理并非是一个线性的过程,而是一种递归结构化的。

这一过程,就如同编码任务中人类大脑的一样,我们会「选择性记忆」,在进行下一任务前,只保留关键信息,其余清空才能专心搞定当前任务。

基于这些观察,研究团队将推理轨迹建模为一个「递归的子任务树」。

推理时,AI只需关注当前子任务,剪掉无关的「枝叶」,大幅减少内存占用,如下图1所示。

资讯配图

通过剪枝无关子任务,模型只需聚焦于一个选择性的「工作记忆」

如前所述,论文中,研究团队提出的「线程推理模型」(TIM)和TIMRUN推理引擎,彻底颠覆了传统LLM的推理方式。

TIM就是一个会拆解任务的超级AI,能够轻松识别分解出的子任务、工具参数以及递归的层级关系。

TIMRUN是TIM的「最佳拍档」,专为推理树优化内存管理,两者结合实现了以下三大突破:

接下来,具体看看这套组合拳如何实现的?


资讯配图
TIM:8b训练,复杂任务切成块


线程推理模型(TIM),直观可以理解为,一颗推理树有不同分支(子任务)。

它采用了Thread-2框架,将推理过程建模为一个「任务树」,也就是说,推理的基本单元是——任务。

每个任务由四个部分组成:思考、工具调用、子任务、结论。

与上一代Thread推理框架相比,Thread-2做出了多项改进。

它能够访问工作记忆,包含系统提示、用户输入,以及尚未被剪枝的任务,让LLM实现端到端推理,一次调用就能完成推理

同时,Thread-2还采用了一个固定大小的子任务「堆栈」结构来执行剪枝,即动态清理无关子任务,只保留关键信息,让内存占用大幅降低。

此外,其推理结果可以直接高效地解码为JSON字典(JSON dictionary),告别了复杂的符号操作。

如下实践中,研究团队以如下模式进行JSON解码,并结合搜索和网页阅读工具作为示例。

需要注意的是,多个工具调用可以在一次解码过程中处理。

资讯配图

传统方法中,一个推理过程需要20次工具调用,可能要重复计费20次初始token。

而在TIM生成过程中,它将将工具响应以JSON字典字符串形式返回到「推理引擎」,在转化为新的输入token批扩展KV缓存。

这样一来,就实现了模型一次调用,即可调用多个工具,避免了延迟和开销。

资讯配图

训练细节


研究中,团队对Qwen3-8b进行了后训练,不用复杂提示工程,最终生成Thread-2推理结构。

为此,他们打造了一个「合成训练集」,覆盖了2万条openr1-math-220k数学问题、2万条研究类问题、6千条ToolBench问题。

基于以上数据训练后,团队又在openR1-math-220k上,利用GRPO对模型进行了强化学习。

训练完成后,就得到了「线程推理模型」(TIM)。


资讯配图
TIMRUN:保留关键信息,复用GPU


TIM结构化输出确实能够大幅提升推理性能,另一个问题来了——如何实现部署?

为此,研究团队为TIM开发了一个配套的引擎TIMRUN。

为了实现超过输出限制的长时推理,TIMRUN必须支持在输出生成过程中,复用GPU内存和位置嵌入。

那么,研究中它是如何做到的呢?

资讯配图

子任务剪枝


TIMRUN的核心绝技之一,就是子任务剪枝(Subtask Pruning)。

它的逻辑非常简单粗暴,在推理时,保留当前任务需要的关键信息,把不必要的任务细节直接丢掉。

这个灵感,来自一个经典的思想实验——怎么把大象装进冰箱?只需三步,开门、塞进去、关门。

资讯配图

为了实现这个设计,TIMRUN维护了一个剪枝缓冲区,即一个栈。

它用来临时缓存少量可剪枝的子任务,只保留足够的冗余,以确保信息流的无损传递。

子任务剪枝的过程,如下图3所示。

具体来说,当TIM在某个任务中解码时,TIMRUN会动态地把已完成子任务对应的token的KV状态从GPU内存中清除。

同时,TIMRUN还引入了「分页注意力」,把KV缓存分块处理,分页大小为1,剪枝时只针对单个token序列,推理则由FlashInfer加速。

资讯配图

资讯配图

端到端多步工具调用


TIMRUN的解决方案是:在运行时直接发起工具调用,而不是把工具参数回传给客户端,如下图4所示。

资讯配图

这种方式大大减少了模块之间的通信,让智能体的开发和部署更简单。

关键在于,推理链中的每个token只会传输到 TIMRUN 一次,从而彻底消除了冗余的token传输,并最大限度地减少了通信开销。


资讯配图
实验结果


总的来说,研究人员观察到的关键结果有三个:

资讯配图

推理


在考验STEM领域知识与推理能力的评测中,TIM模型仅凭8B的参数规模就取得了卓越的成绩。

资讯配图

资讯配图

研究


相比起传统的AI智能体工作流,TIMRUN可以将多跳工具的使用,作为一种无缝的、端到端的大语言模型API调用来处理,无需依赖任何智能体框架或复杂提示词。

Datacommons QA


Datacommons QA考验的是模型在多跳信息检索、工具响应处理以及推理方面的能力。

TIM仅需一条简洁的系统提示词和关于工具的基本信息,包括工具描述、输入参数和输出格式,便可对训练期间未曾遇到的新任务,表现出良好的泛化能力。

与基线方法相比,它在三个关键领域展现出更高的效率:

资讯配图

Browsecomp


Browsecomp是一项针对深度研究型智能体的挑战性基准测试。

要回答这里的问题,模型需要对输入进行分解,并使用工具从互联网筛选和检索相关信息;有时,还需深入探究特定网页的细节,并依据给定条件对发现进行验证。

在没有任何智能体设计的情况下,TIM-8b的表现便已经优于具备浏览功能的GPT-4o,而Tim-large更是取得了与构建在Deepseek R1上的ReACT智能体相媲美的性能。

这些发现印证了研究人员的假设:一个能通过递归分解子任务和剪枝其工作记忆来自主管理上下文的模型,其性能可以匹及采用更复杂实现的智能体。

资讯配图

资讯配图

效率与可扩展性


吞吐量提升


上下文剪枝与注意力机制之间存在一种权衡关系——剪枝上下文虽能加速注意力计算,却也引入了额外的内存开销。

实验结果表明,TIMRUN系统的性能优于朴素的内存操作实现以及强大的SGLang基线。

资讯配图

更高效的工具使用


随着工具调用次数的增加,SGLang的吞吐量因推理步骤和工具响应所产生的增量上下文及token缓存日益复杂而迅速下降。

相比之下,得益于自动化的上下文管理机制,即便工具使用规模扩大,TIMRUN仍能保持相对稳定的吞吐量。

这使得TIM-8b模型无需任何智能体框架或针对特定任务的后训练,即可在BrowseComp基准测试上取得优异性能。

尤其是,借助子任务剪枝,TIMRUN可以在单次推理中支持超过30次的工具调用。

资讯配图


资讯配图
作者介绍


资讯配图

论文一作罗鸿胤是麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的研究员,也是Subconscious Systems的联合创始人兼CTO。

他于2022年获得麻省理工学院电子工程与计算机科学(EECS)博士学位,师从James Glass教授。并在此前获得清华大学工学学士学位,师从刘知远教授。

罗鸿胤的研究方向包括构建高效、透明、具备复杂推理能力的语言模型,以及支持智能体长期推理和工具调用的基础设施。

他的代表性工作包括开发TIM模型(Thread Inference Model)和TIMRUN推理系统,这一组合实现了可扩展、结构化、递归的智能体推理能力。

其中,全新推理框架突破了语言模型在传统上下文长度上的限制,显著提升了长周期智能体的吞吐量与推理效果,并大幅降低了上下文工程的开发和运行成本。

参考资料:
https://arxiv.org/pdf/2507.16784

☟☟☟

☞人工智能产业链联盟筹备组征集公告☜


精选报告推荐:

11份清华大学的DeepSeek教程,全都给你打包好了,直接领取:


【清华第一版】DeepSeek从入门到精通

【清华第二版】DeepSeek如何赋能职场应用?


【清华第三版】普通人如何抓住DeepSeek红利?

【清华第四版】DeepSeek+DeepResearch让科研像聊天一样简单?

【清华第五版】DeepSeek与AI幻觉

【清华第六版】DeepSeek赋能家庭教育

【清华第七版】文科生零基础AI编程:快速提升想象力和实操能力

【清华第八版】DeepSeek政务场景应用与解决方案

【清华第九版】迈向未来的AI教学实验

【清华第十版】DeepSeek赋能品牌传播与营销

【清华第十一版】2025AI赋能教育:高考志愿填报工具使用指南

 10份北京大学的DeepSeek教程

【北京大学第一版】DeepSeek与AIGC应用

【北京大学第二版】DeepSeek提示词工程和落地场景

【北京大学第三版】Deepseek 私有化部署和一体机

【北京大学第四版】DeepSeek原理与落地应用

【北京大学第五版】Deepseek应用场景中需要关注的十个安全问题和防范措施

【北京大学第六版】DeepSeek与新媒体运营

【北京大学第七版】DeepSeek原理与教育场景应用报告

【北京大学第八版】AI工具深度测评与选型指南

【北京大学第九版】AI+Agent与Agentic+AI的原理和应用洞察与未来展望

【北京大学第十版】DeepSeek在教育和学术领域的应用场景与案例(上中下合集)

8份浙江大学的DeepSeek专题系列教程

浙江大学DeepSeek专题系列一--吴飞:DeepSeek-回望AI三大主义与加强通识教育

浙江大学DeepSeek专题系列二--陈文智:Chatting or Acting-DeepSeek的突破边界与浙大先生的未来图景

浙江大学DeepSeek专题系列三--孙凌云:DeepSeek:智能时代的全面到来和人机协作的新常态

浙江大学DeepSeek专题系列四--王则可:DeepSeek模型优势:算力、成本角度解读

浙江大学DeepSeek专题系列五--陈静远:语言解码双生花:人类经验与AI算法的镜像之旅

浙江大学DeepSeek专题系列六--吴超:走向数字社会:从Deepseek到群体智慧

浙江大学DeepSeek专题系列七--朱朝阳:DeepSeek之火,可以燎原

浙江大学DeepSeek专题系列八--陈建海:DeepSeek的本地化部署与AI通识教育之未来

4份51CTO的《DeepSeek入门宝典》

51CTO:《DeepSeek入门宝典》:第1册-技术解析篇

51CTO:《DeepSeek入门宝典》:第2册-开发实战篇

51CTO:《DeepSeek入门宝典》:第3册-行业应用篇

51CTO:《DeepSeek入门宝典》:第4册-个人使用篇

5份厦门大学的DeepSeek教程

【厦门大学第一版】DeepSeek大模型概念、技术与应用实践

【厦门大学第二版】DeepSeek大模型赋能高校教学和科研

【厦门大学第三版】DeepSeek大模型及其企业应用实践

【厦门大学第四版】DeepSeek大模型赋能政府数字化转型

【厦门大学第五版】DeepSeek等大模型工具使用手册-实战篇

10份浙江大学的DeepSeek公开课第二季专题系列教程

【精选报告】浙江大学公开课第二季:《DeepSeek技术溯源及前沿探索》(附PDF下载)

【精选报告】浙江大学公开课第二季:2025从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例(附PDF下载)

【精选报告】浙江大学公开课第二季:智能金融——AI驱动的金融变革(附PDF下载)

【精选报告】浙江大学公开课第二季:人工智能重塑科学与工程研究(附PDF下载)

【精选报告】浙江大学公开课第二季:生成式人工智能赋能智慧司法及相关思考(附PDF下载)

【精选报告】浙江大学公开课第二季:AI大模型如何破局传统医疗(附PDF下载)

【精选报告】浙江大学公开课第二季:2025年大模型:从单词接龙到行业落地报告(附PDF下载)

【精选报告】浙江大学公开课第二季:2025大小模型端云协同赋能人机交互报告(附PDF下载)

【精选报告】浙江大学公开课第二季:DeepSeek时代:让AI更懂中国文化的美与善(附PDF下载)

【精选报告】浙江大学公开课第二季:智能音乐生成:理解·反馈·融合(附PDF下载)

6份浙江大学的DeepSeek公开课第三季专题系列教程

【精选报告】浙江大学公开课第三季:走进海洋人工智能的未来(附PDF下载)

【精选报告】浙江大学公开课第三季:当艺术遇见AI:科艺融合的新探索(附PDF下载)

【精选报告】浙江大学公开课第三季:AI+BME,迈向智慧医疗健康——浙大的探索与实践(附PDF下载)

【精选报告】浙江大学公开课第三季:心理学与人工智能(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能赋能交通运输系统——关键技术与应用(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能与道德进步(附PDF下载)


相关阅读

干货推荐:
AI加油站】第一部:《大型语言模型应用检索增强生成:改变搜索、推荐和 AI 助手》附下载
【AI加油站】第二部:《程序员的自我修炼手册》(附下载)
【AI加油站】第三部:《大规模语言模型:从理论到实践》(附下载)
【AI加油站】第四部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第五部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第六部:《时间序列:建模、计算与推断》(附下载)
【AI加油站】第七部:《因果关系的逻辑理论的好书-A Logical Theory of Causality》(附下载)

【AI加油站】第八部:《模式识别(第四版)-模式识别与机器学习》(附下载)

【AI加油站】第九部:《Python深度学习(中文版)》(附下载)
【AI加油站】第十部:《机器学习方法》(附下载)
【AI加油站】第十一部:《深度学习》(附下载)
【AI加油站】第十二部:《从零开始的机器学习》(附下载)
【AI加油站】第十三部:《Transformer入门到精通》(附下载)
【AI加油站】第十四部:《LLM 应用开发实践笔记》(附下载)
【AI加油站】第十五部:《大模型基础 完整版》(附下载)
【AI加油站】第十六部:《从头训练大模型最佳实践》(附下载)
【AI加油站】第十七部:《大语言模型》(附下载)
【AI加油站】第十八部:《深度强化学习》(附下载)
【AI加油站】第十九部:清华大学《大模型技术》(附下载)
【AI加油站】第二十部:Prompt入门神书-《Prompt 学习指南》(附下载)
【AI加油站】第二十一部:吴恩达&open AI联合推出《大模型通关指南》(附下载)
【AI加油站】第二十二部:《李宏毅深度学习教程》值得反复阅读的神书!(附下载)
【AI加油站】第二十三部:Prompt经典中文教程-《提示工程指南》(附下载)
【AI加油站】第二十四部:爆火下载28万次!MIT最新神书《理解深度学习》(附下载)
【AI加油站】第二十五部:LLM4大名著,OpenAI专家强推《深度解析:大语言模型理论与实践》(附下载)
【AI加油站】第二十六部:NLP大牛Thomas Wolf等新书《Transformer自然语言处理》(附下载)
【AI加油站】第二十七部:哈工大博士耗时一年整理《PyTorch常用函数手册》,轻松掌握PyTorch的各种操作(附PDF下载)
【AI加油站】第二十八部:大模型炼丹大师必备《深度学习调优指南中文版-系统性优化模型》(附下载)
【AI加油站】第二十九部:炸裂发布!《大语言模型:导论》重磅发布!(附下载)
【AI加油站】第三十部:最值得读的LLM书!下载量10w+!《基于Transformer和扩散模型的生成式AI》(附下载)
【AI加油站】第三十一部:RL稀缺宝典!《强化学习的艺术》(附下载)
【AI加油站】第三十二部:一本醍醐灌顶的教科书!《大语言模型提示工程:构建LLM应用的艺术与科学》(附下载)
【AI加油站】第三十三部:机器学习好评榜第一《机器学习基础》(附下载)
【AI加油站】第三十四部:所有大模型领域学习者必读,没有之一!由深度学习三巨头联合撰写!(附下载)
【AI加油站】第三十五部:{AI炼丹神书}——从0到1榨干深度学习模型每一滴性能的终极战术手册《深度学习调优指南》(附下载)
【AI加油站】第三十六部:面向生产环境的大型语言模型实战手册《LLM 大语言模型构建指南》(附下载)
【AI加油站】第三十七部:《深度学习的数学导论:方法、实现与理论》从神经网络架构到物理信息模型的全景综述(附下载)
【AI加油站】第三十八部:下载量10w+!《大型语言模型:语言理解和生成》从文本分类到主题建模的实战指南(附下载)
【AI加油站】第三十九部:包教包会!《从零开始构建大语言模型的关键要点》大模型训练全景指南:从0到1的系统性最佳实践(附下载)
【AI加油站】第四十部:《大规模机器学习训练工程实战手册》——从硬件选型到故障恢复的系统性指南(附下载)
【AI加油站】第四十一部:《ChatGPT后训练全景解析:技术演进、核心挑战与未来方向》(附下载)
【AI加油站】第四十二部:《百页机器学习书》:从算法到实战的全景指南(附下载)
【AI加油站】第四十三部:《掌握大语言模型》核心知识速览:从NLP基础到LLM前沿实践(附下载)
【AI加油站】第四十四部:《精通PyTorch》-从CNN到Transformer、LLM、GNN的端到端实战图谱(附下载)
【AI加油站】第四十五部:《图神经网络导论》-全景拆解:从数学基石到落地应用的知识地图(附下载)
【AI加油站】第四十六部:谷歌大佬编写,我唯一熬夜看完的机器学习神作《机器学习:概率视角》(附下载)
【AI加油站】第四十七部:复旦大学张奇老师《自然语言处理导论》(附下载)
【AI加油站】第四十八部:Github持续霸榜!「Leetcode刷题笔记」解题思路/代码/模板开放下载!(附下载)
【AI加油站】第四十九部:下载10W+爆火神书《基于LangChain进行生成式AI开发》(附下载)
AI机器人设计推荐:
【AI加油站】机器人设计系列一:《IBM Robocode人工智能机器人研究》从Java编程到智能战斗系统指南(附下载)
【AI加油站】机器人设计系列二:《PVCBOT零基础机器人制作》从PVC线槽到专属机器人的完整入门指南(附下载)
RPA 流程自动化系列推荐:
【AI加油站】RPA 流程自动化系列一:《机器人流程自动化魔力象限》市场格局、厂商优劣与选型指南(附PDF下载)
面试推荐:
【AI加油站】AI面试专题一:BIO,NIO,AIO,Netty面试题(附下载)
【AI加油站】AI面试专题二:Git常用命令面试题(附下载)
【AI加油站】AI面试专题三:Java常用面试题(附下载)
【AI加油站】AI面试专题四:Linux系统的面试题集(附下载)
【AI加油站】AI面试专题五:Memcached 面试题集(附下载)
【AI加油站】AI面试专题六:MyBatis框架的面试题(附下载)
【AI加油站】AI面试专题七:MySQL相关的面试题资料(附下载)
【AI加油站】AI面试专题八:Netty面试题资料(附下载)
【AI加油站】AI面试专题九:Nginx的面试题资料(附下载)
【AI加油站】AI面试专题十:RabbitMQ的面试题资料(附下载)
【AI加油站】AI面试专题十一:Redis的面试题资料(附PDF下载)
【AI加油站】AI面试专题十二:Spring的面试题资料(附PDF下载)
【AI加油站】AI面试专题十三:Apache Tomcat的面试题资料(附PDF下载)
【AI加油站】AI面试专题十四:Zookeeper的面试题资料(附PDF下载)
【AI加油站】AI面试专题十五:《阿里巴巴Java开发手册》终极版的面试题资料(附PDF下载)
【AI加油站】AI面试专题十六:大数据技术面试题资料(附PDF下载)
【AI加油站】AI面试专题十七:Java并发多线程面试题资料(附PDF下载)
【AI加油站】AI面试专题十八:设计模式的面试题资料(附PDF下载)
【AI加油站】AI面试专题十九:Java虚拟机(JVM)的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十:Elasticsearch的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十一:TCP UDP Socket Http网络编程的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十二:消息队列Kafka的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十三:Spring Boot的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十四:Spring Cloud的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十五:Dubbo的面试题资料(附PDF下载)
大模型课程推荐:
【AI加油站】大模型课程系列一:大模型应用:从提示工程到AI智能体——系统化知识地图(附PDF下载)
【AI加油站】大模型课程系列二:大模型应用:从提示工程到AI智能体——系统化知识地图--合集(附PDF下载)
【AI加油站】大模型课程系列三:《大模型应用·第3章:大模型提示词》-大模型提示词设计七步法(附PDF下载)
【AI加油站】大模型课程系列四:《大模型应用·第4章:大模型辅助工作学习》一站式检索-办公-创作全攻略(附PDF下载)
【AI加油站】大模型课程系列五:《大模型应用·第5章:大模型检索增强》读懂大模型检索增强生成(RAG)全景(附PDF下载)
【AI加油站】大模型课程系列六:《大模型应用·第6章:大模型认知框架》从情景模仿到自我进化的7种思维范式(附PDF下载)
【AI加油站】大模型课程系列七:《大模型应用·第7章:大模型使用工具》-从“会聊天”到“能办事”的7个关键洞察(附PDF下载)
【AI加油站】大模型课程系列八:《大模型应用·第8章:AI智能体核心技术》-从单脑到群体协作的工程落地指南(附PDF下载)
【AI加油站】大模型课程系列九:《大模型应用·第9章:AI智能体开发平台》-从理论到落地的母婴助手案例解析(附PDF下载)
【AI加油站】大模型课程系列十:《大模型应用·第10章:AI智能体行业案例》-四大场景深度解析与实战指南(附PDF下载)

人工智能产业链联盟高端社区




资讯配图
精选主题推荐:
Manus学习手册
从零开始了解Manus

DeepSeek 高级使用指南,建议收藏

一次性说清楚DeepSeek,史上最全(建议收藏)

DeepSeek一分钟做一份PPT

用DeepSeek写爆款文章?自媒体人必看指南

【5分钟解锁DeepSeek王炸攻略】顶级AI玩法,解锁办公+创作新境界!

DeepSeek接入个人微信!24小时智能助理,随时召唤!
PS×Deepseek:一句话编写PS脚本,搞定PS批量导出图层
如何让AI给自己打工,10分钟创作一条爆款视频?
荐:
【中国风动漫】《姜子牙》刷屏背后,藏着中国动画100年内幕!
【中国风动漫】除了《哪吒》,这些良心国产动画也应该被更多人知道!

【中国风动漫】《雾山五行》大火,却很少人知道它的前身《岁城璃心》一个拿着十米大刀的男主夭折!

资讯配图
声明

免责声明:部分文章和信息来源于互联网,不代表本订阅号赞同其观点和对其真实性负责。如转载内容涉及版权等问题,请立即与小编联系(微信号:913572853),我们将迅速采取适当的措施。本订阅号原创内容,转载需授权,并注明作者和出处。如需投稿请与小助理联系(微信号:AI480908961)

编辑:Zero

资讯配图


资讯配图

资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
【数智化人物展】数新智能创始人兼CEO陈廷梁:以Data+AI筑底,破界反卷领航
任正非入选!《时代》周刊2025全球AI百人榜 中国力量崛起
端侧AI领袖之声:挚听——重塑助听体验,构建智能助听新生态
中国 AI 实验室正称霸开源模型领域,遥遥领先西方同行
【AI】DemisHassabis|宇宙的本质是信息——一场关于AI与现实的深度思辨
马斯克xAI背后的男人:Caltech博士、前NASA科学家硬核计算AI的终极物理成本,后人类文明的物理蓝图都在这篇访谈了
广告,救不了 AI 搜索
这个AI抠图工具,冲进全球AI应用百强
2032年小模型市场规模暴增6倍,成本降低90%,高通苹果英伟达秘密布局,小模型才是AI的未来
国产AI算力大规模进驻顶尖高校
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号