【AI】400万人围观的分层推理模型,「分层架构」竟不起作用?性能提升另有隐情?

人工智能产业链union 2025-08-23 08:00
资讯配图

还记得分层推理模型(Hierarchical Reasoning Model,HRM)吗?


这项工作于 6 月份发布,当时引起了不小的轰动——X/Twitter 上的相关讨论获得了超过 400 万的浏览量和数万个点赞,剖析这项工作的 YouTube 视频观看量也超过了 47.5 万次。


资讯配图


在论文中,作者表示:他们提出了一种受大脑启发的 HRM 架构,仅用 1000 个训练任务和一个 2700 万参数(相对较小)的模型,就在 ARC-AGI-1 基准上取得了 41% 的得分。


论文还指出,这一架构有潜力成为迈向通用计算和通用推理系统的变革性进展。


鉴于该方法的普及度和新颖性,来自 ARC PRIZE 团队的研究者着手在 ARC-AGI-1 半私有数据集(一个用于验证解决方案是否过拟合的隐藏保留任务集)上验证 HRM 的性能。


他们的发现有些出人意料。


首先:他们能够近似复现论文中声称的数字。HRM 在 ARC-AGI 半私有集上的表现,就其模型大小而言,令人印象深刻:




与此同时,通过运行一系列消融分析,他们得到了一些令人惊讶的发现,这些发现对围绕 HRM 的主流论述提出了质疑:


资讯配图


  1. 与同等规模的 Transformer 相比,其「分层」架构对性能的影响微乎其微。

  2. 然而,论文中相对提及较少的「外循环」优化过程,尤其是在训练期间,极大地提升了性能。

  3. 跨任务迁移学习的益处有限;大部分性能来自于对评估时所用特定任务解决方案的记忆。

  4. 预训练的任务增强至关重要,尽管只需 300 次增强就已足够(而非论文中报告的 1000 次)。推理时的任务增强影响有限。


发现 2 和 3 表明,该论文的方法在根本上与 Liao 和 Gu 提出的「无预训练的 ARC-AGI」方法相似。


有人认为,ARC PRIZE 团队的这些分析结果表明,HRM 是一个失败的探索。


资讯配图


但更多人反驳说,与在同一基准上表现类似的模型相比,HRM 要小得多。虽然分层架构的作用没有得到验证,但论文在其他方面的创新依然值得研究,毕竟模型的表现还是很好的。


资讯配图

资讯配图


针对这一分析,ARC PRIZE 团队专门写了一篇博客来详细介绍。以下是博客内容。


资讯配图



「分层推理模型」回顾


资讯配图

图 1:HRM 方法从大脑中不同频率的信号处理中汲取灵感。


分层推理模型由新加坡 AI 研究实验室 Sapient 发表,据称其灵感来源于人脑的分层和多时间尺度处理机制。


HRM 是一个 2700 万参数的模型,它通过几次简短的「思考」脉冲进行迭代优化


每次脉冲产生:



如果模型选择继续优化,这个「处理中」的预测会再次经过一个「思考」脉冲。这就是外循环:预测、询问「我完成了吗?」,然后停止或继续优化。


在外循环内部,HRM 运行两个耦合的循环模块:「H」(慢速规划器)和「L」(快速执行器)。这两个模块协同工作,共同更新一个共享隐藏状态,而非各自产生独立的输出。其最终效果是模型在「规划」(H)和「细节」(L)之间交替进行,直到内部状态「自我达成一致」并产生答案。


该模型使用一个学习到的「停止」信号,这是一种自适应计算机制,用于控制优化的次数。


这个过程的一个关键部分是任务增强。这是一个对每个任务应用变换(如对象旋转、翻转等)的过程,目的是挖掘出任务的潜在规则,而不是对特定的形状或颜色产生过拟合


在测试时,模型会运行相同的增强来生成预测。这些预测随后被「去增强」(以恢复到原始任务格式),然后通过简单的多数投票来决定最终的预测结果。


预测是通过转导(深度学习的直接输出)在嵌入空间中进行的,而不是通过归纳(生成一个可应用变换的程序)。关于 ARC-AGI 中转导与归纳的更多信息,请参阅 2024 年 ARC Prize 获奖论文《结合归纳与转导进行抽象推理》,作者为 Wen-Ding Li 等人。


ARC-AGI 验证流程


ARC-AGI 基准有 3 个主要的数据集用于测试:



除了这些数据集类型,ARC-AGI 目前有 2 个已发布的版本:



我们根据测试政策,对像 HRM 这样的特定定制解决方案进行测试。要获得验证资格,解决方案必须开源,运行成本低于 1 万美元,并在 12 小时内完成。


官方验证的 HRM ARC-AGI 得分


资讯配图

图 2:ARC-AGI-1 排行榜,HRM 性能与每项任务成本。


ARC-AGI-1(100 个任务)



在 ARC-AGI-1 上获得 32% 的得分,对于如此小的模型来说是令人印象深刻的。从 HRM 声称的公开评估集得分(41%)下降到半私有集得分,这种轻微的下降是预料之中的。ARC-AGI-1 的公开集和半私有集并未进行难度校准。观察到的 9 个百分点的下降幅度处于正常波动的偏高范围。如果模型对公开集过拟合,其在半私有集上的性能可能会崩溃(例如,降至 10% 或更低)。但我们并未观察到这种情况。这个结果表明,HRM 确实有一些值得关注的亮点。


注意:运行 HRM 的成本相对较高,是因为训练和推理被耦合在单次运行中。论文作者提到他们正在努力解耦这个过程,以便将其解决方案提交给 ARC Prize 2025 Kaggle 竞赛。


ARC-AGI-2(120 个任务)



ARC-AGI-2 明显比 ARC-AGI-1 更难,因此性能大幅下降是预料之中的。与 ARC-AGI-1 不同,ARC-AGI-2 的公开集和半私有集是经过难度校准的。原则上,两者上的得分应该相似。尽管大于 0% 的得分显示出模型的某些能力,但我们不认为 2% 的得分是在 ARC-AGI-2 上取得的有意义的进展。


注意:我们选择包含 10 个可选的检查点(每个约 5 分钟),总共增加了约 50 分钟。虽然 HRM 的提交超出了 12 小时的运行限制,我们仍然认为它是有效的。


分析 HRM 对 ARC 得分的贡献


在更深入的分析中,我们最想回答的问题是:「HRM 架构中对 ARC-AGI 的成功贡献最大的关键组件是什么?


我们仔细研究了 HRM 论文的 4 个主要组成部分:HRM 模型架构、H-L 分层计算、外层优化循环,以及数据增强的使用。Ndea 研究员 Konstantin Schürholt 主导了这项分析。


我们测试了:



    相比于基础的 Transformer,HRM 提供了多少性能提升?

    改变分层计算的参数有何影响?



    自适应计算时间(ACT)评分器与固定循环次数(没有停止决策)相比表现如何?



    与仅在评估任务上训练相比,在训练时加入训练集任务和 ConceptARC 任务有何影响?



    改变从每个任务创建的增强数量。



发现 1:

与同等规模的 Transformer 相比,

「分层」架构对性能的影响微乎其微


论文提出,HRM 架构是实现分层推理的关键——结合了慢节奏的指导(H-level)和快节奏的思考(L-level)。


为了理解该架构的影响,我们进行了 2 个实验:



为便于比较,该 Transformer 拥有与 HRM 模型相同的参数数量(约 2700 万)。在所有实验中,我们保持 HRM 流程的其他所有组件不变。


将 HRM 与常规 Transformer 进行比较,得到了两个有趣的结果,见图 3。首先,一个常规的 Transformer 在没有任何超参数优化的情况下,性能与 HRM 模型相差约 5 个百分点。当只有一个外循环时,差距最小,此时两个模型的性能不相上下。


资讯配图

图 3:HRM 模型和相同尺寸的 Transformer 在不同外循环步数下的 pass@2 性能。Transformer 在没有任何超参数优化的情况下,性能与 HRM 相差几个百分点。


当外循环次数多于 1 次时,HRM 表现更好,但随着外循环次数的增加,差距会缩小。请注意,尽管参数数量匹配,HRM 使用了更多的计算资源,这可能部分解释了性能差异。增加计算资源带来的好处可能会随着外循环次数的增多而出现收益递减,这与我们的结果相符。


我们进一步改变了 H-level 和 L-level 的步数来分析其影响。我们发现,增加或减少迭代次数(基线为 L = 2, H = 2)都会导致性能下降。


这些结果表明,在 ARC-AGI 上的性能并非 HRM 架构本身带来的。虽然它确实提供了一点好处,但在 HRM 训练流程中换用一个基线 Transformer 也能达到相当的性能。


发现 2:

论文中提及较少的「外循环」优化过程

带来了显著的性能提升


除了分层架构,HRM 论文还提出在模型外部使用一个外循环(「循环连接」)。这将模型的输出反馈给自己,允许模型迭代地优化其预测。


此外,它使用「自适应计算时间」(ACT)来控制在特定任务上花费的迭代次数。ACT 决定是停止预测还是继续优化。


HRM 方法的这一部分类似于 Universal Transformer,后者既有围绕 Transformer 模型的循环优化循环,也有一个 ACT 的版本。


在我们的第二组实验中,我们想了解外层优化循环以及 ACT 对整体性能的影响。我们改变了训练期间的最大外循环次数,并在推理时使用最大循环次数(遵循 HRM 的实现)。


资讯配图

图 4:在不同数量的训练和推理优化循环下的 pass@2 性能。通过迭代优化数据会产生强大的影响,正如从 1 次循环(无优化)到 2 次循环(1 次优化)的性能飞跃所示。


如图 4 所示,外循环的次数对模型性能有显著影响——从无优化(1 次循环)到仅 1 次优化,性能跃升了 13 个百分点。从 1 次优化循环增加到 8 次,公开评估集上的性能翻了一番。


一个次要发现是,在训练期间使用 ACT 确实能减少每个任务的实际优化步数。然而,虽然使用 ACT 能提高性能,但与固定的 16 次循环运行相比,差异仅在几个百分点之内。


结果表明,优化外循环是 HRM 性能的关键驱动力


为了理解训练时优化与推理时优化的影响,我们进一步独立地改变了推理优化循环的次数。


资讯配图

图 5:在不同数量的推理优化循环下的 pass@2 性能。蓝色条表示使用相同循环次数进行训练和推理的模型。橙色条表示使用 16 个优化循环训练,但在推理时使用不同循环次数的模型。例如,1-Loop 处的蓝色条表示用一个优化步骤训练并用一个优化步骤推理的模型。橙色条表示用 16 个优化步骤训练但仅用一个优化步骤推理的模型。


为此,我们比较了两种设置。第一种,我们在训练和推理中使用相同数量的优化循环。第二种,我们用最多 16 个优化循环步骤训练一个模型,并分别用 1、4、8 和 16 个优化步骤来评估它。


比较这两类模型显示出实质性差异,尤其是在低推理优化步数(1 和 4)时,见图 5。用更多的优化步骤进行训练,可以将单次优化循环预测的性能提高超过 15 个百分点,尽管一次循环意味着没有任何优化的单次前向传播。在推理时增加更多的优化循环,影响则没有那么大。这表明,带优化的训练比在推理时使用优化更重要


发现 3:

跨任务迁移学习的影响有限


在原始论文中,HRM 在 960 个任务的演示对的增强版本上进行训练:



需要注意的是,这并不意味着数据泄露,因为模型在训练时从未看到评估任务的测试对——而这正是模型被评估的内容。


我们想了解跨任务迁移学习与推断并记忆评估时特定任务的解决方案相比,其影响如何。我们进行了以下实验:我们只在 400 个评估任务上进行训练——去掉了来自训练集的 400 个任务和来自 ConceptARC 数据集的 160 个任务。


在这种设置下,模型达到了 31% 的 pass@2 准确率,与最初的 41% 相比仅有小幅下降。这表明,绝大部分性能是由在评估时见过的任务上进行训练所驱动的。这意味着 HRM 的做法本质上是一种零预训练的测试时训练方法,类似于 Liao 和 Gu 的「无预训练的 ARC-AGI」。这相当于将模型用作一种程序合成基底——在任务的演示对上使用梯度下降,将执行该任务的程序编码到模型的权重中。


值得注意的是,在我们的实验中,仍然存在一定程度的跨任务迁移学习——在评估集的不同任务之间。我们实验的一个更强的版本是,在每个评估任务上单独运行 HRM 流程,这样模型在训练时只会看到它将被评估的那一个任务的演示对的增强版本。这将使 HRM 的设置与 Liao 和 Gu 的设置完全一致。我们没有时间运行这个实验,但我们推测结果将与 Liao 和 Gu 的(21% pass@2)非常接近。


发现 4:

预训练的任务增强至关重要


我们研究的 HRM 流程中另一个重要组成部分是任务增强。


数据增强是深度学习中一种常用方法,用于增加数据集中的样本数量并提高模型的泛化能力。这意味着对任务应用旋转、翻转或颜色交换,从而在不改变任务基本概念的情况下生成新数据。


HRM 对任务的所有增强版本进行预测,然后将增强后的预测还原(或「去增强」),使其恢复到原始任务格式。然后,模型对这些预测进行多数投票以选出最终候选。


我们测试了对基线 HRM 的以下修改:



因为 HRM 只能处理训练期间遇到过的增强类型,所以我们在推理时对第 2 点的改变仅限于减少增强数量,而不能增加。


图 7 中的结果显示了两个趋势。首先,使用数据增强确实能显著提高性能。然而,仅使用 300 次增强,而不是论文中使用的 1000 次,就已接近最大性能。仅使用 30 次增强(论文中总数的 3%)的性能与最大性能相差不到 4%。


其次,在训练期间使用数据增强似乎比为多数投票获得更大的池子更重要。用更多增强训练的模型,在用较小池子进行推理时,性能下降得要少得多。


其他技术性学习


深入研究 HRM 的内部机制还带来了一些其他有趣的发现。


首先也是最重要的一点,HRM 将 ARC-AGI 任务分解为单个的输入-输出对,他们称之为谜题(puzzles)。每个谜题会获得一个 puzzle_id,它由任务哈希值和应用于此特定谜题的增强代码组成。


在训练和推理时,模型只接收输入和 puzzle_id——没有包含任务其他输入-输出示例的少样本上下文。HRM 模型必须学会将一个 puzzle_id 与一个特定的转换关联起来,以便它能从输入预测输出。


为此,它将 puzzle_id 输入一个大的嵌入层。这个嵌入层是关键——没有它,模型就不知道如何处理输入。这带来了一个主要限制:该模型只能应用于它在训练时见过的 puzzle_id


在与作者就此话题的交流中,他们解释说,为少样本上下文更改谜题嵌入是一个复杂的工程挑战。在早期版本中,他们做过比较,发现在更大的类 ARC 数据集上,少样本上下文效果很好,但在样本受限的 ARC 上,谜题嵌入的表现明显更好。我们没有复现这些实验,但这为未来的工作指明了有趣的方向。


出于同样的原因,在这个版本的 HRM 中,推理数据必须是训练数据集的一部分。例如,独立地改变增强数量并不是一件直接的事情。


最后,虽然优化循环对性能有明显影响,但 HRM 是纯粹转导性的。虽然可以展开优化步骤,但底层的程序仍然是隐式的。我们的假设是,这种方法不具备泛化能力


待解决的问题与未来工作


我们对 HRM 的实验为我们揭示了其在 ARC-AGI 上表现出色的原因,但其他问题依然存在。除了上面提到的,我们还邀请社区探索以下更多问题:








结语


来自 ARC Prize 的分析非常详尽,不少人感叹说,这才是真正的「同行评审」。


资讯配图


还有人说,这个分析本身和论文一样重要。如果大家以后能够更多地用这种方式去分析一些备受关注的研究,相信社区可以更加高效地获取一些新知识。


资讯配图


© THE END 

☟☟☟

☞人工智能产业链联盟筹备组征集公告☜


精选报告推荐:

11份清华大学的DeepSeek教程,全都给你打包好了,直接领取:


【清华第一版】DeepSeek从入门到精通

【清华第二版】DeepSeek如何赋能职场应用?


【清华第三版】普通人如何抓住DeepSeek红利?

【清华第四版】DeepSeek+DeepResearch让科研像聊天一样简单?

【清华第五版】DeepSeek与AI幻觉

【清华第六版】DeepSeek赋能家庭教育

【清华第七版】文科生零基础AI编程:快速提升想象力和实操能力

【清华第八版】DeepSeek政务场景应用与解决方案

【清华第九版】迈向未来的AI教学实验

【清华第十版】DeepSeek赋能品牌传播与营销

【清华第十一版】2025AI赋能教育:高考志愿填报工具使用指南

 10份北京大学的DeepSeek教程

【北京大学第一版】DeepSeek与AIGC应用

【北京大学第二版】DeepSeek提示词工程和落地场景

【北京大学第三版】Deepseek 私有化部署和一体机

【北京大学第四版】DeepSeek原理与落地应用

【北京大学第五版】Deepseek应用场景中需要关注的十个安全问题和防范措施

【北京大学第六版】DeepSeek与新媒体运营

【北京大学第七版】DeepSeek原理与教育场景应用报告

【北京大学第八版】AI工具深度测评与选型指南

【北京大学第九版】AI+Agent与Agentic+AI的原理和应用洞察与未来展望

【北京大学第十版】DeepSeek在教育和学术领域的应用场景与案例(上中下合集)

8份浙江大学的DeepSeek专题系列教程

浙江大学DeepSeek专题系列一--吴飞:DeepSeek-回望AI三大主义与加强通识教育

浙江大学DeepSeek专题系列二--陈文智:Chatting or Acting-DeepSeek的突破边界与浙大先生的未来图景

浙江大学DeepSeek专题系列三--孙凌云:DeepSeek:智能时代的全面到来和人机协作的新常态

浙江大学DeepSeek专题系列四--王则可:DeepSeek模型优势:算力、成本角度解读

浙江大学DeepSeek专题系列五--陈静远:语言解码双生花:人类经验与AI算法的镜像之旅

浙江大学DeepSeek专题系列六--吴超:走向数字社会:从Deepseek到群体智慧

浙江大学DeepSeek专题系列七--朱朝阳:DeepSeek之火,可以燎原

浙江大学DeepSeek专题系列八--陈建海:DeepSeek的本地化部署与AI通识教育之未来

4份51CTO的《DeepSeek入门宝典》

51CTO:《DeepSeek入门宝典》:第1册-技术解析篇

51CTO:《DeepSeek入门宝典》:第2册-开发实战篇

51CTO:《DeepSeek入门宝典》:第3册-行业应用篇

51CTO:《DeepSeek入门宝典》:第4册-个人使用篇

5份厦门大学的DeepSeek教程

【厦门大学第一版】DeepSeek大模型概念、技术与应用实践

【厦门大学第二版】DeepSeek大模型赋能高校教学和科研

【厦门大学第三版】DeepSeek大模型及其企业应用实践

【厦门大学第四版】DeepSeek大模型赋能政府数字化转型

【厦门大学第五版】DeepSeek等大模型工具使用手册-实战篇

10份浙江大学的DeepSeek公开课第二季专题系列教程

【精选报告】浙江大学公开课第二季:《DeepSeek技术溯源及前沿探索》(附PDF下载)

【精选报告】浙江大学公开课第二季:2025从大模型、智能体到复杂AI应用系统的构建——以产业大脑为例(附PDF下载)

【精选报告】浙江大学公开课第二季:智能金融——AI驱动的金融变革(附PDF下载)

【精选报告】浙江大学公开课第二季:人工智能重塑科学与工程研究(附PDF下载)

【精选报告】浙江大学公开课第二季:生成式人工智能赋能智慧司法及相关思考(附PDF下载)

【精选报告】浙江大学公开课第二季:AI大模型如何破局传统医疗(附PDF下载)

【精选报告】浙江大学公开课第二季:2025年大模型:从单词接龙到行业落地报告(附PDF下载)

【精选报告】浙江大学公开课第二季:2025大小模型端云协同赋能人机交互报告(附PDF下载)

【精选报告】浙江大学公开课第二季:DeepSeek时代:让AI更懂中国文化的美与善(附PDF下载)

【精选报告】浙江大学公开课第二季:智能音乐生成:理解·反馈·融合(附PDF下载)

6份浙江大学的DeepSeek公开课第三季专题系列教程

【精选报告】浙江大学公开课第三季:走进海洋人工智能的未来(附PDF下载)

【精选报告】浙江大学公开课第三季:当艺术遇见AI:科艺融合的新探索(附PDF下载)

【精选报告】浙江大学公开课第三季:AI+BME,迈向智慧医疗健康——浙大的探索与实践(附PDF下载)

【精选报告】浙江大学公开课第三季:心理学与人工智能(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能赋能交通运输系统——关键技术与应用(附PDF下载)

【精选报告】浙江大学公开课第三季:人工智能与道德进步(附PDF下载)


相关阅读

干货推荐:
AI加油站】第一部:《大型语言模型应用检索增强生成:改变搜索、推荐和 AI 助手》附下载
【AI加油站】第二部:《程序员的自我修炼手册》(附下载)
【AI加油站】第三部:《大规模语言模型:从理论到实践》(附下载)
【AI加油站】第四部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第五部:《使用生成式人工智能和Python开始数据分析》(附下载)
【AI加油站】第六部:《时间序列:建模、计算与推断》(附下载)
【AI加油站】第七部:《因果关系的逻辑理论的好书-A Logical Theory of Causality》(附下载)

【AI加油站】第八部:《模式识别(第四版)-模式识别与机器学习》(附下载)

【AI加油站】第九部:《Python深度学习(中文版)》(附下载)
【AI加油站】第十部:《机器学习方法》(附下载)
【AI加油站】第十一部:《深度学习》(附下载)
【AI加油站】第十二部:《从零开始的机器学习》(附下载)
【AI加油站】第十三部:《Transformer入门到精通》(附下载)
【AI加油站】第十四部:《LLM 应用开发实践笔记》(附下载)
【AI加油站】第十五部:《大模型基础 完整版》(附下载)
【AI加油站】第十六部:《从头训练大模型最佳实践》(附下载)
【AI加油站】第十七部:《大语言模型》(附下载)
【AI加油站】第十八部:《深度强化学习》(附下载)
【AI加油站】第十九部:清华大学《大模型技术》(附下载)
【AI加油站】第二十部:Prompt入门神书-《Prompt 学习指南》(附下载)
【AI加油站】第二十一部:吴恩达&open AI联合推出《大模型通关指南》(附下载)
【AI加油站】第二十二部:《李宏毅深度学习教程》值得反复阅读的神书!(附下载)
【AI加油站】第二十三部:Prompt经典中文教程-《提示工程指南》(附下载)
【AI加油站】第二十四部:爆火下载28万次!MIT最新神书《理解深度学习》(附下载)
【AI加油站】第二十五部:LLM4大名著,OpenAI专家强推《深度解析:大语言模型理论与实践》(附下载)
【AI加油站】第二十六部:NLP大牛Thomas Wolf等新书《Transformer自然语言处理》(附下载)
【AI加油站】第二十七部:哈工大博士耗时一年整理《PyTorch常用函数手册》,轻松掌握PyTorch的各种操作(附PDF下载)
【AI加油站】第二十八部:大模型炼丹大师必备《深度学习调优指南中文版-系统性优化模型》(附下载)
【AI加油站】第二十九部:炸裂发布!《大语言模型:导论》重磅发布!(附下载)
【AI加油站】第三十部:最值得读的LLM书!下载量10w+!《基于Transformer和扩散模型的生成式AI》(附下载)
【AI加油站】第三十一部:RL稀缺宝典!《强化学习的艺术》(附下载)
【AI加油站】第三十二部:一本醍醐灌顶的教科书!《大语言模型提示工程:构建LLM应用的艺术与科学》(附下载)
【AI加油站】第三十三部:机器学习好评榜第一《机器学习基础》(附下载)
【AI加油站】第三十四部:所有大模型领域学习者必读,没有之一!由深度学习三巨头联合撰写!(附下载)
【AI加油站】第三十五部:{AI炼丹神书}——从0到1榨干深度学习模型每一滴性能的终极战术手册《深度学习调优指南》(附下载)
【AI加油站】第三十六部:面向生产环境的大型语言模型实战手册《LLM 大语言模型构建指南》(附下载)
【AI加油站】第三十七部:《深度学习的数学导论:方法、实现与理论》从神经网络架构到物理信息模型的全景综述(附下载)
【AI加油站】第三十八部:下载量10w+!《大型语言模型:语言理解和生成》从文本分类到主题建模的实战指南(附下载)
【AI加油站】第三十九部:包教包会!《从零开始构建大语言模型的关键要点》大模型训练全景指南:从0到1的系统性最佳实践(附下载)
【AI加油站】第四十部:《大规模机器学习训练工程实战手册》——从硬件选型到故障恢复的系统性指南(附下载)
【AI加油站】第四十一部:《ChatGPT后训练全景解析:技术演进、核心挑战与未来方向》(附下载)
【AI加油站】第四十二部:《百页机器学习书》:从算法到实战的全景指南(附下载)
【AI加油站】第四十三部:《掌握大语言模型》核心知识速览:从NLP基础到LLM前沿实践(附下载)
【AI加油站】第四十四部:《精通PyTorch》-从CNN到Transformer、LLM、GNN的端到端实战图谱(附下载)
【AI加油站】第四十五部:《图神经网络导论》-全景拆解:从数学基石到落地应用的知识地图(附下载)
【AI加油站】第四十六部:谷歌大佬编写,我唯一熬夜看完的机器学习神作《机器学习:概率视角》(附下载)
【AI加油站】第四十七部:复旦大学张奇老师《自然语言处理导论》(附下载)
面试推荐:
【AI加油站】AI面试专题一:BIO,NIO,AIO,Netty面试题(附下载)
【AI加油站】AI面试专题二:Git常用命令面试题(附下载)
【AI加油站】AI面试专题三:Java常用面试题(附下载)
【AI加油站】AI面试专题四:Linux系统的面试题集(附下载)
【AI加油站】AI面试专题五:Memcached 面试题集(附下载)
【AI加油站】AI面试专题六:MyBatis框架的面试题(附下载)
【AI加油站】AI面试专题七:MySQL相关的面试题资料(附下载)
【AI加油站】AI面试专题八:Netty面试题资料(附下载)
【AI加油站】AI面试专题九:Nginx的面试题资料(附下载)
【AI加油站】AI面试专题十:RabbitMQ的面试题资料(附下载)
【AI加油站】AI面试专题十一:Redis的面试题资料(附PDF下载)
【AI加油站】AI面试专题十二:Spring的面试题资料(附PDF下载)
【AI加油站】AI面试专题十三:Apache Tomcat的面试题资料(附PDF下载)
【AI加油站】AI面试专题十四:Zookeeper的面试题资料(附PDF下载)
【AI加油站】AI面试专题十五:《阿里巴巴Java开发手册》终极版的面试题资料(附PDF下载)
【AI加油站】AI面试专题十六:大数据技术面试题资料(附PDF下载)
【AI加油站】AI面试专题十七:Java并发多线程面试题资料(附PDF下载)
【AI加油站】AI面试专题十八:设计模式的面试题资料(附PDF下载)
【AI加油站】AI面试专题十九:Java虚拟机(JVM)的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十:Elasticsearch的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十一:TCP UDP Socket Http网络编程的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十二:消息队列Kafka的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十三:Spring Boot的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十四:Spring Cloud的面试题资料(附PDF下载)
【AI加油站】AI面试专题二十五:Dubbo的面试题资料(附PDF下载)
大模型课程推荐:
【AI加油站】大模型课程系列一:大模型应用:从提示工程到AI智能体——系统化知识地图(附PDF下载)
【AI加油站】大模型课程系列二:大模型应用:从提示工程到AI智能体——系统化知识地图--合集(附PDF下载)
【AI加油站】大模型课程系列三:《大模型应用·第3章:大模型提示词》-大模型提示词设计七步法(附PDF下载)
【AI加油站】大模型课程系列四:《大模型应用·第4章:大模型辅助工作学习》一站式检索-办公-创作全攻略(附PDF下载)
【AI加油站】大模型课程系列五:《大模型应用·第5章:大模型检索增强》读懂大模型检索增强生成(RAG)全景(附PDF下载)
【AI加油站】大模型课程系列六:《大模型应用·第6章:大模型认知框架》从情景模仿到自我进化的7种思维范式(附PDF下载)
【AI加油站】大模型课程系列七:《大模型应用·第7章:大模型使用工具》-从“会聊天”到“能办事”的7个关键洞察(附PDF下载)
【AI加油站】大模型课程系列八:《大模型应用·第8章:AI智能体核心技术》-从单脑到群体协作的工程落地指南(附PDF下载)
【AI加油站】大模型课程系列九:《大模型应用·第9章:AI智能体开发平台》-从理论到落地的母婴助手案例解析(附PDF下载)
【AI加油站】大模型课程系列十:《大模型应用·第10章:AI智能体行业案例》-四大场景深度解析与实战指南(附PDF下载)

人工智能产业链联盟高端社区




资讯配图
精选主题推荐:
Manus学习手册
从零开始了解Manus

DeepSeek 高级使用指南,建议收藏

一次性说清楚DeepSeek,史上最全(建议收藏)

DeepSeek一分钟做一份PPT

用DeepSeek写爆款文章?自媒体人必看指南

【5分钟解锁DeepSeek王炸攻略】顶级AI玩法,解锁办公+创作新境界!

DeepSeek接入个人微信!24小时智能助理,随时召唤!
PS×Deepseek:一句话编写PS脚本,搞定PS批量导出图层
如何让AI给自己打工,10分钟创作一条爆款视频?
荐:
【中国风动漫】《姜子牙》刷屏背后,藏着中国动画100年内幕!
【中国风动漫】除了《哪吒》,这些良心国产动画也应该被更多人知道!

【中国风动漫】《雾山五行》大火,却很少人知道它的前身《岁城璃心》一个拿着十米大刀的男主夭折!

资讯配图
声明

免责声明:部分文章和信息来源于互联网,不代表本订阅号赞同其观点和对其真实性负责。如转载内容涉及版权等问题,请立即与小编联系(微信号:913572853),我们将迅速采取适当的措施。本订阅号原创内容,转载需授权,并注明作者和出处。如需投稿请与小助理联系(微信号:AI480908961)

编辑:Zero

资讯配图


资讯配图

资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
抢天才还是拼算力?前 Llama 推理负责人详解 AI 的真实天花板
神秘「香蕉」AI 火爆海外,10 轮极限测试后,我相信 P 图这个词已经过时了
突发 | 奥特曼交出ChatGPT指挥棒!女CEO接掌大权,OpenAI 权力大洗牌
战略科学家对话:AI+科学,数据和人才是关键
明天见!AI 助手、直播都来了!
【AI】刚刚!谷歌内部揭秘Genie3:Sora后最强AI爆款,开启世界模型新时代
趋势丨支付破局,中国AI眼镜走向“头号赢家”
LangChain 推出开源异步编码智能体 Open SWE
上班才两年,AI得了抑郁症
OpenAI首个蛋白质模型披露更多细节,改进诺奖研究成果,表达量提升50倍
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号