新 闻一:英特尔Jaguar Shores测试芯片现身,4个计算模块+8组HBM4芯片
上个月在Intel AI Summit 2025上,英特尔表示正在与SK海力士合作,开发Jaguar Shores。其采用了Intel 18A工艺制造,包括RibbonFET和背面供电技术等,提高能效和晶体管密度,另外还将采用SK海力士的HBM4。
近日有网友曝光了Jaguar Shores测试芯片,这也是其实物的首次亮相。

据了解,工程团队正在使用该芯片进行散热测试,以寻找合适的散热解决方案。传闻Jaguar Shores的封装尺寸达到了92.5mm x 92.5mm,巨大的面积表明这是一款面向HPC平台的产品。从测试芯片就能看出,上面带有4个计算模块和8组HBM4存储芯片。
今年初的财报电话会议上,时任英特尔临时联席首席执行官Michelle Johnston Holthauus表示,根据行业的反馈,已决定将下一代数据中心GPU“Falcon Shores”用作内部测试芯片,提供给选定的开发人员和研究合作伙伴,为后续的“Jaguar Shores”奠定良好基础,不过两者仍会一起开发的机架级解决方案,以更广泛地解决AI数据中心的问题。

Jaguar Shores将与Granite Rapids或下一代Diamond Rapids至强服务器处理器搭配,打造英特尔的机架级解决方案,其中还会使用SK海力士的MRDIMM Gen2产品,每个内存模块的容量高达128GB。这些产品将在2026年推出,与英伟达Rubin以及AMD Instinct MI400系列构建的平台竞争。
原文链接:https://www.expreview.com/101312.html
我当然知道和川普没啥关系,不过Intel在这个时候放出消息,确实可能是要借助一下特朗普的势,一鼓作气把股价抬升回来。
回到芯片本身,Jaguar Shores测试芯片看起来是一颗非常巨大的芯片,四个计算模块应该是通过MCM互联,在芯片封装上明显看得出是四个独立的模块, 周围围绕的8颗HBM内存应该也是芯片间互联共享的,延迟情况不知道怎么样,这种设计看起来并不算先进,但Intel的总线技术一直挺不错的,或许能有好的解决方案也说不定。作为Intel的AI芯片,这么大的面积应该是要和NVIDIA、AMD的一流产品对抗的,目前看来,最大的不确定性反而是自家的18A工艺这一块,良率这么低,就算性能表现好,能跟得上市场需求交付吗??
新 闻 二: 有望扩充 Intel 4/3 先进制程产能,英特尔将连通爱尔兰 Fab 34 与 Fab 10 晶圆厂
8 月 21 日消息,英特尔当前主要的 Intel 4/3 先进制程生产基地是位于爱尔兰莱克斯利普的 Fab 34 晶圆厂,为至强 6P "Granite Rapids" 和至强 6E "Sierra Forest" 这两大主力企业级服务器处理器产品提供制造支持。
而在北京时间本月 20 日,英特尔爱尔兰官方社媒账户表示,随着 Fab 34 晶圆厂的扩建基本完工,其建筑团队的下步任务之一是连通 Fab 34 与邻近的 Fab 10,以便英特尔目前在 Fab 34 运行的最新工艺能够在较旧的晶圆厂生产。


英特尔的爱尔兰莱克斯利普晶圆厂集群包含多座生产设施,大致沿西北-东南方向排列,除官方动态提到的 Fab 34 和 Fab 10 外还包括 Fab 14、Fab 24 等。
将 Fab 10 纳入 Intel 4/3 制造体系可分担目前由 Fab 34 独自承载的一些生产工序,加速芯片制造。
原文链接:https://m.ithome.com/html/876913.htm
虽然Intel的PPT上已经有18A、16A工艺,但是目前Intel的主力自产产品还是Intel4和Intel3,此次的连通工作如果能如期达成,对于Intel产品的成本和交付都有不小的正面影响,或许能帮助Intel进一步改善处境。
新 闻 三: 英特尔“Project Battlematrix”软件更新,优化AI推理性能
英特尔在今年5月发布了一款可扩展且易于存取的工作站级至强平台,代号“Project Battlematrix,”帮助AI开发者解决其所面临的难题。其支持最多八块锐炫Pro B60 24GB显卡,实现多卡并行,拥有高达192GB的显存,可运行高达1500亿参数的中等规模且精度高的AI模型。英特尔希望通过简化设计,搭配经过优化的最新推理软件,加速其GPU与AI战略。

近日英特尔分享了LLM Scaler container 1.0版本的最新进展,对于早期客户的支持至关重要,其中包括:
vLLM优化
针对长输入长度(>4K)的TPOP性能优化 - 在32B KPI模型上,40K序列长度的效能提升高达1.8倍;在70B KPI模型上,40K序列长度的效能提升高达4.2倍。
相比于上次发布,进行了性能优化,8B-32B KPI模型的输出吞吐量提升约10%。
逐层在线量化,以减少所需的显存。
vLLM中的PP(pipeline parallelism)支持(实验性)。
torch.compile(实验性)。
推测译码(实验性)。
支持嵌入、重新排序模型。
增强的多模态模型支持。
最大长度自动检测。
数据平行支持。
OneCCL 基准测试工具启用
XPU管理员
GPU功耗
GPU固件更新
GPU诊断
GPU显存带宽
英特尔计划在今年第三季度末推出LLM Scaler的强化版本,并新增额外功能,预计第四季度发布完整的功能集。
原文链接:https://www.expreview.com/101201.html
买电脑讨论群:386615430
电脑吧评测室一群:1031441642
关注B站@电脑吧评测室
