神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示

量子位 2025-10-16 17:30
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

在通往AGI的道路上,人类欠缺的是一种合适的编程语言?

华盛顿大学计算机学院教授Pedro Domingos在最新的独作论文中表示,当前AI领域使用的编程语言,无一例外全都存在缺陷。

同时,Domingos还提出了一种新的统一语言,将AI逻辑统一成了张量表示

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图1

这篇论文,将逻辑推理转化为纯张量代数,消除了主流人工智能模型中离散逻辑与连续梯度之间的界限,让演绎和神经计算使用同一种语言。

其中没有符号或启发式命令,仅靠数学就实现了逻辑与学习的融合,使神经网络能够以符号精度进行推理、符号系统像神经网络一样学习。

Domingos本人也自我评价称,他通过这篇新作,发现了通往AGI的道路。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图2

Domingos对自己的成果非常自信,有网友询问能不能用这套系统来做Vibe Coding,而Domingos的回答是,“比Python强太多”。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图3

“AI显然还没有找到它的语言”

在论文中,Domingos把当前AI领域使用的语言全都批判了一番,认为它们全都存在缺陷。

首当其冲的就是现在最常用的Python,Domingos认为其“从未为AI设计”。

具体来说,虽然像PyTorch和TensorFlow这样的库提供了自动微分和高效的GPU实现,但它们对自动化推理和知识获取“毫无帮助”。

这导致在这些功能上只能依靠“hacky attempts”(拼凑式的临时方案),既不系统,也不高效。

其他语言也有各种各样的问题。

比如早期的LISP和Prolog等AI语言,虽然“使符号AI成为可能”,但缺乏可扩展性和对学习的支持。

图模型虽然为概率AI提供了“通用语言”(lingua franca),但其推理成本高昂,限制了实际使用;Markov逻辑这类融合符号与概率AI的形式系统,也是因推理代价而受限。

作者还批评神经符号AI试图将深度学习与符号AI结合的做法,认为这完全是将两者的糟粕“完美结合”。

研究了这一圈之后,Domingos得出结论——“AI显然还没有找到它的语言”。

那么,AI到底需要一种什么样的语言呢?

统一张量方程表达神经网络

Domingos提出了一种全新的AI编程语言框架,名为Tensor Logic,作者认为它有潜力成为整个人工智能领域的“母语”。

Tensor Logic的目标,就是提供一个统一表达神经网络与符号推理的语言体系,让学习、推理与知识表示在同一个数学框架中自然展开

这样做的原因是Domingos认为逻辑规则与张量运算中的爱因斯坦求和(Einstein summation)在结构上是等价的,逻辑程序中通过连接条件和投影来进行推理,而这些都可以用张量乘法与求和表达出来。

以Datalog为例,规则中的“如果A且B,则C”可以看作是两个布尔张量的join操作,再通过投影消去中间变量得到结果张量,最后通过一个step函数判断该路径是否存在。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图4

这种等价性意味着,传统的符号逻辑推理过程完全可以转换成张量运算,不再需要专门的逻辑引擎。

与此同时,神经网络的结构也天然适配这种表示方式

无论是多层感知机的线性变换与激活函数、RNN的时序递归、CNN的卷积操作,还是Transformer中的注意力机制和归一化操作,都可以用一组张量方程串联起来表达。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图5

换句话说,Tensor Logic用一套语言结构,同时覆盖了逻辑编程与深度学习的计算图

整个语言的表达、推理与学习过程都通过张量的连接(join)、投影(projection)和非线性变换完成,不包含任何传统编程语言中的控制结构、关键字或多样化语句类型。

语言中每一条语句都是一个张量等式,左边是待求张量,右边是由其他张量构成的表达式。

张量之间通过爱因斯坦求和约定进行乘法和求和操作,未出现在等式左侧的索引自动被求和,出现在左侧的索引表示保留维度。

可选的非线性函数(如 step、sigmoid、softmax)可作用于右侧表达式的结果,实现激活、归一化或阈值判断。

由于每条语句都是张量之间的运算,整段程序天然可以进行自动微分,也无需区分“程序结构”和“模型结构”。

此外,作者还提出在嵌入空间中进行逻辑推理的机制。

对象的向量表示可以通过张量积组合成关系的表示,而推理过程则是对这些嵌入结构进行组合、投影与匹配。

通过调节激活函数的温度参数,可以实现从精确推理到模糊类比的连续过渡,从而兼顾逻辑的可靠性和神经网络的泛化能力。

那么,Tensor Logic具体又是如何实现的?

具体实现

Domingos展示了如何使用Tensor Logic以统一的张量方程形式实现多个主流AI方法,涵盖神经网络、符号AI、核方法与概率图模型。

在Tensor Logic中,神经网络的每一层都可以用张量方程表示。

例如多层感知机(MLP)通过张量的乘法和激活函数定义隐藏层之间的映射,可用一个三维张量W来表示不同层的连接权重。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图6

递归神经网络(RNN)则可利用时间维度上的状态共享,使用“虚拟索引”实现状态在时间步之间的更新。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图7

卷积神经网络(CNN)通过在图像上滑动小的滤波器窗口,实现位置不变的特征提取。卷积操作通过索引偏移实现,池化操作通过索引除法实现聚合。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图8

图神经网络(GNN)以节点之间的邻接关系表示图结构,用嵌入张量表示每个节点的状态。每一层的传播通过邻接矩阵和特征张量的join实现邻居信息聚合,再通过线性变换和激活函数更新自身状态。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图9

Transformer模型使用注意力机制捕捉序列中远距离依赖,Tensor Logic用权重矩阵分别计算query、key、value向量,并通过注意力分数加权求和。

多个头输出拼接后进入后续的归一化、残差连接和前馈层,每一层的所有结构都是张量级别的操作。

神经网络与符号系统大一统!华盛顿大学教授把AI逻辑统一成了张量表示图10

其余像符号AI、概率、核方法等不同AI范式,也都可以纳入这种表达体系中。

总之,Tensor Logic通过一套统一的张量语法,使不同类型的AI系统第一次在语言层面实现了融合。

论文地址:
https://arxiv.org/abs/2510.12269
参考链接:
[1]https://x.com/godofprompt/status/1978405500485325080
[2]https://x.com/pmddomingos/status/1978333248888480079


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
国产EDA的AI进程究竟到哪一步了
产业丨MCU圈的AI较量:竞赛正式打响,场景生变
活动报名|腾讯AI广告发展论坛——探索智能营销未来
邀请:ADAS|AIDSP|精密电机控制|多协议无线等线下培训【10月28日上海 10月30日杭州 免费】
AI理赔只要30秒!3.55亿砸向这家新公司,保险公司后台“人”没了
AIR科研|X-VLA重磅开源,全面刷新机器人基准性能记录
AI 科普丨科幻照进现实:那些电影里的AI,如今实现了多少?
RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法
多款英特尔锐炫多卡方案上线,让全场景AI部署更高效
「性价比王者」Claude Haiku 4.5来了,速度更快,成本仅为Sonnet 4的1/3
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号