新型激活函数性能全面领先!仅需一行代码,轻松替代现有激活函数!

学姐带你玩AI 2025-09-07 18:15

激活函数圈又有新突破了!其中TeLU的表现相当亮眼,只要一行代码就能接入,性能直接吊打现有激活函数!港大的Higher-order-ReLU也不遑多让,靠引入高阶多项式形式,拟合精度和训练效率都远超ReLU。

能看出来,改进ReLU及其变体,至今还是激活函数研究的重要方向。不过目前对写论文的同学来说,激活函数的研究已经进入“深水区”,要想有所收获,不光要做改进,更得找多元化的创新切入点。

比如训练策略创新、硬件协同设计、专用场景定制、自动化设计这些,都是很有潜力的思路,推荐没想法的论文er试试~我这边也整理了10篇激活函数前沿论文,涵盖了前面说的这些方向,大家可以拿去参考,相信能更快找到idea。

扫码添加小享,回复“激活创新

免费获取全部论文+开源代码

资讯配图

All-optical nonlinear activation function based on stimulated Brillouin scattering

方法:论文展示了一种基于受激布里渊散射的全光激活函数,可调节为多种常见形状,具有频率选择性和自动增益补偿,适用于光学神经网络。实验和模拟结果表明,这种激活函数在性能上与传统数字激活函数相当。

资讯配图

创新点:

  • 实现了基于受激布里渊散射的全光非线性激活函数,无需光电转换,保留了光子学的优势。
  • 激活函数形状可连续调节为LEAKYRELU、SIGMOID和QUADRATIC等,适应不同机器学习需求。
  • 具备频率选择性和自动增益补偿,支持波分复用,有利于构建深度光学神经网络。
资讯配图

Higher-order-ReLU-KANs (HRKANs) for solving physics-informed neural networks (PINNs) more accurately, robustly and faster

方法:论文提出了一种新的激活函数——高阶ReLU(HR),用于改进物理信息神经网络(PINNs)中的Kolmogorov-Arnold网络(KANs)。这种激活函数比传统的B样条基函数更简单,支持高效的矩阵运算,且具有平滑的高阶导数,适合求解偏微分方程(PDEs)。

资讯配图

创新点:

  • 提出高阶ReLU(HR)激活函数,简化了KANs的复杂度并支持高效矩阵运算。
  • HR激活函数具有平滑的高阶导数,适合物理信息神经网络求解偏微分方程。
  • 实验证明HRKANs在拟合精度、鲁棒性和收敛速度上优于其他KANs变体。
资讯配图

扫码添加小享,回复“激活创新

免费获取全部论文+开源代码

资讯配图

Hybrid Artificial Neural Network Activation Function to Reduce Water Wastage in Agricultural Irrigation

方法:论文提出了一种基于人工神经网络的智能灌溉系统,使用了一种新的混合激活函数TanElu。该激活函数显著提高了模型在灌溉需求分类和最佳灌溉时间预测上的准确率,分别达到98.24%和97.31%,有效减少了农业灌溉中的水浪费。

资讯配图

创新点:

资讯配图

Sinekan: Kolmogorov-arnold networks using sinusoidal activation functions

方法:论文提出了一种名为SineKAN的新型神经网络模型,使用正弦函数作为激活函数,替代了传统的B-Spline激活函数。这种正弦激活函数通过学习输入特征的频率和振幅,实现了高效的非线性变换,并在固定相位网格上进行操作,减少了参数数量。

资讯配图

创新点:

资讯配图

扫码添加小享,回复“激活创新

免费获取全部论文+开源代码

资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号