2025 AI 向善全球峰会|张亚勤:安全(Safety)应该是AI的基础,而非事后补充

日内瓦当地时间 7 月 10 日上午 10:40,中国工程院外籍院士、清华大学智能产业研究院(AIR)院长张亚勤出席了出席了由联合国(UN)和国际电信联盟(ITU)共同组织的2025 AI 向善(AI for Good)全球峰会“From principles to practice: Governing advanced Al in action”主论坛,探讨人工智能治理。

张亚勤院士重点指出了人工智能治理面临的三大主要问题:

1. 技术快速发展与治理滞后的失衡。他强调,人工智能技术 —— 尤其是生成式 AI 及其在自动驾驶、机器人等物理领域的应用 —— 正以惊人速度迭代,但治理与监管的步伐却相对迟缓。风险的不断放大尚未得到足够完善的监管框架匹配。

2. 全球竞争与责任缺失的矛盾。中国、美国及世界其他地区的企业正陷入激烈的创新 “军备竞赛”。在这一竞争环境下,由于缺乏清晰的责任认定机制和监管工具,安全问题有时未能得到应有的优先考量。

3. AI 监管中的地缘差异。不同国家和地区(如英国、中国、美国)对 AI 安全准则的态度与实施路径存在差异。张亚勤特别提到,中国的治理方式具有显著的开放性与包容性,通过与产业界的紧密协作,共同规范大型模型的数据收集、测试、备案及发布等环节。

针对上述问题,张亚勤院士强调了多项关键解决策略:需为大模型建立分级分类框架,针对前沿大模型制定场景约束与评估体系,在医疗、自动驾驶等高风险领域设立严格标准,并从性能、安全性等多维度进行全面评估;同时通过 ID 实体映射追溯责任主体,像标识广告一样明确 AI 生成的数字人等智能体,将机器人等物理及生物从属智能体映射到具体法人实体,确保问题发生时可追溯责任。此外,安全(Safety)应该是AI的基础,而非事后补充(Safety is the foundation for AI, not an after thought),他呼吁企业、基金会等将大模型投资的 10% 以上用于 AI 风险研究,推动发展与治理、技术与政策、产学研深度融合,既研究符合伦理法律的监管政策以促进国际合作,也在技术层面开发可解释性模型以提升系统安全性。为从根本上规避灾难性风险,需为 AI 设立明确红线与边界,例如禁止 AI 系统在无人类批准的情况下自主复制或改进,杜绝其不当追求权力。最后,还需加强国际沟通合作与协调机制,推动 AI 治理的国际标准化,通过联合实验室、科研项目等促进跨国协作,弥合政策差异,形成全球协同的治理合力。

此次分论坛聚焦于 AI 能力快速发展背景下,行业和监管领域涌现的新治理方法。会议探讨了当前的最佳实践,包括负责任的扩展法则、欧盟的实施经验、自愿性行业框架以及创新监管机制等。演讲者们分享了在管理前沿 AI 发展方面的不同方法,同时也讨论了为快速发展的 AI 系统实施治理措施所面临的实际挑战。

AIR长期招聘人工智能领域优秀科研人员

点这里关注我们


关于AIR



清华大学智能产业研究院(Institute for AI Industry Research, Tsinghua University,英文简称AIR,THU)是面向第四次工业革命的国际化、智能化、产业化的校级研究机构。AIR的使命是利用人工智能技术赋能产业升级、推动社会进步。通过大学与企业创新双引擎,突破人工智能核心技术,培养智能产业领军人才,推动智能产业跨越式发展。

AIR于2020年由多媒体及人工智能领域的世界级科学家、企业家张亚勤院士创建。

智慧交通(AI+Transportation)、智慧物联(AI+IoT)、智慧医疗(AI+Life Science)是清华大学智能产业研究院的三个重点研发方向。

往期精彩:
祝贺!AIR院长张亚勤荣获中国政府友谊奖
关于AI for Science的一些观点
AIR学术|微软亚洲研究院杨蛟龙:结构化三维生成

SUMMER@AIR|2025夏令营开始报名啦!

AIR人物 | 智启未来:博士后顾伟斌、贾寅君、龙思宇、王皓加入AIR!

AIR学术|香港科技大学饶安逸:弥合人类与计算机在视频制作中表征差异的鸿沟

AIR科研|携手Deepseek提出推理时可扩展通用奖励建模新方法,性能领先参数量大数倍模型

张亚勤:Thriving in the Age of AI


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 安全
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号