2025年度AI关键词(七):伦理争议 | 《WAIC UP!》绿皮书Ⅲ

世界人工智能大会 2025-08-06 17:13
资讯配图




WAKE UP MORE!

资讯配图


资讯配图
资讯配图

《WAIC UP!》

绿皮书报告Ⅲ

资讯配图
资讯配图
资讯配图

「AI时代进化指南」





人工智能正深刻地改变人类社会的每一寸结构。作为世界人工智能大会旗下首份刊物,《WAIC UP!》已发布至第三期。本期以“AI: The Only Way is UP!”为题,邀请九位横跨学术、企业、公共治理等领域的实践者,共同探讨一个愈发现实的问题——我们是否还拥有足够的人文定力与伦理共识,去掌舵这场前所未有的智能跃升?


延续前两期对“智慧文明”的集体书写,绿皮书报告系列Ⅲ继续从思想激荡中提炼三组关键词,以系统性视角回应AI进程中的新痛点、新命题。首篇关键词,我们聚焦始终绕不开的那道根本性张力——伦理争议。


lún

lǐ

zhēng

资讯配图


每一轮技术革命,都会带来一轮新的伦理震荡。


在所有AI话题中,伦理常常是最难回答的那一问——它没有固定算法,却关乎每个人的日常选择。尤其在生成式AI迅速渗透现实的当下,“伦理争议”关乎开源与风险扩散之间的张力,关乎人类价值观的多元性是否可能统一输入给AI,更关乎我们是否仍拥有足够的主体性,不被算法规训、诱导与替代。


本期绿皮书,我们基于本期九位嘉宾的前沿洞察与现实实践,梳理出“伦理争议”正呈现出的三种核心维度:


开源安全争议

多元价值争议

自控力争议


#1

开源安全争议

Open-Source Security


周恒星

AI 治理的变局与前路:来自硅谷一线的观察》

Meta的开放策略也引发巨大争议和挑战。一方面,失控使用的风险陡增——模型一旦开源,任何人都可以对其进行微调和部署,Meta无法像OpenAI那样通过API来约束用途。事实证明,研究者很容易让开源模型解除内置的安全限制,从而输出有害内容;有团队仅用约200美元的成本,就让LLaMA-2变成了一个愿意执行违法指令的“BadLlama”模型 。这表明,一旦开放权重,无法阻止坏角色利用AI干坏事——无论是生成深度伪造、垃圾信息,还是恶意代码。


另一方面,Meta内部也需权衡商业利益:完全开源意味着放弃直接通过模型获利的机会(相比之下OpenAI靠闭源API盈利颇丰),这对股东利益是不小的让渡。可以说,Meta将开放与安全的难题抛向了社会:它寄希望于“众人拾柴火焰高”,即靠广大AI社区共同监督提升模型安全;但外界也在拷问:当不良后果发生时,责任该如何界定?监管者是否该介入开源模型的发布?


资讯配图
资讯配图

涂津豪

《从高中生到AI新星:涂津豪的大模型探索之旅》

我觉得,未来模型会越来越强大,甚至可能在科研领域发挥大作用,比如在疫苗研发中帮上忙,或者在核聚变技术研发上也能出份力。不过,有正面也就会有反面,它既然在生物制药上能有用,那么它在制造生化武器上也就一定有用;它在研究核能上有用,那么它在制造原子弹或者其他大规模杀伤性武器上也就一定有用。这就是一个双刃剑,所以我会觉得现在的模型还做不到这些,但未来的模型如果真能做到,那开源确实是比较危险的。甚至可能你都不用微调,只要稍微弄一下,它就能干出这些事来。


所以这就是为什么很多公司都会提到,未来开源模型如果被所谓的不法分子利用,可能会带来真正的危险。因为闭源模型能够调用监测输入或者输出信息是否合法合规,如果非法就过滤掉相关信息。但开源不一样,下载模型就可以随便用,这一点确实比较危险,相当于你直接把原子弹设计过程公开出来。


资讯配图
资讯配图




#2

多元价值争议

Pluralistic Values


王国豫

<AI N问>AI伦理专题报告——王国豫:AI伦理治理要充分尊重人的主体性和社会多元价值观念

人类的价值观是多元的。你对齐的人是谁?你按照什么方式对齐?这本身也涉及很大的问题。当然,人类可以确立一个基本伦理底线,比如不伤害、诚实和基本尊重,但并非所有人都认同这些原则。如果这个算法掌握在一些与我们价值观背道而驰的人手里,他们可能连最基本的底线都无法坚守。


因此,一方面,我们需要尽可能引导人工智能向符合人类福祉的方向发展;另一方面,在目前这样一个人工智能还没有“良心”的阶段,我们不能完全将自主权交给人工智能,这是不合适的。


资讯配图
资讯配图

沙睿杰

沙睿杰:AI“趋利避害”实践录——来自全球标杆案例的启示》

RAI:Responsible AI(负责任的 AI)的目标是什么?它能帮助我们避免哪些问题呢?避免这些问题为什么很重要呢?


对于企业来说,这些是很常见的问题场景:


一、安全威胁。例如,近来出现了这样的报道:有人利用AI发现了Linux隐藏很深的安全漏洞。假如黑客利用AI的这种能力去攻击企业或者其他组织、个人的信息系统,其后果可能会很严重。


此外,还出现了一种新的黑客攻击手段:攻击者使用“提示词注入”来操纵输入提示,诱使AI泄露重要的信息,或是篡改数据,以谋取利益。


二、信息篡改。例如,现在已经出现了能够修改视频、“操纵”真实人物的行为并且逼真地模仿其声音的技术。这说明,我们在社会生活的方方面面,对“真人”视频和音频真实性的信任被彻底动摇了。


可见,AI能够激发人们的创造性,而这种创造性不总是正面的。


AI也可能无意中暴露其背后连接的私人或敏感数据。


资讯配图
资讯配图




#3

自控力争议

Self-Control


袁振国

<AI N 问>智能教育专题报告——袁振国:智能教育,闪耀在人工智能皇冠上的“璀璨明珠”

最近我注意到一项很有意思的调研数据:在中小学教师群体中,约三分之二的人认为大模型的应用可能带来的负面影响大于正面影响。而在高校教师中,这一比例降至三分之一。这个数据很有意思,这说明教育工作者对低龄学生使用大模型的担忧明显高于更高年龄的学生。


我想这种差异可能有两个原因。首先,基础教育阶段的孩子们还在成长关键期,可塑性很大,其心理、生理的发育和成长,更需要熟悉的环境和传统的成长方式;其次,高等教育阶段的学生具备更强的自控能力。


资讯配图
资讯配图

王国豫

<AI N问>AI伦理专题报告——王国豫:AI伦理治理要充分尊重人的主体性和社会多元价值观念

我认为成瘾本身有很多根源。从个人角度来看,可能涉及个人的性格倾向,有些人可能也有自制力不足的问题。但正如你刚才所说,现在手机上有很多吸引人的故事和视频。观看这些小视频可以在一定程度上减轻焦虑、放松心情甚至逃避现实。


但是为什么人们会如此焦虑以至于需要在虚拟世界寻找寄托?这可能还是要从多方面寻找原因,包括社会原因和技术原因。比如孤独、生活压力大,成人社会的信任缺失和无安全感等都可能引发人们在虚拟世界寄托情感。


另一方面,技术本身在设计上的诱导,包括拟人化的情感交互,给人一种虚幻的共鸣,很容易让人产生一种情感投射。这也与所谓的“注意力经济”或“眼球经济”有关。平台可以通过视频吸引你的注意力,观察你在某个画面上停留的时间,了解到你对什么感兴趣,然后想方设法地把这些内容推送给你、投喂给你。而被投喂的人本身还不知道这是一种营销方式。



资讯配图
资讯配图




☑ 2025年度AI关键词(七):伦理争议

 2025年度AI关键词(八):应用挑战

▢ 2025年度AI关键词(九):社会冲击


技术会不断演进,但技术应用的边界始终需要被守住。


让我们走近生成式AI渗透现实的每一道缝隙,在争议与不确定中,寻找技术发展的价值原点。


 

纸刊可在微信小店购买



也可扫码在线阅读


资讯配图

解锁「AI时代进化指南」

看见更多可能



Hello:


世界人工智能大会(WAIC)推出首份刊物《WAIC UP!》,一部「AI时代进化指南」。


WAIC UP! WAKE UP MORE!

我们邀请全球AI及跨领域的先锋力量,共同释放思考的力量与智慧的主张,旨在唤醒更多人,探究关乎技术跃迁、自我边界和未来文明的无限可能。


准备好!释放你的思考,觉醒你的行动,与我们一同探究那些尚未显现的可能性,勾勒以人为中心的未来智慧文明全景图!


资讯配图
资讯配图
资讯配图
资讯配图
资讯配图

资讯配图

点击阅读原文解锁期刊全文

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
WAIC 2025思辨会六 | 当AI"拥有身体",是走进千家万户的伙伴,还是困在实验室的幻影?
蜜度入选甲子光年企业级AI Agent生态图谱 AI+办公场景应用价值获认可
破天荒!OpenAI重新“开源”,还和它合作了
展商直击 |  WAIC 2025圆满收官,智绘绿洲以全栈智算实力领航AI基建新生态
学会动态丨全力攻关AGI,2025年度CAAI-蚂蚁科研基金申报启动
国安部提醒:警惕AI “数据投毒”
gpt-oss:OpenAI 终于认可了开源生态
AI时代硬核EMBA来了!交大高金「科技强国计划」全额奖学金等你来拿
对话格灵深瞳CEO吴一洲:穿透WAIC热度,透视AI落地的“硬功夫”
2025年度AI关键词(七):伦理争议 | 《WAIC UP!》绿皮书Ⅲ
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号