【科技纵览】2026年2月15日,“不要对AI说谢谢”话题再度登上热搜。起因是部分观点指出,用户对AI表达“谢谢”看似无害,实则被系统视为一次新指令,需生成回应,单次交互消耗约0.0003度电及44毫升冷却水。若以ChatGPT当前1.23亿日活跃用户为基数,每人每日说一句“谢谢”,全年耗电量将达1346万度,相当于7000户家庭的年用电总量。

这一数据引发公众对AI资源消耗的广泛关注。然而,多位业内人士指出,此类担忧更多反映的是产业初期的“资源焦虑”。实际上,主流国产大模型如DeepSeek、文心一言、通义千问等,已针对高频礼貌用语部署本地化响应机制——当识别到“谢谢”时,系统直接调用预设模板,无需激活核心大模型进行推理,能耗几乎可忽略不计。
从技术演进角度看,AI能耗的核心矛盾并不在用户端的简短交互,而在于训练与高负载推理阶段。例如,生成一段5秒高保真视频所耗算力,远超数万次“谢谢”交互。因此,将节能压力转嫁给用户,既不合理也非治本之策。真正有效的路径包括:一是通过算法压缩与推理优化降低单位任务能耗,Kimi、DeepSeek等模型已在实践中验证可行性;二是提升国产AI芯片能效比,但受限于先进制程封锁,短期内难以突破。
放眼全球,能源供给结构亦成制约因素。美国虽拥有先进GPU,但电网老化严重,且两党在能源政策上分歧显著——民主党倾向风光发电,特朗普则主张发展核电,政策反复使AI数据中心供电稳定性堪忧。相较之下,中国在风电与光伏制造端具备成本优势,电力供应相对充足,短板在于芯片能效。
值得深思的是,与其纠结是否说“谢谢”,不如优化人机交互效率。清晰、结构化的指令(如“总结三点核心”)可显著减少来回问答轮次,从而实质性降低能耗。更进一步,这种高效沟通逻辑亦可反哺人际交往——若人们在现实交流中也能如对AI般明确表达需求,或将减少误解与冲突,其社会价值远超省下的几度电。
归根结底,技术应服务于人性,而非倒逼人类削足适履。一句脱口而出的“谢谢”,承载的是文明习惯与情感温度,其意义无法用千瓦时衡量。未来AI的发展方向,应是通过技术创新消化成本,让机器高效如机器,让人温暖如人。