【科技纵览】印度政府于2月10日发布一项法律修正案,进一步收紧对社交媒体平台的监管要求,尤其聚焦人工智能生成或篡改的内容。根据彭博社援引的官方公报,新规强制平台在接到政府指令后3小时内删除被认定为非法的内容,较此前36小时大幅压缩响应时限。

此次修订将AI生成内容纳入重点规制范畴,明确要求相关平台必须对合成内容进行显著标识。同时,运营方需采取主动措施,防止用户上传违反印度法律的信息。IT之家注意到,这一举措是莫迪政府近期密集出台网络治理法规的一部分,旨在强化平台对用户发布内容的法律责任。
新规则的出台背景与多起涉及AI生成图像的投诉直接相关,尤其是社交平台X上出现由人工智能机器人制作的未成年人色情化图片,引发社会广泛关注。为此,印度当局强调,任何允许“合成”内容发布的平台,都必须确保其不触犯本国法律,并须每季度向用户明确提示违规行为可能面临的处罚。
分析显示,印度正通过立法手段加速构建数字内容治理体系,其监管逻辑从“事后追责”转向“事前预防+平台担责”,反映出全球多国在AI滥用风险上升背景下对科技企业施加更高合规压力的趋势。