点击蓝字
关注我们


梁正
清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任、中国科技政策研究中心副主任、公共管理学院教授
《关于深入实施“人工智能+“行动的意见》重磅发布,我国迎来首部人工智能加行动纲领,六大领域开启AI新时代。经济之声推出系列解读智能时代的无限潜能。今天,我们将关注人工智能与治理能力的结合。央广经济之声记者吕红桥与清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正的对话。
经济之声:《意见》提出,应探索开启社会治理中人机共生的新图景。那么,在市政规划与城市管理中,人机共生决策模式是如何运作的呢?
梁正:在公共管理领域,这个问题可能会变得日益突出。实际上,我们已经出现了智能公务员或AI公务员,由深圳率先推出。随着智能化水平的提升,在诸多社会管理及城市管理事务中,人的局限性日益显现。特别是在处理复杂的多模态信息时,人的能力是有限的。现在,借助大型语言模型,我们能够获得辅助决策的能力,使得AI正式参与到治理过程中。此外,智能交通系统背后实际上是由城市大脑和交通大脑进行指挥。
杭州的经验表明,智能工具能够通过从局部推广到全域,显著提升效率。这证明了智能工具在提高效率方面的价值。然而,这并不意味着人类可以被完全替代。在研究公共管理领域的智能化转型时,我们发现AI在提高效率方面具有优势,但在涉及价值判断和资源分配的领域,我们不能完全依赖智能体或算法进行决策。因为这些领域并不存在效率高低的问题,而更多的是价值判断。尽管AI正在努力与人类对齐,但它更倾向于通用能力的对齐,而非多样化和个性化需求。
经济之声:《意见》还提出,应采取安全、稳妥、有序推进的方式,将人工智能技术应用于政务领域。为什么会用这样的一种态度?
梁正:在智能政务领域,如果处理程序性事务,我们可能会逐渐减少与真人接触,转而更多地依赖模型和智能体。但在涉及价值判断和资源分配的复杂问题,特别是在医疗、教育等公共资源分配政策的执行中,需要考虑价值观的问题。如果将这些问题交由AI决策,它可能难以找到解决方案。因此,在公共管理中,我们必须特别关注责任划分。
经济之声:那么,未来是否打算将这种模式制度化?例如,当人工智能能力大幅提升时,是否也会引入人工智能进行决策审批?
梁正:AI实际上无法对人与人之间的利害关系进行个性化的判断。因此,即便在极其复杂的情况下,AI能够具备处理的能力,但最终的决策仍然应当由人类来做出。AI是为我们提供建议和方案的工具。
经济之声:人工智能的发展也引发了法律法规的问题。例如,机器人是否会涉及违法行为?若真的违法,责任归属何处?是机器人的自身责任,还是相关人类的责任?
梁正:在探讨人工智能的主体性问题时,目前我们尚不清楚未来是否会诞生具有自我意识或自我认知能力的超级人工智能。就目前而言,即使像大模型这样的AI,也不具备独立的主体性。这意味着,从法律角度来看,责任最终需要明确到使用AI工具的主体身上,无论是开发者、设计者、制造者、部署者还是使用者,我们都倾向于将责任归于人类主体或法人主体。这是一个目前我们看到的基本思路。
以自动驾驶汽车为例,即便未来实现完全自动驾驶,发生事故时,责任归属仍需明确,这涉及到制造者、算法软件提供者以及使用者。通过这种方式来明确责任归属。
经济之声:现有的法律法规体系是否需要调整?
梁正:现有的法律体系在处理人机责任分配时确实需要考虑谁应承担责任。自动驾驶的分级分类,实际上随着级别升高,车辆本身所承担的责任也会逐步增加。在较低的技术发展阶段,主要的责任在于人类驾驶员,我们会追究人类驾驶员的责任,并在立法中明确指出,不能完全由AI来驾驶汽车。然而,随着技术的演进,这种情形可能会发生改变。可能在立法层面针对L5级的自动驾驶会明确规定人类不得驾驶,因为这将带来更大的风险。在这种情况下,当车辆出现问题时,责任不会直接归咎于车辆本身,而是由制造者、使用者和部署者承担法律责任。法律将根据技术进步及其带来的影响进行相应划分。




