
【科技24时区】埃隆·马斯克试图在法律层面“拆解”OpenAI的宏大叙事,其成败或许就悬于一个核心命题之上,这家前沿实验室旗下的营利性子公司,究竟是在强化还是削弱了其创立之初的承诺,确保通用人工智能(AGI)能够造福全人类。当地时间周四,在加利福尼亚州奥克兰联邦法院的庭审现场,这一抽象的法律争议被具象化为前员工与董事会成员的证言,直指公司在推动AI产品市场化过程中,对安全承诺的妥协。
罗西·坎贝尔(Rosie Campbell),这位曾在2021年加入OpenAI AGI准备团队、并于2024年因团队解散而离职的前成员,在证人席上描绘了一幅令人不安的图景。“我刚入职时,公司氛围极具研究导向,人们热衷于探讨AGI及其安全问题,”她回忆道,“但随着时间的推移,这里逐渐演变成一个以产品为核心的组织。”值得注意的是,与她所在的团队同期被关闭的,还有另一个专注于安全的“超级对齐”(Super Alignment)团队。这种结构性调整,似乎暗示了资源向商业变现倾斜的趋势。
在交叉质询环节,坎贝尔并未否认巨额资金对于构建AGI目标的必要性,但她尖锐地指出,若在缺乏适当安全措施的情况下打造超级智能模型,便背离了她最初加入该组织的使命。她特别提及了一起标志性事件:微软曾通过必应搜索引擎在印度部署GPT-4模型,而当时该模型尚未经过OpenAI内部“部署安全委员会”(DSB)的评估。尽管坎贝尔承认该模型本身风险可控,但她强调,随着技术威力的增强,必须树立强有力的先例,“我们需要建立可靠且被严格执行的安全流程”。颇具讽刺意味的是,OpenAI律师迫使坎贝尔承认,在她看来,OpenAI目前的安全方法优于马斯克旗下、今年早些时候被SpaceX收购的xAI公司。这一细节虽为被告方挽回些许颜面,却未能掩盖原告方关于治理失效的核心指控。
庭审的另一重头戏来自时任非营利董事会成员塔莎·麦考利(Tasha McCauley)。她的证词揭示了2023年那场轰动全球的“宫斗剧”背后的深层裂痕。麦考利指出,包括时任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)和时任CTO米拉·穆拉蒂(Mira Murati)在内的多名员工,曾抱怨CEO萨姆·阿尔特曼(Sam Altman)回避冲突的管理风格。更严重的是,阿尔特曼被指存在误导董事会的模式化行为。例如,他曾向另一位董事谎称麦考利意图罢免海伦·托纳(Helen Toner),后者曾发表一篇隐含批评OpenAI安全政策的白皮书。此外,阿尔特曼未向董事会通报ChatGPT公开发布的决定,也未充分披露潜在的利益冲突。
“我们是一个非营利董事会,职责是监督下属的营利实体,”麦考利在法庭上坦言,“但我们履行这一职责的主要方式受到了质疑。我们完全无法确信,传达给我们的信息足以支持我们做出明智决策。”然而,当董事会短暂解雇阿尔特曼后,面对员工发起的要约收购以及微软极力恢复现状的压力,反对阿尔特曼的董事们最终辞职,局势逆转。这一结局不仅暴露了非营利董事会对营利实体影响力的式微,也直接呼应了马斯克的诉讼逻辑:OpenAI从研究机构蜕变为全球最大私营公司之一的过程,打破了创始人之间的隐性契约。
哥伦比亚大学法学院前院长大卫·希泽尔(David Schizer)作为马斯克团队聘请的专家证人,进一步放大了这一担忧。他强调,OpenAI曾宣称将安全置于利润之上,这意味着必须严肃对待安全规则,“如果某事需要接受安全审查,那就必须执行。关键在于程序正义。”希泽尔的言论将个案上升至行业伦理高度。
麦考利则借此呼吁加强政府对先进AI的监管。她认为,OpenAI内部治理的失败表明,若涉及公共利益的重大决策仅由一位CEO独断专行,将是极不理想的局面。与此同时,OpenAI现任准备负责人迪伦·斯坎迪纳罗(Dylan Scandinaro)于今年2月从Anthropic跳槽而来,阿尔特曼曾戏称此举让他“今晚能睡得更安稳”。尽管OpenAI公开分享了部分模型评估与安全框架,但对于当前的AGI对齐策略,公司仍保持沉默。这场诉讼不仅是两家巨头间的恩怨纠葛,更是硅谷“理想主义叙事”与残酷商业现实碰撞后的司法清算。