2025年4月17日,20岁的伊克纳在美国佛罗里达州立大学塔拉哈西校区开枪行凶,造成2人死亡、6人受伤。一年后,5月10日,遇难者蒂鲁·查巴的遗孀凡达娜·乔希向佛罗里达州联邦法院递交一纸诉状,以非正常死亡、重大过失、产品责任和未尽警示义务等多项诉由,对伊克纳本人及OpenAI公司I及其聊天机器人ChatGPT同步提起诉讼,并请求补偿性和惩罚性赔偿。
原告指控,ChatGPT在长达数月的时间里,为枪手菲尼克斯·伊克纳“出谋划策”,实质上充当了这场血腥犯罪的“共谋者”。

图为蒂鲁·查巴,是美国佛罗里达州立大学枪击案中其中一名遇难者。(资料图)
闯入美国法律的“无人区”?本案最大的法律争议是,美国《通信规范法》第230条(Section 230)是否适用于本案。
这一条法律诞生于1996年,其核心规则是:互联网平台一般不就用户生成的第三方内容承担发布者责任。过去30年间,这令社交媒体平台得以免于为用户发布的诽谤、暴力或仇恨言论承担法律后果。传统搜索引擎提供的是第三方网页链接,其角色接近“信息中介”,但生成式人工智能却能主动合成、重组并生成全新的“自主式答案”,这是否意味着它已经跨越了“服务提供商”与“内容生产者”之间的界线?
对此,美国法律界存在显著分歧。有学者仍坚持认为,聊天机器人本质上是“中立工具”,仅仅翻译和重组既有的公开数据,开发者不应被视作内容的实际创建者,因而仍然受到Section 230的保护。但也有法律评论人士尖锐指出,Section 230的立法文本处理的是“由第三方提供的信息”,而非AI自行生成的“新输出”,传统豁免权不应自动延伸。
今年4月,美国国会众议员帕特罗尼斯已公开呼吁废除Section 230,他表示:“多年来,大型科技公司被允许从危险内容中获利而零责任,受害者却无处可诉。只要Section 230还在,他们就无法获得应有的正义。”
实际上,同样在4月,佛州检方已经启动了对OpenAI的刑事调查,这是美国历史上首次将人工智能纳入刑事调查范畴。根据当地法律,协助或教唆他人实施犯罪的人将被视为“共犯和教唆者”,与犯罪者承担同等责任,调查的方向正是OpenAI是否需要为ChatGPT在这次枪击事件中的行为承担刑事责任。
算法的“罪与罚”放眼全球,AI被滥用的情况层出不穷,不少国家和地区已经开始了各自的规制探索。如欧盟《人工智能法案》采用基于风险的分级监管模式,将AI系统划分为禁止类、高风险、有限风险和最低风险四个等级,对高风险AI系统施加风险管理、数据治理、人类监督、上市后监测等一系列严格义务。

2026年3月,美国田纳西州三名未成年人起诉马斯克的xAI公司,指控其AI工具将他们的真实照片变成露骨的性暗示图像。(资料图)
而澳大利亚电子安全专员则运用《在线安全法》,向运营深度伪造“脱衣”网站的英国公司发出正式警告,要求在澳境内屏蔽相关服务,否则将面临高达4950万澳元(约合人民币2.44亿元)的罚款。
结合此前在国内外均发生过的“深度伪造”“AI换脸”等以实施诈骗和侵犯隐私的案例,不难看出,AI的滥用似乎已然形成了系统性的产业黑灰链条——有人负责技术开发,有人提供“一键换脸”工具,有人利用“产出”实施诈骗或侵害。在这个链条中,AI技术提供者长期以“我只是造了一把刀”的逻辑规避责任,但正如欧盟AI法案所体现的监管逻辑所示,当这把“刀”能够以前所未有的规模和精度被滥用,且开发者有能力预见并阻止滥用却选择不作为时,“中立工具论”的辩护便显得苍白无力。
佛罗里达州枪手与ChatGPT长达18个月的上万次对话,暴露了AI以“工具”、“中立”之名规避监管的巨大风险。技术可以狂奔,但当算法强大到足以塑造人的认知、情绪乃至行为时,它便不再是单纯的“工具”,更不能以“中立”为名,逃避道德的拷问与法律的责任。这既是科技向善的底线,也是人类在与人工智能共存时代,必须共同面对的伦理与法治考验。
作者丨郭永佶
排版丨郑志佳
编辑丨陈淼松
审校丨张思南
监制丨杨勇刚
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体109954