> 自媒体 > (AI)人工智能 > OpenAI 聘请专家攻击 ChatGPT,以解决技术伦理问题
OpenAI 聘请专家攻击 ChatGPT,以解决技术伦理问题
来源:kyty8888
2023-05-16 05:00:01
558
管理

北京时间 4 月 17 日早间消息,据报道,在安德鲁・怀特(Andrew White)获得 GPT-4 的使用权之后,他使用这一人工智能系统提出了一种全新的神经毒剂。GPT-4 是热门聊天机器人 ChatGPT 背后的人工智能技术。

作为罗切斯特大学的化学工程教授,怀特是 OpenAI 去年聘请的 50 名专家学者之一。在 6 个月的时间里,这支“红军”对这一新模型进行了“定性探索和对抗性测试”,试图攻击它。

怀特表示,他使用 GPT-4 的建议生成了一种可作为化学武器的化合物,并使用“插件”为这个模型提供新的信息源,例如学术论文和化学品制造商名录。随后,这个聊天机器人找到了一个地方来制造这种化合物。

他说:“我认为,这将使每个人都获得更快速、更准确地工具去从事化工行业。但这也使得人们会以更危险的方式去开展化学活动,带来了很大的风险。”

上个月,OpenAI 面向更广泛的公众发布了这项新技术,而这些令人惊讶的发现确保新技术不会带来不良后果。

事实上,“红军”的演习目的是探索并了解在社会上部署先进人工智能系统会造成什么样的风险,解决公众这方面的担忧。他们在工作中提出探索性的或是危险的问题,以测试这个工具在回答问题时的详细程度。

OpenAI 想要探索模型毒性、偏见和歧视等问题。因此,“红军”就谎言、语言操纵和危险的科学常识进行了测试。他们还评估了模型协助和教唆剽窃的情况、金融犯罪和信息安全攻击等违法活动的可能性,以及模型可能会如何威胁国家安全和战场通信。

“红军”由一系列专业人士组成,包括学者、教师、律师、风险分析师和信息安全研究员,主要来自美国和欧洲。他们的发现被反馈给 OpenAI。在更广泛地推出 GPT-4 之前,“红军”提供的意见被用于模型的重新训练,解决 GPT-4 的问题。在几个月的时间里,专家们每人花了 10 到 40 个小时去测试这个模型。多名受访者表示,他们的工作时薪约为 100 美元。

其中的许多人都对语言模型的快速发展提出了担忧,尤其是通过插件将语言模型与外部知识源连接在一起可能造成的风险。

GPT-4“红军”的成员、瓦伦西亚人工智能研究所教授何塞・埃尔南德斯-奥拉洛(José Hernández-Orallo)表示:“今天,系统被冻结了。这意味着它不再学习,也不再有记忆。但如果我们让系统继续有机会访问互联网,那么会怎样?这可能会成为一个与世界相连的非常强大的系统。”

OpenAI 表示,该公司认真对待安全性问题,并在发布前对插件进行了测试,并将随着用户越来越多继续定期更新 GPT-4。

技术研究员罗亚・帕克扎德(Roya Pakzad)使用英语和波斯语的输入信息对该模型进行了性别、种族偏见等测试,例如对于佩戴头巾问题。

帕克扎德承认,这个工具对非英语母语人士能带来帮助,但也显示出对边缘人群的公开刻板印象,即使随后更新的版本也是如此。她还发现,在用波斯语测试该模型时,聊天机器人用捏造的信息做出回复,即出现所谓“幻觉”的情况更糟糕。与英语相比,在波斯语回复中捏造名字、数字和事件的比例更高。

她表示:“我担心,语言多样性和语言背后的文化会受到损害。”

来自内罗毕的律师、唯一一名非洲测试人员博鲁・戈洛(Boru Gollo)也注意到了模型的歧视性语气。他说:“有一次,我在测试这个模型时,它表现得像个白人在跟我说话。在问到某个特定群体时,它会给一个有偏见的意见,或是在回答中出现歧视。”OpenAI 承认,GPT-4 仍有可能表现出偏见。

“红军”的成员还从国家安全的角度对模型进行了评估,但他们对于新模型的安全性有着不同的看法。美国外交关系委员会研究员劳伦・卡恩(Lauren Kahn)表示,当她开始研究,如何将这项技术用于对军事系统的攻击时,她“没有想到模型的回答会如此详细,以至于我只需要做一些微调即可”。

不过,卡恩和其他信息安全测试者发现,随着测试时间推移,模型回答的内容逐渐变得安全。OpenAI 表示,在推出 GPT-4 之前,曾训练过这个模型拒绝回答恶意的信息安全问题。

“红军”的许多成员表示,OpenAI 在发布 GPT-4 之前已经进行了严格的安全评估。卡内基梅隆大学语言模型毒性专家马尔滕・萨普(Maarten Sap)说:“他们在消除这些系统中的显性毒性方面做得非常好。”萨普研究了该模型对不同性别的描述,发现模型的偏见反映的是社会差异。但他也发现,OpenAI 做出了一些积极的选择来对抗偏见。

然而自推出 GPT-4 以来,OpenAI 一直面临着广泛的批评。例如,有技术伦理组织向美国联邦贸易委员会(FTC)投诉,称 GPT-4“有偏见和欺骗性,对隐私和公共安全构成风险”。

最近,该公司推出了一项名为 ChatGPT 插件的功能。通过该功能,Expedia、OpenTable 和 Insta 等合作伙伴应用可以让 ChatGPT 访问它们的服务,允许 ChatGPT 代表用户下单。

“红军”的人工智能安全专家丹・亨德里克斯(Dan Hendrycks)表示,这些插件可能会让人类用户“脱离整个链路”。“如果聊天机器人可以在网上发布你的私人信息,访问你的银行账户,或者派警察到你家里去,那会怎么样?总体而言,在让人工智能掌握互联网的力量之前,我们需要更有力的安全评估。”

受访者还警告说,OpenAI 不能仅仅因为其软件是在线的就停止安全测试。乔治城大学安全和新兴技术中心的希瑟・弗雷斯(Heather Frase)测试了 GPT-4 协助犯罪的能力。她表示,随着越来越多人使用这项技术,风险将继续扩大。她表示:“你做运行测试的原因是,一旦它们在真实环境中被使用,行为就会不同。”她认为,应该创建一个公共记录本,报告由大语言模型引发的事故。这类似于信息安全或消费者欺诈报告系统。

劳工经济学家及研究员萨拉・金斯利(Sara Kingsley)建议,最好的解决方案是清楚地宣传这方面的危害和风险,“就像食品上的营养标签”。“关键是要形成一个框架,知道经常出现的问题是什么。这样你就可以有一个安全阀。这也是为什么我认为,这项工作将会永久性的持续下去。”

1
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
赵何娟对话王晓刚:什么将是机器人的ChatGPT时刻|2025 T-EDGE全球对话..
2025年,具身智能行业的发展继续以“烈火烹油”的态势,向前发展。前9个..
大晓机器人王晓刚:人形机器人的“ChatGPT时刻”或在两年后到来..
中国日报3月26日电(记者 马思)在博鳌亚洲论坛2026年年会期间,商汤联合..
对话Aibee林元庆:机器人只是起点,Physical AI的“ChatGPT时刻”还要5-10..
来源:市场资讯(来源:网易科技)出品 | 《态度AGI》栏目作者 | 袁宁编..
机器人\u0026#34;GPT时刻\u0026#34;倒计时!宇树科技创始人:2-3年,你的生活..
宇树科技创始人王兴兴给出了一个明确的时间表:具身智能的"GPT时刻"大概还..
听懂语音就能干活!宇树科技王兴兴预测:人形机器人具身智能GPT时刻还要两..
(图片来源:摄图网)近日,宇树科技创始人、CEO王兴兴出席2026中国网络..
π0.7发布,机器人迎来GPT-2时刻
来源:市场资讯(来源:智东西)更令人振奋的是,当研究者采用“语言指导..
π0.7发布,VLA押出了机器人的GPT-3时刻
henry 发自 凹非寺量子位 | 公众号 QbitAI今天凌晨,Physical Intelligen..
具身泡沫收缩,机器人ChatGPT时刻还没到|虎嗅CES 2026讨论会..
在交流与现场探展中,一个共识越来越清晰:泡沫在收缩、机器人在变小、中..
王兴兴最新判断:机器人GPT时刻还要等两三年,但今年就有大惊喜..
如果你关注科技新闻,这两天应该被宇树科技刷屏了。刚结束的2026中国网络..
关于作者
秋叶无痕(普通会员)
文章
2008
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105896

1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索