GPT-4,已成历史尘埃Perplexity CEO Aravind Srinivas最近表示,AI的进步已经跨越了临界点——三个月的时间,仿佛就已经跳过了一章历史。

2023年5月4日,GPT-4正式联网,微软开放搭载GPT-4的全新Bing聊天机器人,全面开放插件系统,无需排队人人可用。

2023年7月7日,Code Interpreter官宣向Plus用户全面开放,实测案例惊人。

因此大家确认,这名网友并没有撒谎,或伪造截图,因为顺着这个对话链接检查,会发现model-slug确实是GPT-4.1。

很快,有越来越多的人发现自己也能用GPT-4.1了。

此外,也有网友推测,奥特曼口中的「Quasars Alpha」,就是GPT-4.1。
为保o3发布,测试时间大幅缩短而FT的报道也再次证实,满血版o3下周很可能再次上线。
知情人士透露,由于Meta、谷歌、xAI这些对手逼得实在太紧,OpenAI为了保持自己的技术优势并从中获利,不得不加快模型的发布速度。
为此,曾经需要数月时间进行的模型「评估」——测试模型的风险和性能,如今已被压缩到了只有短短的几天。
比如即将退役的GPT-4,就有着长达6个月的评估期。其中一些危险能力,正是在测试进行了两个月后才被发现的。
但现在给到的时间和资源,已经不足以进行全面的测试来识别和规避风险了。

此前,OpenAI曾承诺构建定制版的模型来评估潜在的滥用风险,例如是否可能助长生物病毒提高传播能力。
但这种方法成本很高,不仅要聘请外部专家,还要创建诸如病毒学这类的专业信息数据集,并将其「喂」给模型来进行微调,消耗大量的工程师和计算资源。
很明显,OpenAI不想在这件事上花太多精力——他们只对能力较弱的旧模型做了微调,没有用到更强、更先进的模型上。
比如,在1月份发布的o3-mini安全与性能报告中,仅仅提到了GPT-4o只会在微调后才能执行某项生物学任务。至于o1和o3-mini如何,OpenAI却只字未提。
另外,还有一个令人担忧的问题是,安全测试针对的并不是最终向公众发布的模型,而是更为早期的「检查点」(checkpoints)。在这之后,模型还会继续更新来提升性能和能力。
面对这些质疑,OpenAI回应称,其评估流程已通过引入自动化测试等方式提高了效率,从而缩短了所需时间。
「虽然目前还没有一套公认的方案,但OpenAI采用的方法肯定是最优的,并且已在报告中公开透明地进行了说明。」
此外,OpenAI还表示,测试所用的检查点与最终发布的版本「基本一致」。
参考资料:
https://x.com/whylifeis4/status/1910719046665884006
https://www.ft.com/content/8253b66e-ade7-4d1f-993b-2d0779c7e7d8
https://techcrunch.com/2025/04/11/openai-is-winding-down-its-gpt-4-ai-model-in-chatgpt/
编辑:Aeneas 好困
本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体107764