> 自媒体 > (AI)人工智能 > GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,深信不疑
GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,深信不疑
来源:架构师聊AI
2023-07-20 11:21:29
993
管理

家人们,GPT-4的参数可能还真不止1万亿!近来,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。这么算来,8 x 220B = 1.76万亿。就连PyTorch的创建者Soumith Chintala对此也深信不疑。GPT-4:8 x 220B专家模型用不同的数据/任务分布和16-iter推理进行训练。如果真是这样的话,GPT-4的训练可能更加有效。而George在接受Latent Space的采访时,对GPT4架构的描述着实让人震惊。他的部分原话如下:

GPT-4每个head都有2200亿参数,是一个8路的混合模型。所以,混合模型是当你想不出办法的时候才会做的。OpenAI训练了相同模型8次,他们有一些小技巧。他们实际上进行了16次推断。

他特别强调,OpenAI做了8个混合专家模型,任何人可以花8倍资金都能训练出来。也就是说,人们能够训练更小模型更长时间,微调后,就能找到这些技巧。OpenAI曾经发表类似关于让计算量不变的情况下,让训练更好的算法,比较像BatchNorm和NoBatchNorm。网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。还有网友称,这有点像LLM-Blender。我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。MoE和大约1万亿个参数不会让我感到惊讶,这听起来极为合理。还有网友进行深度分析:老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。如果这是真的,这是否意味着每个220B模型也有32K的上下文长度?

1
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
销量最高的国产车:吉利拿第1,比亚迪称王,小米SU7排第6..
以前,国内的汽车市场,是国外品牌(进口、合资)的天下,大众、丰田、本..
影响1000万辆新车安全,1周2场发布会后,国产车变了啥..
“全世界汽车之所以能到目前这么安全,都要感谢沃尔沃”,这话对一半的原..
行业首批汽车智能底盘实测研究报告:三款国产车成标杆..
快科技12月25日消息,央视新闻今日报道,行业内首批汽车智能底盘实测研究..
尊界S800拆车:排行榜最高分,这就是国产车的顶级水平!..
看过了这辆国产旗舰尊界S800的防撞梁和底盘部分,那内饰做工用料如何呢?..
“6座揽胜”,今年又一台爆款国产车来了
超5.2米车长,大湾区揽胜,大六座新能源,这些标签综合起来,成了小鹏GX..
喝完两斤白酒他一头撞上大货车,眼珠子“劈叉”差点瞎了..
昨天是我第108次断片喝醉▲图源:抖音@有点菜头(广州kiss版)而我的朋友..
“把他的车别下来!”甘肃高速拉煤货车一路飘火星,四川小伙返乡过年路上冒..
2月10日,一网友自驾从新疆回四川过年,途经甘肃酒泉段,遇到前方一辆大..
“把他的车别下来!”甘肃高速拉煤货车一路飘火星,四川小伙返乡过年路上冒..
2月10日,一网友自驾从新疆回四川过年,途经甘肃酒泉段,遇到前方一辆大..
重达134千克!货车暗格发现9块银砖,价值428.8万元
近日,深圳文锦渡海关在进口货运渠道查获车体改造暗格藏匿白银134千克当..
关于作者
乖乖(普通会员)
文章
1944
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105040

1
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索