GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑 热点在线
时间:2023-06-21 17:28:22
GPT-4远不止1万亿,甚至,还是8个2200亿参数组成的混合专家模型。
(资料图)
家人们,GPT-4的参数可能还真不止1万亿!
近来,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。
这么算来,8 x 220B = 1.76万亿。
就连PyTorch的创建者Soumith Chintala对此也深信不疑。
GPT-4:8 x 220B专家模型用不同的数据/任务分布和16-iter推理进行训练。
如果真是这样的话,GPT-4的训练可能更加有效。
1.76万亿「八头蛇」?
在GPT-4还未放出之前,GPT-3有1750亿个参数,一众网友猜测GPT-4岂不是要逆天,最起码1万亿。
而George在接受Latent Space的采访时,对GPT4架构的描述着实让人震惊。
他的部分原话如下:
GPT-4每个head都有2200亿参数,是一个8路的混合模型。所以,混合模型是当你想不出办法的时候才会做的。OpenAI训练了相同模型8次,他们有一些小技巧。他们实际上进行了16次推断。
他特别强调,OpenAI做了8个混合专家模型,任何人可以花8倍资金都能训练出来。
也就是说,人们能够训练更小模型更长时间,微调后,就能找到这些技巧。
OpenAI曾经发表类似关于让计算量不变的情况下,让训练更好的算法,比较像BatchNorm和NoBatchNorm。
网友热评
就像George所说,这是8个较小的模型,如果有足够资金训练8个混合模型,这是一个微不足道的解决方案。
所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是……真的?!
网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。
还有网友称,这有点像LLM-Blender。
我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。MoE和大约1万亿个参数不会让我感到惊讶,这听起来极为合理。
还有网友进行深度分析:
老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。
因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。
话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。
如果这是真的,这是否意味着每个220B模型也有32K的上下文长度?
网友下了功夫,给它命名为「九头蛇」。
相关稿件
GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑 热点在线
华海诚科(688535.SH):公司有产品可以应用于GPU的芯片封装-世界信息
天天快资讯:工信部:制定实施“5G+工业互联网”512升级版工作方案
镇江失业金领取标准2023是怎样的?镇江失业保险金领取如何办理?|今头条
北京国安官宣张玉宁伤情,手术后恢复14周,足协杯打淄博将空场 全球速讯
【最美基层干部】大湾镇大箐村驻村第一书记方启光:驻村 助困 筑梦
新资讯:凤县留凤关镇1500名党员干部群众签订“零酒驾”承诺书
阿迪达斯首席执行官:中国文化元素对产品设计启发越来越显著|焦点简讯
可宣教、能急救、设施齐!长沙市首个社区应急小屋亮相|焦点速看
收评:沪指跌1.31%失守3200点 AI概念股集体大跌_当前看点
晚邮报:曼市双雄&皇马均有意特奥,米兰最低要价7000万欧_焦点滚动
环球快播:《最终幻想16》明日上线 日本销量暴增但仍不敌《最终幻想15》
“国”韵锦绣 “潮”动青城——2023前洲街道国潮文化季启动-世界滚动
最新:君亭酒店(301073.SZ):两名高管拟合计减持不超98.72万股