财经

MiniMax 稀宇科技发布万亿参数 MoE 模型 abab 6.5,核心能力接近 GPT-4

来源: 作者:自媒体小编 2024-04-18 17:02:55 我要评论

4 月 17 日消息,国内 AI 初创企业 MiniMax 稀宇科技今日正式推出 MoE 混合专家模型架构的 abab 6.5 系列模型,核心能力开始接近

4 月 17 日消息,国内 AI 初创企业 MiniMax 稀宇科技今日正式推出 MoE 混合专家模型架构的 abab 6.5 系列模型,核心能力开始接近 GPT-4、 Claude-3、 Gemini-1.5。 abab 6.5 系列包含两个模型:abab 6.5 包含万亿参数,支持 200k tokens 的上下文长度;abab 6.5s 与 abab 6.5 使用了同样的训练技术和数据,但是更高效,支持 200k tokens 的上下文长度,可以 1 秒内处理近 3 万字的文本。 自一月发布国内首个基于 MoE 架构的 abab 6 模型后,MiniMax 通过改进模型架构,重构数据 pipeline,训练算法及并行训练策略优化等,在加速 Scaling Laws 过程上取得阶段性成果。(IT之家)
 

转载请注明出处。

本站页面、图片和视频等资料部分由互联网编辑生成,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,若本站收录的页面无意侵犯了贵司版权,请 联系我们

网友点评
0相关评论