来源:网易新闻
4月17日消息,MiniMax宣布 正式推出abab 6.5系列模型。是继今年1月推出国内首个基于MoE架构的abab 6之后的又一力作。该系列模型在MoE(Mixture of Experts)架构上进行了深度优化,是MiniMax加速 Scaling Laws 过程的阶段性成果。
abab 6.5系列包括abab 6.5和abab 6.5s两个模型,均支持200k tokens的上下文长度,其中abab 6.5拥有万亿参数,而abab 6.5s在保持相同训练技术和数据的基础上实现了更高的效率,能够在1秒内处理近3万字的文本。
在各类核心能力测试中,abab 6.5展现出了接近世界领先大语言模型GPT-4、Claude-3、Gemini-1.5的水平。在业界标准的开源测试集的测试中,将abab 6.5在知识、推理、数学、编程、指令遵从等多个维度上与行业领先模型进行了比较,并在200k token的“大海捞针”的891次测试中,均准确回答。
MiniMax计划将abab 6.5和abab 6.5s滚动更新到旗下产品,包括生产力产品海螺AI和MiniMax开放平台。(王晓捷)