美团万亿级大模型 LongCat-2.0-Preview 开放测试,全程基于国产算力集群训练。
ITHome
IT之家
IT之家 4 月 24 日消息,据《科创板日报》今日报道,美团新一代基础大模型 LongCat-2.0-Preview 已经开放邀请测试,该模型总参数规模突破万亿,量级跻身全球顶尖大模型行列。 这款尚未公布正式命名的大模型参数量级达到万亿级别,采用了混合专家(MoE)的先进架构,整体能力被业内人士认为对标 GPT-4。此外,有知情人士称该模型完全基于国产化算力集群训练,这表明美团可能已经率先在使用国产算力训练万亿模型上取得突破。 早在 2024 年财报业绩会上,美团创始人王兴就曾首次公开披露美团的 GPU 储备战略,不仅在当年持续投入数十亿美元保障充足的算力供应,还明确表示未来将进一步加大投资力度,为大模型的研发筑牢基础。 去年 9 月,美团已发布并开源了首款自研大语言模型 LongCat-Flash,该模型同样基于 MoE 架构,拥有 5600 亿总参数,凭借打破常规的“零计算专家机制”等创新优化设计,在保持了极高推理效率的同时显著降低了运营成本,详情可见IT之家此前报道。 相关阅读: 《美团发布 LongCat-AudioDiT 音频生成模型:说话人相似度指标提升至 0.818,
