据IT之家新闻《科技版日报》11月9日至11月8日报道,在2025年世界互联网大会乌镇峰会前沿人工智能模型论坛上,蚂蚁集团平台技术事业群总裁罗辑表示,在算力方面,蚂蚁部署了万级规模的国家算力集群,适配了自研和开源的各类常规模型,保证了训练任务的稳定性。超过98%,训练和推理性能与国际计算团体相当,很好地应用于安全风险管理领域的大规模模型训练和推理服务。 IT之家宣布,今年 3 月,蚂蚁集团 Ling 团队在 Arxiv 平台预印本上发表了技术工作论文《Every FLOP Matters:在没有高级 GPU 的情况下扩展 30000 亿参数的大型模型 LING 混合专家》,并发表了两篇论文。不同大小的大规模 MoE(混合专家)语言模型,Ling-Lite 和 Ling-Plus。宣布发布并强调了一系列创新方法,可在低性能硬件上高效训练大型模型,从而显着节省成本。这是要花钱的。实验表明,3000亿参数的大规模MoE模型可以在使用国产GPU的低性能设备上高效训练,其性能与类似尺寸的密集模型和使用全NVIDIA芯片的MoE模型相当。目前,MoE模型训练通常依赖于NVIDIA H100/H800等高性能GPU,但它们价格昂贵且稀缺,限制了其在资源受限环境中的应用。蚂蚁集团的ng提出了“不使用高级GPU”扩展模型的目标,通过创新的训练策略克服资源和预算限制。特定策略包括架构创新和培训策略 u使用动态参数分配和混合精度编程技术。升级训练异常处理机制,通过自适应、容错恢复系统减少对中断的响应时间。通过自动化评估框架简化模型评估流程并将验证周期缩短 50% 以上。创新的工具调用能力和基于知识图的指令调优可帮助您更精确地执行复杂任务。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。
深入探索每日最新猎奇故事与娱乐八卦,带你领略不一样的世界!