字节豆包大模型团队开源COMET技术,通过优化混合专家模型(MoE)的通信效率,显著减少训练成本,累计节省数百万GPU小时,获MLSys 2025高分认可
联系编辑
微信二维码
微信公众账号
微信扫一扫加关注