甘井子区举办“赋能争先 聚力攻坚”知行学堂第二期培训
续航灭霸来了!7300mAh大电池+90W快充,月底发!
烟台南站自10月28日起停止办理客运业务
头盔 “戴” 安全 执法护出行 胶州交警开展电动车不戴头盔专项整治
罗俊院士合肥开讲“宇宙的涟漪”
11月17日超级大乐透开出3注一等奖,出自这些地方
税务部门曝光6起涉税案件
10万元级就带激光雷达 2025广州车展上能看到的高性价比辅助驾驶车型盘点
IT之家 7 月 5 日消息,华为诺亚方舟实验室在官方平台今日发布最新声明,表示盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
盘古团队表示,“盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”
IT之家附原文如下:
我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。
盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。
盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。
感谢全球开发者与合作伙伴对盘古大模型的关注和支持,我们高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。
我们欢迎并期待大家在开源社区 Ascend Tribe,就技术细节进行深入、专业的交流
盘古 Pro MoE 技术开发团队

持续优化营商环境 抖音电商前三季度为商家节省成本220亿元
华为携手12家伙伴,发布“3+18”AI产品方案
“人工智能+”能源落地提速,能源企业抢占新赛道
潮玩二手平台千岛App售后难,消费者称千岛维权单次排队要1小时
鼓励AI创新!百度累计发4亿元奖励技术团队
网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 见闻文章网 琼ICP备2023007320号-23