欢迎访问江南电竞app

华为盘古大模型回应抄袭质疑:坚守开源合规与自主创新

2025-07-07 来源:深圳电子商会
537

关键词: 盘古模型 盘古抄袭质疑 华为官方声明 通义千问

近日,华为盘古大模型深陷舆论风波,面临是否抄袭的严峻质疑。7 月 5 日,华为盘古 Pro MoE 技术开发团队发布官方声明,对相关争议做出正式回应。


6 月 30 日,华为开源了盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型,同时开放基于昇腾 AI 平台的模型推理技术。然而仅隔四天,7 月 4 日,一份发布在 GitHub 上的技术分析报告将华为盘古大模型推上了风口浪尖。该报告由一位自称为哥斯达黎加大学的韩国学生发布,他采用 “LLM - Fingerprint” 技术,对华为盘古 Pro MoE 模型与阿里巴巴通义千问 Qwen - 2.5 14B 模型进行深度比对。结果显示,两者在 “指纹” 上的相似度达到 0.927,远超不同独立训练模型间的正常差异范围。并且,研究者在盘古开源的代码文件中发现了明确指向阿里巴巴的版权声明 “Copyright 2024 The Qwen team, Alibaba Group”,这一发现似乎坐实了两者之间存在代码继承关系。

 

面对质疑,华为盘古团队迅速回应。声明首先强调,盘古 Pro MoE 开源模型是基于华为自家的昇腾(Ascend)硬件平台开发、训练的基础大模型,并非基于其他厂商模型进行增量训练的产物。团队创新性地提出了分组混合专家模型(MoGE)架构,这是全球首个面向昇腾硬件平台设计的同规格混合专家模型。该架构有效解决了大规模分布式训练过程中的负载均衡难题,显著提升了整体训练效率。


同时,华为方面也承认,盘古 Pro MoE 开源模型的部分基础组件代码实现,确实参考了业界的开源实践,涉及其他开源大模型的部分开源代码。但团队严格遵循了开源许可证的要求,在相关的开源代码文件中清晰标注了版权声明。华为认为,这是开源社区的通行做法,符合开源协作的精神。


然而,7 月 6 日凌晨,一位自称是盘古大模型团队的员工自曝,称存在套壳、续训、洗水印等现象。该员工表示团队初期算力有限,存在使用 Qwen 1.5 110B 续训等情况,并采取了一些手段来 “洗掉” 千问的水印。截至目前,华为尚未对此自曝内容发表声明。



此次华为盘古大模型的争议,反映出人工智能大模型时代开源概念面临的挑战。在大模型发展中,使用开源模型架构、参考代码与直接使用他人模型权重之间的界限模糊,而训练大模型成本高昂,使得类似争议屡见不鲜。但无论如何,技术创新和知识产权保护都是行业发展的关键,期待华为后续能进一步回应相关问题,也希望行业能在争议中不断完善规范,推动人工智能技术健康发展




app江南
Baidu
map