华为大模型抄袭阿里事件反转,真相扑朔迷离
让子弹飞一会儿。
出品 | 科技头版 作者 | 宋辉
华为又被黑?
华为盘古大模型抄袭阿里通义千问事件,迎来反转反转再反转,可谓一波未平一波又起。
近日,继大模型“抄袭”传言甚嚣尘上后,华为官方“诺亚方舟实验室”迅速出面否认,其表示:模型为昇腾平台自主研发,部分代码引用已合规标注,并且符合开源协议。
其中,诺亚方舟实验室核心强调了两点:第一,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练(即续训)而来,并且其在架构设计(如创新性的MoGE架构)和技术特性上有关键创新;
第二,部分基础组件代码确实参考了业界开源实践,涉及其他开源大模型的部分开源代码。但严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。
图源:诺亚方舟实验室
不过,继华为官方发布澄清声明不到1天,一份来自“盘古大模型团队员工”的6000字爆料长文,又一次将这个科技巨头推入舆论的漩涡。
事情逐渐变得扑朔迷离。
爆料中表示:由于团队初期算力非常有限,虽做出了很多努力和挣扎,但没有预期效果,内部的质疑声和压力也越来越大,后来小模型实验室多次套壳竞品,换来了现有的成果。
图源:Github
此前,围绕着盘古大模型,舆论已经发酵数天,下面让我们按照时间顺序,来简单捋一下全经过。
6月30日,华为一改此前“绝不开源”的态度,正式宣布开源盘古70亿参数的稠密模型以及盘古Pro MoE 720亿参数的混合专家模型,还一并开源了基于昇腾的模型推理技术。
随后,7月初,有自称是哥斯达黎加大学的韩国学生的GitHub用户,发布报告指出:盘古Pro MoE模型与阿里通义千问Qwen-2.5 14B模型的注意力参数指纹相似度高达0.927(接近完全一致的1.0),远超行业0.7以下的正常差异阈值,且在开源代码中发现了阿里的版权声明。
对比研究报告 图源:Github
截至发稿,本篇文章已删稿,由此,事件更蒙上了一层未知的色彩。
面对外界质疑,华为诺亚方舟实验室也迅速站出来否认。
然而,不到24小时后,一篇自称来自华为诺亚方舟实验室内部员工的名为《盘古之殇》的长文,瞬间引爆全网,将事件推上了新的高潮。
长文中,其主要爆料了几个核心要点:
第一,华为内部“小模型实验室”为应对研发压力,套壳竞品模型——如将阿里千问110B模型通过加层、扩参伪装为自研的135B V2模型,甚至保留原始代码类名“Qwen”。
第二,资源分配问题,据爆料,套壳团队可绕过繁重流程获取算力,而坚持全自研的团队却因交付延迟被边缘化,最终坚持不住,选择前往流向DeepSeek、月之暗面等竞争对手团队。
最后,其也对盘古大模型的未来给出了肺腑之言:其实时至今日,我还是真心希望华为能认真吸取教训,能做好盘古,把盘古做到世界一流,把昇腾变成英伟达的水平。
截至目前,华为并未对此自曝内容发表回应。
不过,内容方面,人人自媒体的时代,无法轻易断言真实与否。因此,我们也别急着下结论,让子弹再飞一会。
值得注意的是,此次盘古大模型突然决定开源,对于华为自身来说,也是一次“反转”。
2023年,华为云开发者大会上,华为常务董事、华为云CEO张平安正式发布了盘古3.0大模型时,当时,张平安明确表示:华为盘古大模型走的是全栈自研路线,并且,盘古大模型不会开源。
图源:微博
时至今日,华为改变主意宣布开源,不排除有内部外部多方层面的考量。
不论如何,华为仍是一家专注于长期战略投入、深耕于技术研发的企业,这一点无可争议。
盘古大模型表现
争议之余,我们来看看盘古大模型的展示出来的部分亮点。
6月30日,华为一系列大模型同时开源,其中包括:70亿个参数的稠密模型“盘古Embedded 7B”、720亿个参数的混合专家模型“盘古Pro MoE”、以及基于昇腾的模型推理技术。
根据官方数据,盘古Pro MoE在昇腾800I A2上单卡推理吞吐性能可达单卡1148 tokens/s,并可进一步通过投机加速等技术提升至1528 tokens/s,显著优于同等规模的320亿和720亿个参数的稠密模型。
与此同时,华为研究表明,盘古Pro MoE在英语、中文及推理领域的多项能力测试中全面超越Gemma3-27B、Llama4-scout。在MMLU、C-Eval、GSM8K等多种基准测试中,盘古Pro MoE性能超越GLM-Z1-32B、Qwen3-32B等主流开源模型,展现了在多语言理解、推理等方面的领先能力。
图源:微博
值得一提的是,在气象预测方面,华为云盘古气象大模型是首个精度超过传统数值预报方法的AI模型,速度相比传统数值预报提速10000倍以上,只需要1.4秒就能完成24小时全球气象预报。
从华为公布的数据看来,盘古大模型确实是AI领域一个强大的竞争者。
大厂押注AI,一个比一个拼
经过一轮淘汰洗牌,2025年的中国AI大模型领域,俨然已经从2023年的“百模大战”演进为一批互联网大厂、垂直领域新锐在场景落地之间的角逐。
其中,不得不提的有本次事件涉及的另一位主人公——阿里通义千问。
作为“国内最早开源的大模型”,通义千问系列涵盖从0.5B到110B参数规模,开源生态覆盖全球1250万开发者,其企业级API日均调用超500万次,开源模型下载量累计超700万次,衍生模型稳稳占据Hugging Face中文榜单前十。
并且,通义千问仍在持续迭代,先是在5月9日升级了通义千问2.5版本,不久前又发布了Qwen VLo,在原始多模态理解与生成能力上进行了全面升级,显著增强了对图像内容的理解深度,在电商领域,还能自动生成商品详情页和营销文案,实用性拉满。
图源:微博
此外,还有走“极致性价比”路线的字节跳动豆包大模型。
最新发布的豆包大模型1.6,价格再一次降低,最低为2.6元/百万tokens,相较于豆包大模型1.5与DeepSeek-R1的7元/百万tokens的价格,大幅下降63%。
图源:微博
降价策略随之带来的,便是是使用量的激增。截至2025年5月底,豆包大模型日均tokens使用量超16.4万亿,相较于2024年5月刚发布时增长了137倍。
与此同时,豆包大模型的行业落地更是全面开花。IDC报告显示,豆包大模型以46.4%份额稳居中国公有云大模型市场第一。全球Top 10手机厂商有9家与火山引擎深度合作,八成主流车企接入豆包大模型。
“百家争鸣”下,是一场生存空间的淘汰赛,其中角逐的每一方压力都不小。那么,在此过程中,如何定义AI大模型开源规则的边界,以及企业如何守住技术的底线,或许是一个目前需要直面的课题。
作者:宋辉 来源:科技头版
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com