各位搞AI的老铁们,今儿咱来唠一个最近圈子里炸锅的话题——华为最新款AI芯片910C是华强代理这事儿到底靠不靠谱。说实话,这段时间我微信都快被问爆了,“哥,910C能不能买到?”“华强那边真有货吗?”咱今天就一次性把这事儿掰扯明白,给大伙儿喂点实实在在的干货。
昇腾910C到底啥来头?别光听名字,咱看看真本事

先别急着问代理的事,咱得先搞清楚这个910C到底是个什么段位的芯片。华为在2025年全联接大会上正式公布了昇腾AI芯片路线图,910C就是今年一季度推出的旗舰产品-1。咱就是说,这玩意儿是真有两把刷子的——
性能参数方面:昇腾910C基于SIMD架构,FP16精度下算力高达800TFLOPS,支持FP32、HF32、FP16、BF16、INT8等主流数据格式,互联带宽784GB/s,HBM容量128GB,内存带宽达到3.2TB/s-1。通俗点说,就是一秒钟能搞完800万亿次半精度浮点运算,这个数字放在全球AI芯片里都属于第一梯队。
![]()
制造工艺方面:910C采用的是中芯国际第二代7nm级(N+2)工艺,晶体管数量达到530亿个,搭载华为自研的达芬奇架构-14。要知道,在美帝制裁的大背景下,华为硬是顶着压力把这条路走通了,说实话挺不容易的。
实际表现方面:根据DeepSeek研究人员的实测数据,昇腾910C在AI推理任务中能达到英伟达H100约60%的性能-20。有行业大咖甚至放话,通过手写CUNN内核优化,910C的性能还能进一步拉高,在大多数负载下只比H100慢8%到12%-。
价格和产能方面:据供应链调研数据显示,910C单片价格在14到14.5万元左右,2025年全年出货目标20到30万片,2026年计划把产量提到约60万片,差不多翻一倍--。虽然良率目前还在爬坡阶段(大约35%-36%),但华为和中芯国际都在拼命优化,目标是年底干到40%以上-。
那么问题来了:华为最新款AI芯片910C是华强代理吗?
说到这儿,估计有不少朋友已经打开引擎在查了。我先把结论撂这儿——这事儿有点意思,但千万听我说完,别被带偏了。
先说官方表态:深圳华强(000062)在投资者互动平台上明确回答过:“公司未代销昇腾910系列AI芯片。”-这话是2024年6月份说的,白纸黑字,没啥可杠的。
但是,深圳华强也确确实实是华为海思的主要授权代理商之一,代理分销华为海思的各类IC产品-28。而且华强还拿到了昇腾APN“金牌部件伙伴”的认证,已经开始搞昇腾边缘AI推理计算盒这些应用方案的研发了-。
还有一点:真正代理昇腾910C的全国总代理其实是亚康股份,级别是钻石级,代理产品包括昇腾910B/910C、鲲鹏920等芯片及服务器整机,客户涵盖阿里、字节跳动这些头部大厂-23。
所以圈子里为啥老有人说“华为最新款AI芯片910C是华强代理”?我觉得原因大概是这样的:第一,深圳华强作为华为海思全系列产品的总代理,在外界认知里确实跟华为芯片绑得很紧;第二,华强在电子元器件分销圈子的地位太高了,很多人习惯性把“华强”和“华为芯片”划等号;第三,深圳华强电子世界就在华强北,而华强北又是全国电子产品的集散地,各种信息传着传着就容易走样。
说白了,华为最新款AI芯片910C是华强代理这个说法对了一半——深圳华强确实代理华为海思的很多产品,但910C这个具体型号的官方代理权在亚康股份手里,华强更多的是做应用方案的研发和推广。
昇腾910C到底能干啥?咱从实际应用场景聊聊
有老铁可能要问了:“就算搞清楚了代理的事,这芯片到底能帮我干啥?”别急,咱来盘一盘。
第一,大规模AI训练和推理。910C面向云端AI集群,像华为的Atlas 900 PoD、CloudMatrix 384超节点,都是用910C搭起来的-45。CloudMatrix 384把384颗910C NPU和192颗鲲鹏CPU整合成一个超大计算单元,单卡推理吞吐能到2300 tokens/秒,已经在300多套集群上部署了,服务了20多个客户-1-。
第二,国家级算力基础设施建设。就在2026年2月,中国移动广东公司以1.55亿元中标了深圳光明大装置的算力项目,全套设备用的就是华为昇腾910C,而且是明确写了“拒绝进口”的国产化项目-14。整套系统总算力达到每秒1600亿亿次16位浮点运算,将为大湾区科创领域注入算力动能-14。
第三,边缘AI和端侧应用。华为云昇腾910C的专有云算力服务报价已经出来了,8500元/实例/月-。而且深圳华强已经在开发基于910C的边缘AI推理计算盒,瞄准工业检测、智能色选、自主移动机器人、低空飞行器这些场景-。
那咱普通用户到底怎么才能搞到910C?
我知道很多朋友最关心的是这个。咱也不藏着掖着,把渠道说清楚:
如果你是中小企业或开发者,最靠谱的途径是通过华为云的云服务来用算力,没必要自己买卡。8500块一个月就能用上一张910C的算力实例,比自己折腾省心多了。
如果你是真要采购硬件,那要找正规渠道。昇腾910C的官方授权代理商包括亚康股份(全国总代理,钻石级),深圳华强虽然不直接卖910C的卡,但人家是做应用方案的“金牌部件伙伴”-23-。千万别信那些华强北柜台里号称“有渠道能搞到910C现货”的贩子——这种高端的AI芯片基本都是定向供应,不可能在柜台里随便摆着卖。
如果你只是想了解行情,多关注华为官网和昇腾社区的公告,别被网上那些“内部渠道”“有货”“价格美丽”的忽悠给骗了。这种级别的芯片,没有正规代理授权,谁跟你说能搞到基本都是假的。
写在最后
说到底,昇腾910C的出现,不只是华为自己争气,更是咱们国产AI算力生态的一个里程碑。在美国制裁的大环境下,华为硬是靠架构创新和系统优化把这条路走出来了,从2019年第一代昇腾910到现在,已经迭代了好几代产品-1。
当然,910C跟英伟达H100比,确实还有差距,良率也在爬坡阶段,软件生态CANN还需要时间打磨-20。但别忘了,华为的计划可不止910C——2026年Q1推950PR,2026年Q4推950DT,2027年Q4推960,2028年Q4推970-1。一步一个脚印,这才是真正的长期主义。
最后送大家一句大实话:别总想着走捷径找“特殊渠道”,正规代理、官方渠道才是最靠谱的。AI算力这事,稳扎稳打比什么都强。
网友提问环节
【网友“深圳码农小张”提问】:老哥,我是个搞大模型创业的小老板,手里预算有限,想用昇腾910C来做推理服务。请问除了买实体卡之外,有没有更便宜的云服务或者租赁方式?另外,从英伟达CUDA迁移到华为昇腾平台的开发成本高不高?
答:兄弟问得很实在,这也是很多AI创业者的真实痛点。关于第一点,云服务是绝佳选择。华为云目前已经推出了昇腾910C专有云算力服务,报价是8500元/实例/月-。一个“实例”对应一张910C卡,你自己算算,买一张卡要14万多,还得配服务器、机柜、电费、运维,前期投入起码大几十万。而云服务8500块一个月,随开随用,想扩容就加几个实例,对创业公司来说简直是福音。
关于迁移成本,这事儿我得多说两句,因为有挺多好消息。DeepSeek团队已经做了大量工作,他们开发的PyTorch仓库支持从CUDA到CANN(华为昇腾的计算架构)的无缝转换,据说只需一行代码就能完成系统迁移-20。CANN是华为昇腾的异构计算架构,对上支持多种AI框架,对下服务AI处理器,是提升计算效率的关键平台-20。
有专家预测,随着AI模型向Transformer架构靠拢,CUDA和PyTorch编译器的重要性会逐渐降低,DeepSeek团队在软硬件优化方面的专长能大幅降低对CUDA的依赖-20。事实上,DeepSeek训练H800时用的就是底层的PTX语言而非CUDA,说明绕开CUDA这事儿已经有路子了-20。
所以结论是:如果你是初创团队或者中小企业,强烈建议先上华为云试试水。8500一个月,试错成本很低。如果真的决定迁移,现有的工具链已经能让迁移成本大幅降低,DeepSeek团队的实测证明了这一点。别被CUDA生态的“护城河”吓倒,这道河没那么宽,已经有人搭好桥了。
【网友“北冥有鱼”提问】:我看网上说昇腾910C的良率才30%多,产能跟不跟得上?会不会出现有钱也买不到货的情况?另外,下一代昇腾950什么时候出来,性能能追平英伟达吗?
答:你这问题问得很专业,说明是真关注这个领域的人。先说良率和产能的事儿——确实,目前910C的良率大约在35%-36%,中芯国际7nm(N+2)工艺还在爬坡阶段-。摩根士丹利的报告也提到,2025年年底良品率预期约30%-。但别急,有几个积极信号:
第一,华为和SMIC正在全力优化良率,目标是2025年底提高到40%以上-。第二,产量正在大幅爬升,2025年全年910C出货目标20-30万片,2026年计划提升到约60万片,整整翻一倍--。第三,华为还在同时搞910B和910C两条线,2025年裸晶总投放量100万片,2026年提升到160万片-。
至于“有钱买不到货”这个问题,目前910C确实供应偏紧,主要面向大型云厂商和国家级项目,比如字节、中国电信这些大客户-。中小企业想直接买卡难度不小,这也是我刚才推荐用云服务的核心原因之一——通过云服务绕开了硬件采购的瓶颈。
再说说下一代昇腾950。根据华为公布的路线图,昇腾950PR预计2026年第一季度推出,微架构将从SIMD升级到SIMD/SIMT混合架构,算力达到1PFLOPS(FP8)/2PFLOPS(FP4),互联带宽提升到2TB/s,HBM容量144GB、带宽4TB/s-1。而且从950PR开始,华为将采用自研的HBM内存——昇腾950搭载HiBL 1.0,950DT升级到HiZQ 2.0-1。
能不能追平英伟达?徐直军自己在大会上说了大实话:受制裁影响,单颗芯片的算力跟英伟达确实有差距-1。但华为的杀手锏在“超节点”——通过强大的互联技术把几千颗芯片连起来做集群,CloudMatrix 384就是个例子,384颗910C组成的系统性能已经非常强悍。单挑打不过,咱们就打团战,这不丢人。
【网友“芯片行业的搬砖人”提问】:请教一下,昇腾910C的整体国产化率到底有多高?软件生态CANN相比CUDA差距大吗?国内AI公司如果全面转向华为平台,会不会面临很大的技术风险?
答:这位兄弟问到了根子上。先说国产化率——据公开信息,昇腾910C的整体国产化率已经达到约55%-。核心芯片由中芯国际7nm(N+2)工艺代工,封装采用国产Cowos-L工艺和ABF载板,自研达芬奇架构-14-。55%这个数字放在高端AI芯片里已经相当惊人了,毕竟美帝制裁之下,很多关键设备和技术都受限,华为能走到这一步确实不容易。当然,一些上游设备和材料可能还有进口依赖,但方向已经很明确——持续提高国产化率。
关于CANN和CUDA的差距,这个问题值得细聊。CUDA发展了二十多年,软硬件生态深度整合,确实是座“护城河”-20。但CANN也不是吃素的,它是昇腾的异构计算架构,对上支持PyTorch、TensorFlow等主流框架,对下直接跟昇腾处理器交互,而且华为一直在快速迭代。CANN社区版已经来到8.0.0.alpha003版本,商用版8.0.RC3也已经发布,新增适配了7个操作系统-20。
最关键的突破来自DeepSeek团队。他们不仅验证了910C的推理性能,更重要的是证明了绕过CUDA的可行性。DeepSeek训练H800时直接用PTX底层语言而非CUDA,这意味着一套代码能在不同硬件上跑,降低了对CUDA的硬性依赖-20。而且DeepSeek的PyTorch仓库已经支持CUDA到CUNN的一键转换,大大降低了迁移门槛-20。
至于技术风险,我的判断是:对于大模型推理场景,迁移风险相对可控。DeepSeek已经用910C跑通了推理任务,证明了可行性。但对于复杂的训练场景,尤其是需要长期稳定运行的大规模训练,确实还存在一些不确定性。英伟达生态的稳定性、工具链的完备性还是有一定优势。不过随着CANN不断迭代、更多开发者加入昇腾生态,这个差距正在加速缩小。
如果你是AI公司的技术负责人,我的建议是:推理场景可以先试水,用云服务跑一跑,效果不错再考虑更深度的迁移。训练场景建议保持双平台策略,核心业务暂时保留英伟达,但开始在昇腾上做预研和技术储备。毕竟国产替代是大趋势,早做准备比临时抱佛脚强得多。华为的路线图已经排到2028年了,昇腾生态的未来是值得押注的。