2024 世界半导体大会暨南京国际半导体博览会的一场分论坛上,江苏鳀鹏 · 昇腾生态创新中心首席运营官王陶透露,昇腾集群是中国唯一已完成训练千亿参数大模型的技术路线,性能已经超过了英伟达的A100。
王陶表示,中国大模型里面,有近 50%选择了昇腾技术路线。与英伟达的A100 相比,昇腾 AI 芯片在训练效率层面最高是英伟达的 1.1 倍。尤其在训练 Meta Llama、BloomGPT 等模型方面,昇腾 AI 算力训练效率大大优于A100。
昇腾和鲯鹏分别是华为面向通用运算和智慧运算的两款算力产品,是华为 AI 运算生态里面的关键技术系列。
公开信息显示,江苏鳀鹏 · 昇腾生态创新中心成立于 2019 年 8 月,是南京江北新区与华为联合宣布发展鲲鹏计算产业后成立的创新机构。王陶称,创新中心的使命是基于华为的鲯鹏、昇腾技术,联合生态伙伴赋能千行百业进行数字转型。
最新年报显示,2023 年,华为公司共实现营收 7042 亿元人民币,年增 9.6%;净利 870 亿元,年增 144%。同时,华为重视研究与创新,2023 年研发投入达1647亿元,占全年收入的 23.4%,十年累计投入的研发费用超过 1.11 兆元。
王陶指出,基于华为自研的AI算力,从底层的Atlas硬件到算子库,再到上层的开发工具链,昇腾在大模型推理、训练两个方面均提供一整套解决方案,包括开发套件、基础加速库等。而在开发速度上,基于昇腾方案,客户大幅缩短开发周期,在典型场景下推理效能提高1.5-3倍,实现更强的业务协同。
算力层面,目前,华为在中国 20 多个城市建设昇腾人工智能运算中心,超过 2500PFlops(每秒运算能力为 2500 千万亿次)普惠 Al 算力。
而目前,包括腾讯、百度在内的中国科技巨头,以及科大讯飞等领先的新创公司都购买了昇腾910B。
华为公司昇腾运算业务总裁张迪煊上个月透露,昇腾生态系统拥有 40 个硬件合作伙伴、超过 1600 个软件合作伙伴和超过 2900 个AI应用解决方案。
王陶则透露,华为鲯鹏在中国有5100+合作伙伴,15800+解决方案,拥有开发者超过310 万。
A100显卡算力是什么水平?
英伟达A100显卡作为专业级的设备,它的性能肯定是非常强的,比我们所熟知的游戏显卡要高非常多,那么这款英伟达A100显卡算力是什么水平?
英伟达A100的算力为19.5 TFLOPS (浮点运算每秒19.5万亿次)。V100用300W功率提供了7.8TFLOPS的推断算力,有210亿个晶体管,但A100的算力是前者的20倍。
A100是英伟达推出的一款强大的数据中心GPU,采用全新的Ampere架构。它拥有高达6,912个CUDA核心和40GB的高速HBM2显存。可以实现高达19.5 TFLOPS的FP32浮点性能和156TFLOPS的深度学习性能。
A100显卡采用了7nm制程工艺+ Ampere 架构,A100拥有540亿个晶体管,超过6912个CUDA核心,是目前全球最大的显卡处理器。A100在性能方面双向带宽提升至50GB/s,传输速度达到了600GB/s。
A100显卡的特点:
1、A100显卡基于Ampere架构,采用7nm制程工艺,芯片面积有826平方毫米,拥有542亿颗晶体管,功耗达到了400W。
2、它在其中集成了NVIDIA A100 80GB PCIe GPU等各种专业的软件和技术。
3、A100是专为AI场景技术准备的服务器平台,能够在大数据、ai自动驾驶等领域起到作用。
科大讯飞:华为GPU可对标英伟达A100
在2023 亚布力中国企业家论坛第十九届夏季高峰会期间,科大讯飞创始人、董事长刘庆峰出席论坛,谈到了有关自家大模型进展的一些内容。
刘庆峰表示,“中国 AI 领域的算法没有问题,但算力似乎始终被英伟达按住。”
以前的“百模大战”,基本都是英伟达训练出来的,在企业内部只能做出微小的调优、训练,从而训练模型“还是比较难的”。
我特别高兴告诉大家,华为的 GPU 能力现在已经跟英伟达 A100 一样了。
任正非高度重视,还有华为的三个董事到科大讯飞专班工作,现在已经做到对标英伟达的 A100。
此外,刘庆峰表示,科大讯飞定了一个目标,到2023年 10 月 24 日,科大讯飞将发布通用大模型,全面对标 ChatGPT ,且要实现中文全面超越,英文跟它相当。
“坦白讲,今天我们跟它还有差距,但是我们很清楚,10 月份就能赶上,2024上半年就对标 GPT-4。”
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。