国产GPU厂商景嘉微宣布推出预置 DeepSeek-R1 模型的全国产加固 AI 服务器,号称“算力自主、开箱即用”。
景嘉微官方公告称,该服务器基于 100% 国产化的模组和元器件自主设计,预置国产 DeepSeek-R1 开源大模型,实现从芯片级硬件到系统级软件的端到端自主可控。
其中,服务器内置 Deepseek-R1 1.5B ~ 70B 蒸馏模型,支持零配置启动大模型的交互演示。开发者可快速调用预置模型接口。
服务器单机最高可搭载 2000 TOPS 算力与 256GB 高速显存,单机即可驱动最高 DeepSeek-R1 70B 蒸馏模型推理,可同时部署多个不同参数的 DeepSeek-R1 蒸馏模型,最高支持 200 + 用户高并发访问,满足千人团队使用场景。通过 RoCE 无损网络构建弹性算力集群,预留千亿级参数模型部署能力(兼容 DeepSeek-R1 671B 全参数版本)。
服务器通过加固设计,内置冗余供电,具备抗强震动、电磁屏蔽、三防(防潮 / 防尘 / 防腐蚀)等特性,确保特种行业复杂工况下的持续稳定运行。
景嘉微加固AI服务器具体参数如下:
CPU:64~128 核 CPU
最高频率:2.6GHz
算力:50~2000 TOPS
内存容量:256GB
显存容量:32~512GB
存储容量:100TB
结构尺寸:标准 19 英寸服务器,7U 高度,深度 400mm
模型支持:单机支持 DeepSeek-R1 1.5B ~ 70B 蒸馏模型,最多支持 200 + 用户并发。
操作系统:麒麟 / openEuler 操作系统
集群支持:支持
此前,景嘉微宣布旗下JM系列、景宏系列与DeepSeek R1系列成功适配。
其中,景嘉微JM系列完成了DeepSeek-R1-Distill-Qwen-1.5B模型和DeepSeek-R1-Distill-Qwen-7B模型的适配;景宏系列已全面兼容并适配DeepSeek R1全系列模型,覆盖从1.5B至70B参数规模的LLaMA及千问模型架构。基于vLLM推理框架的部署方案,实现了高效推理性能与经济性的双重优势,为开发者提供了便捷的开发支持。该方案支持快速启动和使用,无需复杂配置,助力AI技术的规模化落地应用。
据悉,景嘉微JM11系列图形处理芯片目前已完成流片、封装阶段工作及初步测试工作。根据当前披露的技术指标,内核时钟频率1.5GHz,像素填充率最大192 GPixel/s,运算能力最大可支持FP32:6TFLOPS、FP16:12 TFLOPS。JM11系列支持硬件虚拟化、透传虚拟化技术,面向虚拟化使用场景可提供丰富的功能和良好的性能,同时进一步增强物理机使用场景下的渲染和计算能力。
根据测试结果,JM11系列图形处理芯片满足云桌面、云游戏、云渲染、云计算等云端应用场景及地理信息系统、多媒体处理、CAD辅助设计等高性能渲染应用场景,支持Windows、Linux及国产主流操作系统,可广泛应用于服务器、图形工作站、台式机、笔记本等设备。
2024年3月,景嘉微刚刚宣布其面向AI训练、AI推理、科学计算等应用领域的景宏系列高性能智算模块及整机产品研发成功,并将尽快面向市场推广。
据公告显示,景宏系列是面向 AI 训练、AI 推理、科学计算等应用领域的高性能智算模块及整机产品,支持 INT8、FP16、FP32、FP64 等混合精度运算,支持全新的多卡互联技术进行算力扩展,适配国内外主流 CPU、操作系统及服务器厂商,能够支持当前主流的计算生态、深度学习框架和算法模型库,号称大幅缩短用户适配验证周期。
景嘉微于2016年3月31日在深圳证券交易所创业板上市,上市前未进行外部融资。根据2024 年业绩预告,2024 年景嘉微归母净利润亏损1.3-1.95 亿元,2023 年同期为盈利5968.11 万元;扣非归母净利润亏损1.7-2.35亿元,2023 年同期为盈利2300.75 万元。
虽然面临困境,景嘉微表示,仍将持续加大研发投入,着力于产品技术创新和应用领域拓展,并积极推进产品化战略,其芯片领域的产品销售同比增长明显。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。