摘要
帮你速读文章内容
AI算力是驱动AI发展的关键,涉及计算速度、效率、能耗比和优化能力。产业链包括AI芯片、服务器、光模块等硬件设施,以及数据中心、云运算平台等网络平台,应用广泛。多家上市公司在AI算力领域占据重要地位,提供全栈解决方案,推动AI技术的发展和应用。
摘要由作者通过智能技术生成
有用

AI算力是指执行人工智能算法和模型所需的计算资源,它是驱动AI发展的关键因素之一。AI算力涉及的不仅仅是计算速度,还包括计算效率、能耗比、以及针对特定AI任务的优化能力。

AI算力产业链梳理

上游:算力基础硬件设施

AI芯片:这是AI算力的核心,包括GPU、FPGA、ASIC等类型,专为机器学习和深度学习优化设计。国内主要厂商有龙芯中科、海光信息、寒武纪、景嘉微、云天励飞等,它们为AI计算提供了强大的硬件基础。

服务器:承载AI算法运行的硬件平台,如浪潮、新华三、宁畅等企业在AI服务器领域占据主导地位。

光模块:用于数据中心内部及数据中心间高速数据传输,主要企业包括中际旭创、天孚通信、太辰光、剑桥科技等。

交换机及其他网络设备:负责数据的高效传输,也是算力网络中不可或缺的部分。

中游:算力网络平台

数据中心:集中放置服务器并提供算力服务,是云计算和AI应用的物理基础。

云运算平台:如阿里云、腾讯云、华为云等,提供云端的AI算力服务,使得用户无需自建基础设施即可使用AI能力。

下游:应用与服务

用户:包括企业用户和个人用户,他们利用AI算力进行数据分析、模型训练、智能应用开发等。

应用场景:AI算力广泛应用于自动驾驶、医疗影像分析、语音识别、推荐系统、智能制造等多个领域。

详解6大AI算力上市公司

浪潮信息:中国最大的服务器制造商和服务器解决方案提供商

浪潮信息在全球AI服务器市场份额中持续保持领先地位,其专为人工智能设计的服务器,如AGX系列,为深度学习、机器学习等AI应用提供强大的计算平台。这些服务器广泛应用于互联网巨头、科研机构及企业数据中心,支持复杂的模型训练和推理任务。

公司还提供包括AI管理平台、框架优化、模型训练等在内的全栈AI解决方案,帮助用户构建从底层基础设施到上层应用的完整AI算力生态。例如,其AIStation平台可实现AI开发流程的自动化管理和优化,加速AI模型的部署和迭代。

面对AI应用向边缘延伸的趋势,公司布局边缘计算,推出边缘服务器和AI盒子等产品,支持在靠近数据产生的地方进行实时处理和分析,减少数据传输延迟,提升算力效率。同时,公司积极探索分布式AI架构,实现算力资源的灵活调度和高效利用。

中科曙光:中国超算行业龙头,高性能计算、服务器、云计算、大数据领域的领头企业

中科曙光拥有丰富的高性能计算(HPC)经验和强大的技术积累,为AI算力提供了坚实的基础。公司自主研发的“曙光”系列超级计算机多次在全球Top500榜单中取得优异排名,这些高性能计算平台不仅服务于科学研究,也为大规模AI模型训练和高性能数据分析提供了强有力的支撑。

针对AI应用需求,公司推出了多款专门针对深度学习、机器学习的AI服务器,这些服务器集成了GPU、FPGA等加速计算单元,能够大幅提升AI算法的运行速度和效率。

公司不仅提供硬件产品,还构建了从基础设施到应用层面的全栈AI解决方案,包括AI计算平台、数据管理与分析工具、以及行业应用解决方案。并且,公司在全国多地布局智能计算中心,这些中心集成了先进计算资源,提供公共算力服务

寒武纪:全球AI芯片设计领域先行者,国际上少数全面掌握通用型智能芯片及基础系统软件核心技术的企业

寒武纪推出了面向边缘智能计算领域的AI芯片思元220(MLU220),这款芯片及其M.2加速卡产品能够实现最大32TOPS的算力,特别适用于与各类传感器相连的边缘计算场景,提升终端设备的智能处理能力。

公司推出了多款云端AI芯片,如思元370,基于7nm工艺,采用chiplet技术,集成了390亿个晶体管,最大算力可达256TOPS,适用于数据中心的AI计算需求,支持高性能的云端AI服务。公司还推出了智能加速卡,如基于思元290芯片的MLU290-M5,最大AI算力达到1024TOPS,采用开放加速模块OAM设计,满足了数据中心对高密度、高性能加速卡的需求。

公司也涉足AI训练芯片领域,推出了算力高达1024 TOPS的SoC智能芯片,采用MLU-Link多芯互联技术,支持大规模并行训练,显著提升了AI模型训练的效率。

紫光股份:中国云管理平台市场保持市场份额第一,中国SDN(软件)市场占有率市场第一

紫光股份提出了智能算力的新战略,通过“1+1+N2”总体框架提供全面的智能算力服务。该框架旨在通过一套算力体系实现对多元化算力的全局管理、调度和运营,聚合多种算力资源提供超强算力,计划在一期完成3000P的算力建设,其中公司旗下新华三中央实验室自运营算力达1500。

子公司新华三提供一系列高端AI算力基建产品,包括数字中心交换机、AI服务器、CPO等,满足市场对算力基础设施的高端需求。公司在AI算力领域与英伟达等国际知名厂商有深度合作,通过子公司的SDN/NFV技术,助力运营商网络重构,并在AI服务器中采用先进技术和组件,进一步提升产品竞争力。

公司的AI服务器市场需求旺盛,获得了来自腾讯、阿里巴巴等大客户的高额订单,如23亿A800服务器订单,显示了其在AI算力市场的强大竞争力和客户认可度。

龙芯中科:国产CPU龙头,全世界范围内极少数建立形成了完整的基础软件技术生态体系的CPU公司

龙芯中科主营业务包括处理器及配套芯片的研制、销售及服务。公司通过自主研发GPU、推出高性能CPU以及在AI算力芯片领域的持续布局,正逐步构建起完整的自主可控AI算力解决方案。

公司早在2017年就开始了针对AI算力场景的GPU技术研发工作,并取得了实质性的成果。例如,在2022年7月,公司宣布在其自研处理器配套桥片龙芯7A2000内部,首次集成了自主研发的GPU核LG200,支持图形加速、科学计算及AI计算。并持续推出全自主的算力芯片,如2023年11月发布的龙芯3A6000处理器,其总体性能与当时Intel公司的第10代酷睿四核处理器相当。

中兴通讯:全球领先的综合性通信制造商、通信解决方案提供商之一

中兴通讯积极促进数智化转型,推出了高效能的智算解决方案,通过自主创新和生态合作,支持多种CPU/GPU,实现了异构资源的统一调度和软硬解耦,为不同需求的客户提供多样化的算力选项。

公司与运营商紧密合作,如与中国移动携手,通过提供高效易用的AI平台,解决了AI模型训练的工程化问题,提高了GPU算力利用率和大模型训练效率,同时致力于构建开放的生态,推动软硬解耦、模型解耦和训推解耦,加速AI技术的普及与应用。公司还与超讯通信等公司建立了战略合作关系,共同在人工智能、智能算力及新能源领域开展合作,通过跨行业协作,进一步拓宽AI算力技术的应用范围和影响力。

公司利用AI技术提升自身服务器及存储产品的生产效率,通过智能化制造,快速响应市场需求,同时也展示了如何通过AI智算来提升生产效率,实现“以算力‘智造’算力”。强调云原生AI生态的构建,加大了在算力产品研发上的投入,认识到新一代算力基础设施,尤其是AI大模型的潜力,致力于降低算力单位成本。

以上内容仅为客观梳理,仅供参考,不构成投资建议。

举报/反馈

睿眼哲语

6.3万获赞 1.1万粉丝
“主线”二字价值千金离开主线你什么都不是
财经领域创作者
关注
0
0
收藏
分享