欢迎访问黑料吃瓜网

10年专注吃瓜

吃瓜质量有保 售后7×24小时服务

24小时咨询热线:4006666666
您的位置:首页>>网友吃瓜>>正文

网友吃瓜

四协会发声“慎重收购美国芯片”,我国云核算工业加快代替立异|钛媒体焦点

发布时间:2025-04-30 点此:342次

图片系AI生成

四协会发声“谨慎采购美国芯片”,中国云计算产业加速替代创新|钛媒体焦点的视图

面临芯片备受约束的窘境,我国云核算工业能做什么?

12月3日,我国半导体职业协会、我国互联网协会、我国汽车工业协会和我国通讯企业协会先后发布声明,呼吁国内企业慎重收购美国芯片,扩展与其他国家和地区芯片企业协作,活跃运用内外资企业在华出产制作的芯片。

就在前一日,美国商务部工业和安全局(BIS)发布了最新的对华半导体出口控制办法,将136家我国实体列入了所谓“实体清单”,触及半导体制作设备、电子设计自动化东西等多个品种的半导体产品。

2022年、2023年的10月份,BIS均发布了针对我国半导体约束的办法,本年因为美国大选影响迟迟未发,但加强版的约束办法仍是不出预料地到来。四大协会地点的范畴代表着万亿等级的商场,“美国芯片产品不再牢靠、不再安全”的表达,也传递出直接的情绪。

与以往不同,本次禁令侧重对高带宽内存(HBM)控制,显着针对人工智能范畴,HBM是大模型等高端AI使命中必需芯片,适用于海量数据的高速传输,HBM的首要制作商:包含韩国的SK海力士、三星电子以及美国的美光科技

芯片是数字根底设备的根底,除了芯片之外,从全球规划观测,云核算厂商正在扮演中坚力量的人物。大模型年代的云核算,向上接入操作体系、使用软件等,依据云的开发方法成为干流,向下界说硬件,自研芯片、服务器、操作体系等底层技能,这一趋势更为显着。

而关于我国云核算而言,在芯片层遭到的约束更为严峻,IT从业者们正在从不同维度、不同层面发力,企图处理或许缓解芯片禁令带来的影响,云核算在重压之下被赋予了更重要的使命。

云厂商,“苦英伟达久矣”

英伟达GPU芯片客观上促进了大模型的迸发,可是英伟达的独占位置,攫取了大模型工业开展至今的绝大部分赢利,现已引起工业各方的诉苦,不同厂商都开端用自己的方法下降“英伟达依靠”,其间又以云服务商为最。

据报道,本年早些时刻,美国司法部近期收到了包含AMD和AI芯片草创公司在内的英伟达竞赛对手的投诉,称英伟达会将芯片与其他产品绑缚出售,一同或许存在约束客户购买英伟达竞赛对手的行为,比方提价或许下降收购数量等。

云服务商是芯片工业的最大客户之一,据 TrendForce 统计数据,2022 年 AI 服务器收购中,北美四大云服务商微软、谷歌、Meta、亚马逊位居前列,算计占比 66.2%。而跟着大模型竞赛门槛的进步,巨子会集效应还在加重。

四协会发声“谨慎采购美国芯片”,中国云计算产业加速替代创新|钛媒体焦点的图片

不管国内仍是国外,根底大模型的预练习,都以大算力集群的云根底设备为主。OpenAI前期的大模型都是在微软Azure上练习出来的,现在两边正在共建一个代号为 “星际之门” 的巨型数据中心项目,项目估计本钱超越 1150 亿美元,将装备数百万块 GPU。

再如,在AWS re:Invent 2024上,Anthropic联合创始人Tom Brown宣告了下一代Claude大模型将在AWS的Project Rainier上进行练习,这将是一个具有数十万Amazon Tranium2(亚马逊自研机器学习练习芯片)的算力集群。

除了海外云服务商,国内云服务商以华为、阿里为代表,也在数年之前就开端研制芯片,美国禁令让这一方针的完成难上加难,注定了我国云服务商需求更多的代替式立异,然后补偿芯片层面的缺乏。

依据SIA和Techinsights数据,2023年我国大陆约占全球半导体商场需求的30%,而产量约占全球7%,对应自给率约23%,其间12%为我国本乡企业(狭义自给率),11%为外企在我国大陆制作。

云巨子自研芯片做体系立异现已成为一致,一位国内云厂商战略人士表明,以大模型为代表的AI技能改造,能够认为是对整个核算机科学的一次改造,AI和云的结合,会从头界说AI,也会从头界说从芯片到服务器等一切软硬件。

半导体工业是一个技能杂乱、工业结构高度专业化的生态体系,规划扩张树立在技能老练、分工进一步细化的根底上,而现在x86体系数十年树立的体系正在被大模型冲击。一位职业人士表明,假如没有大模型,工业还会沿着原有的方向,格式固化、技能小改,英特尔的衰落和英伟达的兴起,也不会产生,可是技能改造必然会呈现。

“美国因为人工智能对我国加以约束,实际上也是因为工业次序正在从头树立,美国赢在了x86通用核算的年代,智算年代会出现出新的领导者,美国当然不期望呈现在我国。”他弥补说道。

现在,全球抢先的大模型公司现已有了一致,寻求端到端的全链路协同优化。做模型的公司期望能和核算公司走到一同,把自己关于模型最前瞻的了解和下一步演进的态势和云核算公司做交流,期望云核算公司对他的模型做优化,云核算公司又会进一步再向下传递,与芯片公司做交流。

整个体系改造互为牵引,AI竞赛的结局是能够在全栈体系里边做端到端的体系级优化,不只AWS、微柔和谷歌等云厂商,经过自研、出资等方法和大模型厂商深度绑定,就连英伟达也出资了云核算公司,而且做了自己的大模型。

图片系AI生成

细腻的四协会发声“谨慎采购美国芯片”,中国云计算产业加速替代创新|钛媒体焦点的视图

用异构核算和算力堆叠,换芯片工业开展时刻

在可预期的数年时刻里,跟着大模型工业的高速增加,芯片工业还将呈发散式的扩张逻辑,芯片的品种会更多,技能道路也较难收敛,多种芯片共存的现状不会改动。

“一云多芯”,关于我国云厂商有共同的含义。海外云厂商不受芯片约束影响,更多是出于事务自由挑选兼容自研芯片等,而国内云厂商选用“一云多芯”的方法,能够在必定程度上屏蔽不同芯片的差异。

起先,云厂商的处理计划是,每一品种型的芯片集群都独自建云,在构成多云后经过云办理渠道从软件层面进行一致办理,可是多朵云分资源一致调度难,多云/多AZ对客户的机房规划、建造预算艳秋高级问题,注定该计划不是最佳挑选。

“一云多芯”将一切异构算力一致纳管,把不同的芯片等硬件封装成规范算力,从客户视角看无需过分重视芯片,兼容适配等作业由云厂商处理,这也是当时芯片方法下的必经之路,其间的关键是云操作体系,典型如阿里云的飞天操作体系、百度的万源操作体系。

不同的芯片之间很难互联,且不同芯片间无法在同一张网里边跑同一个使命,现在只要少部分厂商完成。狭义的“一云多芯”是指在一个云渠道内可一同选用多种异构CPU等类型的国产芯片,而广义的“一云多芯”要求供给从CPU扩展到GPU、网络设备,以及各类职业生态使用、客户自建使用的全域兼容才能。

譬如在CPU层面,云服务商需求支撑intel、海光、鲲鹏、飞扬等共多种芯片,在GPU层面支撑Nvidia、华为昇腾、海光DCU、寒武纪等干流AI芯片。

别的一种方法是多芯片堆叠,用算力集群来处理单芯片才能缺乏的问题,尤其在AI芯片层面禁运局势严峻的情况下,是我们正在探究的高端AI算力处理计划。不过当芯片数量增加到必定程度时,因为芯片之间的通讯和互连约束,体系的功能反而会下降。

例如华为云本年推出的下一代云根底设备CloudMatrix,一方面,华为遭到美国制裁更早,更有动力研讨代替立异计划;另一方面,华为有自研的昇腾芯片系列,怎么发挥芯片堆叠的作用,用云核算探究新的根底设备也在预料之中。

据了解,CloudMatrix也是先完成了“一云多芯”,将服务器内的 CPU、NPU、DPU、存储和内存等多样资源的一致池化并灵敏装备,以此构成大规划、紧耦合的多元算力池化架构,之后的关键是高效传输网络。

CloudMatrix 经过超高带宽 ScaleUp 网络从“传统以太网”向“同享总线以太网”演进,完成池化算力的高速互联,新的网络协议完成跨物理服务器的一致标识、一致的拜访和音讯通讯机,然后完成 CPU、NPU、存储内存等多样资源的跨服务器一致池化,经过资源悉数对等衔接,既能够水平扩展,更能够笔直扩展。简略一句话,就是在必定规划内,堆叠之后的芯片能够完成近乎线性的算力增加。

展望未来,我国云核算职业不得不面临芯片长时刻受限的局势,既要与世界干流开展趋势接轨,也要统筹国产芯片的特别环境,我国云核算厂商需求在软硬件设备层面协同立异,方能处理缓解部分芯片工业的难题,用异构核算和算力堆叠等方法,交换芯片工业开展的时刻。(本文首发于钛媒体APP,作者 | 张帅,修改 | 盖虹达)

告发/反应

相关推荐

在线客服
服务热线

24小时咨询热线:

4006666666

微信咨询
黑料家庭吃瓜网
返回顶部