以及应对之策 必需烂尾的美国AI新管制框架 (以及应对之策怎么写)

admin1 3周前 (01-18) 阅读数 357 #银行

1月13日,美国史上第一个大规模AI出口管制框架靴子落地。

这份名为“AI分散管制框架”(Framework for Artificial Intelligence Diffusion)的文档洋洋洒洒一共168页,曾经刊登在“联邦公报”federalregister上,群众可以在发布的四个月之内给与反响评论和意见。

之所以说是靴子落地而非揭开面纱,是由于这份管制框架的大部分细则早在一个多月前即12月初就以联邦法规立项通知的方式地下,经过美国媒体、智库、产业界关于该拟议法规的地下讨论后曾经出现了足够的言论发酵,事先政商界相关人士就普遍以为最终版的管制框架将在特朗普入住白宫前夕正式地下。

某种意义上,它是拜登给特朗普埋的一个雷,楔入的钉子,也更像是一份综合性的述职报告。

拜登政府“最后一舞”的三大特点

该AI分散管制框架是对过去两年美国BIS(工业与安保局)针对高算力芯片出口管制政策的一个扩展版的总结和所谓的查缺补漏。它可以被总结为三大特点。

首先,在GPU的性能规范管制的基础上, 介入了对管制模型权重参数的设置,并且区分了开源和闭源。

美国BIS依然延续了2022年10月7日(10.7规则)、2023年10月17日(10.17规则)以及2024年3月29日的(3.29规则)的思想方式,即划定一个AI大模型灵敏平衡的参数,对计算才干特定阈值划线,对“性能很强”的大模型,尤其是不如现有开源模型弱小的闭源模型权重启动出口管制。

AI模型训练的权重(Weights)和数据处置量和算力体系亲密相关,那如何定义“性能很强”呢?那就是经过对模型训练所需的浮点运算数(FLOPs)加以审定。FLOPs通常是模型训练做了多少次加法和/或乘法运算,FLOPs的数量假定很大,说明模型规模很大,带来的所谓风险也就更大。

在这一点上,美国相关部门曾经发现,由于一切现代大言语模型都是由相反的算法模块构建而成,他们其实无法真正对曾经落地的开源模型启动管制,只能采纳“新人新方法,老人老方法”的准绳,对新冒出来的被判定有必需调用大算力风险的,且性能性强的(以10的26次方次计)闭源模型启动审查处置。

理想上,在数据主权思想看法主导下,即使是美方不实施额外的卡脖子政策,我国政府也不会纵容国际数据恣意被Meta,OpenAI等公司拿去做AI模型训练;美国BIS也看法到这一点,对美国境外的模型权重也设定了本国直接产品规则,这意味着中国大型云服务商即使是在海外训练AI模型,假定逾越以10的26次方次计的FLOPs,也有或许触发管制红线。

其次, 该框架很大水平上试图恢复濒于死亡的 “瓦森纳协议”的元气

心智观察所之前曾撰文指出,热战完毕之后,美国指点下的西方在巴黎统筹委员会的基础上重整旗鼓,搞出了一套面向全球的军民两用出口管制架构。不过随着世纪之交美俄矛盾的深化以及组织章程定义的不明晰,叠加中国硬科技实力的一日千里,美国商务部BIS逐渐跳上前台,以单边实体清单+最终用户、经常经常使用区域管制的方法逐渐腐蚀“瓦森纳协议”地盘,让后者在2019年之后逐渐名存实亡。

但这份AI分散管制框架的出现,让我们突然再次嗅到了“瓦森纳协议”的腐尸气——创制性地搞出了一个GPU出口到全球数据中心的三层地域体系。

这个三层解构,最内圈的是美国20个不到的中心盟友。这些中心盟友国度,如澳大利亚、比利时、加拿大、丹麦、芬兰、法国等(值得留意的是日韩和台湾地域均在此列)只需提交开放保证不让数据中心GPU外泄到其他国度,就不受算力密度管制限制;

最外圈是被美国视为友好国度的一类,当让包括中国。这些国度GPU要求最严峻的推定拒绝。

这三个圈层中,最复杂的当属两边层,有100多个“待观察国度”。对这些国度美国采取了松紧过度准绳,用“总处置性能”(TPP)划了两条线,一条是向单个该国度类别的公司出口大约1700块GPU,当然假定GPU的性能很低则不受管制;一条是GPU国度配额,设定为2025年至2027年向这类国度累计出口约5万块GPU的设为下限,用于科研院所等学术交流的则不受管制。

以数据中心高性能GPU出口目的地来划分美国盟友的亲疏有别,是该协议框架的一大特征,其实这也是被广阔美国外乡高科技公司,包括CSP云服务商、GPU厂商等广为诟病之处。

第三点,中东地域成为美国 管制的重点监察区域。

如前所属,两边圈层的国度遭到了GPU出口配额和总量限制,必需会连带影响到美国CSP们在这些国度数据中心的部署,而中东国度大多属于此类。

目前卡塔尔、阿联酋和沙特等国纷繁出台AI算力替代石油战略,数据中心的位置愈加提高,让美国忌惮中东有或许成为高性能GPU流向中国的中转站或许backdoor。因此,新的管制框架规则这些国度部署的GPU经销商,云服务运维等项目必需接受“阅历证最终用户”(Validated End User,VEU)认定,才干布置受控的GPU部署。

除了上述三点之外,心智观察所还发现,有关GPU总处置性能、性能密度方面,新框架无甚高论,基本上延续了2023年10月的相关参数认定。

为何说这份管制框架必需烂尾?

在1月13日“AI分散管制框架”正式出台之前,美国官方公告就悄然上任了一份长达200页的上述三圈层管制细则。美国半导体行业协会(SIA)之前就收回正告,论述了这种极为复杂的全球管制条例难以落地的要素。

不时强调合规运营,严峻行动美国外乡管制制度的英伟达,这次终于按耐不住,他们的反响比众多云服务商还要剧烈:“这份文件纯属秘密起草,并未经过适当的立法审查。经过努力操纵市场结果并扼杀作为创新命脉的竞争相关,拜登政府的新规有或许糜费掉美国来之不易的技术优点。”

要求指出的是,让英伟达破防的不是这份总体性的框架,而恰恰是其中那部分带有“瓦森纳协议”颜色的三圈层管制条例,这会极大地介入企业的法律合规本钱,让原本就在华业务不时受损的英伟达雪上加霜。

2023年10月新规之后,英伟达在华业务就曾经不得不接受着微小的地缘政治方面的额外压力。

从2023年第三季度末尾,英伟达的数据中心营收在总营收中的占比曾经逾越80%,中国大陆市场在英伟达财报中的营收奉献终年在20%以上,英伟达中国大陆地域市场的实质营收奉献其实远大于财报数据。由于中国台湾地域的企业,如华硕、技嘉、微星等,集成了英伟达的芯片,大批最终客户仍在中国大陆地域。

比如说,2023年11月17日出口管制正式失效时,英伟达将关键用于消费端的RTX 4090系列显卡的产品信息从简体中文官方移除,并通知渠道商下架官方渠道销售的RTX 4090,日后不能再独自卖卡,只能以 零件预装的方式销售 。而且,英伟达陆续推出的在华阉割版GPU,H100/H800的单价曾经一度在国际曾经被炒至25万-30万一张,多轮出口管制正在让原本的算力多少钱平衡被逐渐突破,性能最强的H20通常性能仅为H100的20%左右,在国产AI减速器国产替代大潮之下,英伟达阉割版的性价比难匹昨日。

与英伟达呵责力所不及的是,甲骨文行动副总裁肯·格鲁克(Ken Glueck)在此之前就愤怒地表达了对拜登政府“人工自动分散出口管制框架”的不满,称其“将成为美国技术产业所遭受的最具破坏性的规则之一”。

相比GPU制造商,云服务商愈加看重infra部署的总本钱优化,强调算力、运力、存力的协同作战,芯片、板卡、软件栈、主机集群牵一发而动全身。

拜登政府的新AI管制框架不但要卡脖子GPU,还要结合区域性的总分配算力和模型训练的权重综合管制,必需会形成跷跷板效应,让大型云计算企业无所适从,而且数据隔离墙构成的语料孤岛,自身不利于LLA大模型的成熟化落地。

这份管制框架还有另一层面上方临崩殂的要素。

跟踪芯片禁令最严密的Jefferies剖析师以为特朗普政府大约率会给这次拜登Al分散令暗中捣乱。由于越是复杂的规则,就越要求更多的人力去解读、行动和落地。

BIS庞大的AI管制框架,打着国度利益的幌子,其实也是在给自己捞预算和油水。

2020年以来,BIS雇员每年大幅增长,而且薪水待遇也水涨船高。依据美国职场数据咨询平台glassdoor数据,BIS的平均薪资范围约为141248美元/年至141248美元/年(主管级别)。可以说,BIS是美国联邦机构众多大小堂口中人员迅速收缩至臃肿的典型,应该属于马斯克DOGE(美国政府效率部)重点监察的对象。

叠床架屋必需四面漏风,而且新规让美国对全球200多个国度实施灵敏GPU管制,把全球消费要素流动管制做一种开天眼式,或许开启经常经常使用作弊器玩游戏的方式才干抵达预期效果,无论从或许性和理想性上都让人感到荒唐满满。

特朗普的对外管制的特点是喜爱抓关税,而非手舞足蹈,脑体忙乱式的遵照复杂管制条例,Jefferies剖析师曾经预判,特朗普百日执政的重点就是手拿奥卡姆剃刀剔除繁文缛节,168页的框架对他来说,真实是太多了太复杂了,不忍卒读。

应对之策:推理与架构创新

为何美国商务部BIS如此刻不容缓发布新版本的AI管制框架?

除了作为国际党争的武器之外,也确实是看到了中国在AI大模型方面有一日千里之势。DeepseekV3的成功也许曾经预示着AI大模型从数据的预训练时代向推理时代过渡,连OpenAI自己也不得不供认,test time compute也就是推理计算的scaling会让AGI更快到来。

训练是人工自动模型的第一阶段,这一阶段或许触及重复试错的环节,对算力的要求十分高,对本钱控制和功耗相对不那么看重,要求鼎力出奇观,即向人工自动模型提供集。

而推理是人工自动训练之后的环节,模型训练得越好,调整得越精细,其推理就越准确,能在商业场景跑通的国产卡,远比训练要多。下游推理模型和运转,都处于猛烈变化的战国时代,而处于抢先的计算体系架构,也完全没有定型。

AMD表示到2027年其4000亿美元AI减速器TAM中约65-70%将用于推理,英伟达也表示推理需求的增长末尾迅速减速,有或许年增40%。

这对国产的云推理服务托管商,以及推理卡的运转来说是一个微小的机遇。

目前美国商务部的底线思想依然是卡你的配件,我们也要求供认AI目前的阶段是配件推着运转走,但可以预见,未来推理的运转会推进着芯片往前走。一旦出现AI超级运转,用场景定义芯片,就会有ASIC替代通用高算力GPU的或许,这也是中国AI产业的破局底气所在,毕竟,中华大地是一片数据和运转场景的原始富饶之地。

算力、存力和运力三者合一,让中国大陆目前聚焦的近存计算和存算一体也大有可为。

之所以英伟达的NVLink协议具有较高的传输效率,关键要素之一是它在处置拥塞的时辰有一套完整的方案。从芯片到集群,自身就是一个大系统。以存储架构为例,它正迎接一场推翻传统的逾越式创新,随着高速网络、RDMA、NVMe等技术的展开,以及数据池化、湖仓一体化趋向的深化,文件、对象、大数据的多协议融合部署需求加快增长。

数据中心技术栈的生态树立(@燧原科技)

经过火歧的大模型技术生态栈处置算力瓶颈疑问目前成为了行业的共识,也能有效应对美国的配件围堵。

其实,美国这次的AI巨型管制框架暴露了其懦弱和畏葸的一面——这一点曾经被英伟达看穿了,他们在资讯稿的最后表示:“美国经过创新、竞争和与全球分享技术而博失利利,而不是躲在政府越权的高墙前面。”

美国商务部的“画地为牢,玩火自焚”这八个字,会在2025年及其以后的历史画卷中逐渐应验。

版权声明

本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。

热门