意味着什么 DeepSeek开源FlashMLA (意味着什么的英文)
国产AI公司深度求索(DeepSeek)开源周正式启动,并发布首个开源代码。
2月24日,DeepSeek宣布启动“开源周”,首个开源的代码库为FlashMLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,目前已投入消费。
此前2月21日午间,DeepSeek宣布,从下周末尾,他们将开源5个代码库,以完全透明的形式与全球开发者社区分享他们的研讨进度,每日都有新内容解锁,进一步分享新的进度,并将这一方案定义为“Open Source Week”。
依据DeepSeek在社交媒体上的内容,在H800上可以成功每秒处置3000GB数据,每秒行动580万亿次浮点运算。
Hopper是英伟达的GPU(图形处置芯片)架构,例如H100和H800,发布于2022年,关键用于AI计算。
无意思的是,假定把这段内容交给DeepSeek网页版,讯问开源意义,DeepSeek回答称,可以了解为专门给高性能显卡(比如英伟达的Hopper系列GPU)设计的“减速神器”,用来提高AI处置义务的效率。
DeepSeek举例,假定开了一家快递分拣站,每天要处置不同大小的包裹,传统方法是用固定大小的筐子装,小包裹糜费空间,大包裹又得分筐装,效率很低。而FlashMLA就像一套“智能分拣系统”,能智能依据包裹大小调整筐子尺寸,让一切包裹加快、划一地卸车,既省时期又省钱。
马斯克旗下xAI的大模型Grok3则评价称,FlashMLA标明DeepSeek在AI配件减速范围有深堆积聚。MLA自身是他们的创新,而 FlashMLA则是将这种创新落地到配件的详细成功,性能目的(3000GB/s和580TFLOPS)足以媲美业界顶尖方案(如 FlashAttention)。
Grok3 称,”设想你有个超级聪慧的 AI,但它跑得不够快,由于每次处置句子时都要糜费很多时期搬数据和算复杂的数学题。FlashMLA 就像给AI加了个‘涡轮增压引擎’,专门装在英伟达的Hopper GPU上。它能让AI用更少的内存、更快的速度处置各种长短不一的句子,开源之后,AI开发会变得更快、更省钱。”
作为开源大模型,DeepSeek的火爆曾经带动了开源成为现在的AI产业新趋向。
香港科技大学校董会主席、美国国度工程院外籍院士沈向洋在2025全球开发者先锋大会(GDC)上表示,虽然以后闭源的份额依然逾越开源的份额,但接上去一两年将猛烈变化,平衡开源与闭源,引领未来。“大模型时代,开源并没有像以往那么多、那么快,我想,经过上海的努力,我置信开源这件事情会越做越好。中国的团队、上海的团队肯定会引领开源潮流。”
头部大厂纷繁跟进开源潮流。2月21日,据阿里巴巴通义实验室迷信家黄斐引见,到目前为止,整个通义千问(Qwen)系列模型的下载量抵达了1.8亿,累计衍生模型总数抵达9万个,衍生模型数曾经跨越Meta的Llama系列,成为了全球第一大开源模型系列。
百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源;文心一言自4月1日起片面不要钱,一切PC端和APP端用户均可体验文心系列最新模型。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。