正对着中企狂抄 Meta被曝整个AI部门深陷恐慌 (正对着是什么方向)

admin1 1天前 阅读数 27 #美股

中国人工自动公司深度求索(DeepSeek)在大模型上取得的成功,目前曾经深深撼动了硅谷同行们的决计。

1月23日,在美国匿名职场论坛TeamBlind上,一名Meta公司员工发布涉深度求索的帖子“Meta生成式人工自动部门堕入恐慌”,惹起普遍讨论。该员工在文中称,从深度求索发布DeepSeek-V3末尾,就曾经让Meta的Llama 4在各项测试中处于落后,“更蹩脚的是,这家不知名中国公司仅为此破费了550万美元。”

550万美元是什么概念呢?“Meta生成式AI部门里的每位‘指点’的薪资都逾越了这个数字”,该Meta员工称,“而我们却有几十位这样的指点,我基本无法设想该如何向公司高层证明部门目前高额本钱的合理性。”

该员工走漏,目前Meta的工程师们正在疯狂研讨剖析DeepSeek的成功,并试图从中复制任何能复制到的东西,这不是夸张。“但是,当DeepSeek-R1发布时,事情变得愈加可怕了”,该员工表示尽管不能走漏太详细,但有些事情很快将会地下。

最后,该员工反思称,Meta的生成式AI部门本应该是一个以工程为重点的小型组织,但由于很多人都想出去分一杯羹,人为收缩了组织的规模,到最先人人都是输家。

目前不清楚该员工所指详细为何,能否暗示该公司生成式AI部门面临的调整或许其他状况的或许性,这还要求进一步观察,不过Meta在大模型中竞争中脚步放缓已是理想。

地下信息显示,帖子中提及的DeepSeek-V3于去年12月26日对外发布,该模型一经发布就站上了开源模型No.1的位置。依据事先深度求索发布的技术报告数据,Meta公司的Llama 3.1-405B仅在大规模多义务了解数据集MMLU-Pro一项,靠近DeepSeek-V3水平,其他多项简直都不及八成,甚至在算法类代码场景和工程类代码场景下,Llama 3.1-405B只需DeepSeek-V3的一半水平。

而4天前(1月20日),深度求索对外正式发布DeepSeek-R1,官方技术报告的测试所对照模型中,仅有OpenAI公司闭源的OpenAI o1 模型,以及DeepSeek-v3等自家模型。而在上一轮DeepSeek-V3测试中所对照的Meta、Anthropic等公司模型,此时早已不见踪影。

最关键的是,DeepSeek-R1以及深度求索同期提及的DeepSeek-R1-Zero模型,初次让整个行业清楚看到,大模型如何仅靠大规模强化学习(RL)驱动、在没有人类标注数据冷启动(SFT)的状况下,成功继续自我生长。方便说,DeepSeek-R1的意义就相当于让谷歌的围棋软件AlphaGo(阿法狗)从零末尾自己与自己下棋,并经过试错自学达成现在的水平,但时期却不向AlphaGo提供任何人类巨匠的下棋思绪信息。

而在本钱方面,深度求索尽管未走漏DeepSeek-R1 的训练破费,但DeepSeek-v3的总训练时长则为278.8万GPU小时(其中预训练占266.4万小时),经常经常使用2048块英伟达H800 GPU,耗时约两个月成功。与之相比,相同开源的Llama 3.1-405B却消耗了3080万GPU小时,本钱是DeepSeek-V3的11倍。甚至OpenAI公司的 GPT-4o的模型训练本钱也抵达1亿美元,这与DeepSeek-V3训练破费的557万美元相差微小,也让“花小钱办大事”成为深度求索的关键标签。

对此,在该Meta员工的帖子下边有一名三星员工评论称,特朗普日前宣布的“星球之门方案”估量投入总规模抵达5000亿美元,“但假定当这些AI基础设备仅能与深度求索极小的本钱相婚配时,投资人还能有多少耐烦?这个5000亿美元的方案还没末尾就将夭折。”

而谷歌公司的一名员工也评论称,深度求索很疯狂,不只仅是Meta,面对这家中国公司时,OpenAI以及谷歌/Anthropic目前相同是“火烧屁股”。

不过这名谷歌员工也供认,关于行业来说是一件喜事,“我们可以实时看到地下竞争对创新的推进作用”。

版权声明

本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。

热门