Blackwell芯片设计缺点已修复 英伟达CEO 估量将在Q4发货 (blackwork品牌衣服)
英伟达(NVDA.US)首席行动官黄仁勋(Jensen Huang)周三表示,在台积电的协助下,英伟达最新款Blackwell AI芯片的设计缺点已失掉修复,该缺点此前曾影响消费。这位CEO表示,“我们在Blackwell有一个设计缺点,它是性能性的,但设计缺点形成良品率很低。这100%是英伟达的错。”
英伟达于往年3月公布了Blackwell芯片,此前曾表示将在第二季度发货,但随后被推延,或将影响Meta(META.US)、Alphabet (GOOGL.US)和微软(MSFT.US)等客户。
本月早些时辰,黄仁勋说市场对新的Blackwell系列处置器的需求是“疯狂的”。上周,戴尔表示将很快末尾出货搭载英伟达Blackwell人工自动减速器的设备,谷歌也表示已末尾运转基于Blackwell系列芯片的主机。此前OpenAI和微软也公布了协作公告。
据此前外媒信息,提早消费形成了英伟达和台积电之间的缓和相关,但黄仁勋以为这是“假资讯”。
他说,“为了让Blackwell电脑任务,我们从零末尾设计了七种不同类型的芯片,并且肯定同时投入消费,”“台积电所做的是协助我们从产量艰难中恢复过去,并在一个令人难以置信的中央恢复Blackwell的消费。”
英伟达的Blackwell芯片采纳了该公司之前产品大小的两方硅片,并将它们结合在一同,构成一个单一的组件,在行动诸如为聊天提供答案之类的义务时,速度提高了30倍。
在最近的高盛会议上,这位首席行动官说,这些芯片将在第四季度发货。
周三,黄仁勋在丹麦公布了名为Gefion的新型超级计算机,该计算机拥有1528个图形处置单元(GPU),是诺和诺德基金会、丹麦出口和投资基金以及英伟达协作建造的。
详解最强AI芯片架构:英伟达Blackwell GPU终究牛在哪?现场对话技术高管
英伟达的Blackwell GPU在AI芯片范围独领风骚。 其经过创新技术,如高带宽内存、Chiplet先进封装、片内互联及高性能通讯优化,构建了专为万亿参数级生成式AI设计的弱小系统基础。 同时,英伟达注重数据中心客户的需求,强调系统级性能和能效优化,而非单纯追求单芯片峰值性能。 其对摩尔定律的顺应、数据中心作为AI工厂的定位、模型规模与数据量的增长趋向、高性能推理与生成的关键性,都体如今了Blackwell架构的设计中。 英伟达经过不时优化内存、带宽、互联技术,以及采用创新的封装战略,有效降低了与计算相关的本钱和能耗,成功了从单芯片到系统级的片面更新。 在面对AI算力需求的绝后迸发和竞争剧烈的市场环境,英伟达Blackwell GPU经过提供更高性能、更低本钱、更高效能的AI处置方案,为数据中心客户带来了清楚优势。
英伟达最先进的ai芯片
英伟达最先进的AI芯片是Blackwell GPU。 Blackwell GPU是英伟达在AI芯片技术范围的最新打破,于2023年3月18日由英伟达CEO黄仁勋在GTC大会上正式发布。 这款芯片被视为英伟达迄今为止最弱小的AI处置器,其设计理念和技术特性均表现了英伟达在人工智能范围的深沉积聚与前瞻视野。 从技术细节来看,Blackwell GPU采用了台积电的4纳米工艺,集成了高达2080亿个晶体管,这一数字远超其前身H100的800亿个晶体管。 其清楚特点之一是提供了高达20 petaflops的FP4八精度浮点运算才干,相比H100的4 petaflops有了清楚优化。 这意味着Blackwell GPU在处置复杂的AI算法和模型时,能够提供史无前例的计算速度和效率。 此外,Blackwell GPU的推出还随同着一系列软配件生态系统的更新。 英伟达不只提供了弱小的配件基础,还经过其CUDA平台、NVLink技术以及新推出的NIM微服务,为开发者构建了一个片面、高效的AI计算环境。 这些技术的结合使得Blackwell GPU在大规模数据处置、深度学习训练与推理等方面表现出出色的性能,进一步安全了英伟达在AI芯片市场的抢先位置。 总的来说,Blackwell GPU的发布是英伟达在AI技术范围的又一关键里程碑。 它不只代表了以后最先进的AI芯片技术,更预示着未来人工智能开展的有限或许。 经过继续的技术创新和生态系统构建,英伟达正引领着AI芯片技术的开展潮流,为全球范围内的科研任务者和企业用户提供了弱小的计算支持。
英伟达GTC 2024大会亮点回忆:最强AI减速卡、AI车载芯片等
北京时期3月19日清晨4点,英伟达GTC开发者大会在美国加州圣何塞浩荡开幕。 开创人黄仁勋以标志性的黑色皮衣亮相,演讲主题为《见证AI的革新时辰》。 在这场长达两小时的演讲中,黄仁勋提醒了哪些亮点?一、最强AI减速卡:Blackwell GPU黄仁勋首先发布了下一代芯片架构Blackwell及相关产品,它是Hopper架构的继任者。 Hopper架构的芯片包括H100和GH200超级芯片,是之前最强的AI芯片。 英伟达显卡普通有两种架构,Ada Lovelace架构关键运行于游戏显卡,如RTX 40系。 而面向AI、大数据等运行的专业级显卡则采用Hopper架构。 黄仁勋表示,“Blackwell不是一个芯片,它是一个平台的名字。 ”意味着Blackwell架构或许将同时用于AI系列和游戏显卡系列,比如RTX 50系列或许也将经常使用该架构。 此次大会上,黄仁勋带来了Blackwell B200和GB200超级芯片两个产品系列。 B200 Blackwell GPU采用台积电4NP工艺节点,拥有2080亿个晶体管,提供高达20 petaflops FP4的算力。 黄仁勋表示,该芯片在训练人工智能模型方面的才干是以后一代GPU的2倍,在“推理”方面的才干是以后一代GPU的5倍。 GB200则包括了两个B200 Blackwell GPU和一个基于Arm的Grace CPU组成,推理大言语模型性能比H100优化30倍,本钱和能耗最多降25倍。 据英伟达称,亚马逊、谷歌、微软、OpenAI、甲骨文和特斯拉等公司关键客户估量将在他们销售的云计算服务中经常使用B200。 二、AI车载芯片:Drive Thor英伟达还推出了集中式车载计算平台“NVIDIA DRIVE Thor”。 DRIVE Thor 是一个车载计算平台,专为生成式人工智能运行程序而设计。 该系统是 DRIVE Orin 的继任者,可以提供性能丰厚的驾驶舱性能,以及安保牢靠的高度智能化和智能驾驶。 黄仁勋表示,NVIDIA DRIVE Thor将彻底改动汽车行业,开启生成式 AI 定义驾驶体验的时代。 三、人形机器人大模型:Project GR00T英伟达还发布了“Project GR00T”——人形机器人大模型,这是一个用于人形机器人的通用基础模型,旨在进一步推进机器人技术和详细人工智能范围的打破。 同时,英伟达还为其专门装备人形机器人的“Jetson Thor”套件。 目前,英伟达正在为多家抢先的人形机器人公司构建片面的 AI平台。 四、AI软件平台:英伟达推理微服务在软件服务方面,英伟达推出数十项企业级生成式 AI 微服务,企业可以应用这些微服务在自己的平台上创立和部署定制运行。 这些云原生微服务目录在 NVIDIA CUDA平台上开发,其中包括NVIDIA NIM微服务,可适用于 NVIDIA 及协作同伴生态系统中 20 多个抢手的AI 模型启动推理优化。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。