用微信扫码二维码
分享至好友和朋友圈
当地时间11月20日盘后,英伟达公布第三季度财报,该公司收入继续飙升,但由于增长较前几个季度放缓,当天盘后英伟达股价下跌约2%。
第三季度,英伟达销售额约为375亿美元,同比增长94%。公司预测第四季度将进一步同比增长约70%,低于去年同期265%的年增长率。
第三季度英伟达净利润增至193亿美元,毛利率升至73.5%,略高于分析师预期。该公司表示,毛利率增长的原因是其销售了更多的数据中心芯片。
英伟达是人工智能热潮的主要受益者。今年迄今其股价已上涨近两倍,成为美股市值最高的上市公司。
这主要得益于该公司的数据中心业务。第三季度英伟达数据中心部门的营收为308亿美元,较去年同期增长112%。
英伟达的下一代旗舰AI芯片Blackwell正在积极交付中。第三季度,包括微软、甲骨文和OpenAI在内的许多终端客户已经开始接收该公司的下一代人工智能芯片Blackwell。
英伟达首席财务官Colette Kress在与分析师的电话会议上表示,13000个Blackwell芯片样品已发送给客户。英伟达创始人CEO也在一份声明中表示,Blackwell已“全面投入生产”。
“每个客户都在竞相成为第一个进入市场的人。”Kress表示。“Blackwell现在掌握在我们所有主要合作伙伴的手中,他们正在努力建立数据中心。”她预计,Blackwell芯片出货量将在明年增加,该公司有望在第四季度实现“数十亿美元”的Blackwell收入。
与此同时,英伟达还表示,其当前一代AI芯片H200的销量“在本季度大幅增长”。“Hopper和Blackwell系统都存在一定的供应限制,预计未来财年连续几个季度Blackwell的需求将超过供应。”Kress 表示。
黄仁勋在财报电话会议上被问及特朗普政府可能加征的关税是否会影响英伟达,他回应称:“无论新政府做出什么决定,我们当然都会支持。公司将完全遵守随之而来的任何法规。”
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
网易跟贴
注册 手机发跟贴 登录并发贴网友评论仅供其表达个人看法,并不表明网易立场。
有态度网友0s1j4E目前没有跟贴,欢迎你发表观点
四川:到2027年大规模智能计算中心达到15个左右
返回网易首页 下载网易新闻客户端见证 AI 的变革时刻:高速光模块,以太网交换机和液冷技术
英伟达GTC 2024大会发布了GB200芯片及配套架构,通过提升GPU互联带宽、采用高性能光模块和交换机,并部署液冷技术,推动AI计算效能与数据中心能效升级。 在英伟达 GTC 2024 大会上,黄仁勋发表“见证 AI 的变革时刻”演讲,并推出了GB200芯片及相关架构,通过大幅提升GPU间的互联带宽并采用1.6T光模块。 同时发布全球首批端到端800G吞吐量的InfiniBand和以太网交换机,以及采用液冷技术的服务器解决方案,全方位推动AI计算性能革新和数据中心能效提升。 1 高速光模块在GTC 大会上,英伟达揭晓了新一代 GB200 芯片,业界正密切关注这款芯片如何重塑光模块市场需求格局。 在去年五月末的 COMPUTEX 展会上,英伟达首度公开其 GH200 芯片。 经估算,在由256颗GH200构建的集群配置中,所需的800G光模块数量高达2304个,平均每颗芯片配备的光模块比例达到了空前的1:9。 本次发布会上崭露头角的GB200同样秉持了这一设计理念,依据黄仁勋在演讲中的披露,单个GPU之间的双向通信带宽已经由先前的900GB/s跃升至1800GB/s。 而在集群配置上,一个标准机柜能装载上限为72颗BlackwellGPU,借助新一代NVLink5交换技术,可以实现多达576颗GPU的互联;并且通过InfiniBand或以太网交换机,集群规模还可进一步扩容至上万个GPU节点。 该方案在单台机架中配置了 36 颗 GRACE CPU 和 72 颗 Blackwell GPU,通过铜缆的方案将该 72 颗 Blackwell GPU 进行互联,这一点与 GH200 方案类似,即:第一层网络无需光模块互联。 正如黄仁勋主题演讲所揭示,在GB200的单机柜配置中,得益于全新一代NVLink Switch芯片的支持,GB200能够组建一个由576颗Blackwell GPU构成的计算集群,显著超越了前代GH200所支持的最大256颗GPU集群规模。 就互联带宽而言,集群内的每一颗Blackwell GPU都能实现双向1800GB/s的高速传输,相较于GH200,带宽性能整整翻了一番,这也意味着对应的光模块需承载的带宽加倍,从而催生了对1.6T光模块的需求。 下面我们参照上述逻辑进行估算:据此推算得出,在GB200芯片与1.6T光模块之间,它们的理想使用比例同样是576:5184=1:9,即单个芯片数与光模块的比例为1:9。 2 以太网交换机英伟达隆重推出了Quantum-X800 InfiniBand系列与Spectrum-X800以太网交换机产品,成为全球率先实现全程800GB/s数据传输速率的网络解决方案,携手英伟达的配套软件套件,能够有力地促进各种类型数据中心内人工智能任务、云端运算、大数据处理以及高性能计算应用的执行效率,此创新同样适用于基于Blackwell架构新近构建的数据中心环境。 英伟达 Quantum-X800 和 Spectrum-X800 交换机两者的早期应用客户有微软Azure、甲骨文云基础设施和 CoreWeave。 其中 Quantum-X800 相比上一代,使用 SHARPv4下的带宽容量提高 5 倍、网络计算能力增加 9 倍至 14.4TFlops。 Spectrum-X800 优化网络性能,转为多租户环境设计,可确保每个租户的 AI 工作负载的性能隔离,以保持最佳且一致的性能水平,从而提高客户满意度和服务质量。 在国内,新华三与华为两大企业紧随交换机技术升级的步伐,相继推出了自家的800G数据中心交换机产品。 如新华三在NAVIGATE领航者峰会上全球首度推出了旗下51.2Tbps速率的800G CPO硅光数据中心交换机系列产品——H3C S9827系列。 图:新华三全球首发 800G CPO 硅光数据中心交换机这款产品内置的单芯片传输速率高达51.2T级别,支持64个800G的端口。 在保证高吞吐性能的同时,借由CPO硅光技术的优势,进一步将单端口传输延迟降低了20%,这一改进意味着在同样的时间周期内,AIGC集群内部GPU之间的数据交换能力可以得到25%的增长,显著提升了GPU的整体计算效能。 一样,华为在 2023 年 6 月第 31 届中国国际信息通信展中发布首款 800GE 数据中心核心交换机——CloudEngine -X 系列:图:华为首发 CloudEngine -X 800GE 数据中心交换机华为声称其CloudEngine -X支持 288 个 800GE 端口,具备3.5 微秒跨板转发时延,整体TCO可降低 36%。 3 液冷技术在英伟达 GB200 的方案中,其机架具有 2 英里长的 NVLink 布线,共 5000 根电缆,估算其功耗将达 20KW及以上。 因此,服务器亟需更高效的散热方式。 为了让这些计算快速运行,英伟达将采用液冷的设计方案,冷却液输入/输出水温分别为 25℃/45℃。 除了英伟达,AI 服务器厂商超微电脑预计将在24Q2内扩产液冷机架。 GB200 NVL72 液冷机架示意图同时,国内产业链也在协同推进液冷技术的发展。 三大运营商在去年 6 月发布了《电信运营商液冷技术白皮书》,并提出 25 年及以后液冷在 50%以上项目规模应用的愿景。 电信运营商液冷技术规划
英伟达GTC 2024大会亮点回顾:最强AI加速卡、AI车载芯片等
北京时间3月19日凌晨4点,英伟达GTC开发者大会在美国加州圣何塞隆重开幕。 创始人黄仁勋以标志性的黑色皮衣亮相,演讲主题为《见证AI的变革时刻》。 在这场长达两小时的演讲中,黄仁勋揭示了哪些亮点?一、最强AI加速卡:Blackwell GPU黄仁勋首先发布了下一代芯片架构Blackwell及相关产品,它是Hopper架构的继任者。 Hopper架构的芯片包括H100和GH200超级芯片,是之前最强的AI芯片。 英伟达显卡一般有两种架构,Ada Lovelace架构主要应用于游戏显卡,如RTX 40系。 而面向AI、大数据等应用的专业级显卡则采用Hopper架构。 黄仁勋表示,“Blackwell不是一个芯片,它是一个平台的名字。 ”意味着Blackwell架构可能将同时用于AI系列和游戏显卡系列,比如RTX 50系列可能也将使用该架构。 此次大会上,黄仁勋带来了Blackwell B200和GB200超级芯片两个产品系列。 B200 Blackwell GPU采用台积电4NP工艺节点,拥有2080亿个晶体管,提供高达20 petaflops FP4的算力。 黄仁勋表示,该芯片在训练人工智能模型方面的能力是当前一代GPU的2倍,在“推理”方面的能力是当前一代GPU的5倍。 GB200则包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU组成,推理大语言模型性能比H100提升30倍,成本和能耗最多降25倍。 据英伟达称,亚马逊、谷歌、微软、OpenAI、甲骨文和特斯拉等公司主要客户预计将在他们销售的云计算服务中使用B200。 二、AI车载芯片:Drive Thor英伟达还推出了集中式车载计算平台“NVIDIA DRIVE Thor”。 DRIVE Thor 是一个车载计算平台,专为生成式人工智能应用程序而设计。 该系统是 DRIVE Orin 的继任者,可以提供功能丰富的驾驶舱功能,以及安全可靠的高度自动化和自动驾驶。 黄仁勋表示,NVIDIA DRIVE Thor将彻底改变汽车行业,开启生成式 AI 定义驾驶体验的时代。 三、人形机器人大模型:Project GR00T英伟达还发布了“Project GR00T”——人形机器人大模型,这是一个用于人形机器人的通用基础模型,旨在进一步推动机器人技术和具体人工智能领域的突破。 同时,英伟达还为其专门配备人形机器人的“Jetson Thor”套件。 目前,英伟达正在为多家领先的人形机器人公司构建全面的 AI平台。 四、AI软件平台:英伟达推理微服务在软件服务方面,英伟达推出数十项企业级生成式 AI 微服务,企业可以利用这些微服务在自己的平台上创建和部署定制应用。 这些云原生微服务目录在 NVIDIA CUDA平台上开发,其中包括NVIDIA NIM微服务,可适用于 NVIDIA 及合作伙伴生态系统中 20 多个热门的AI 模型进行推理优化。
黄仁勋最新采访:Blackwell芯片定价3-4万美元,人工智能爬坡刚刚开始,接下来10年会看到前所未有的进步
黄仁勋,被视为“AI风向标”的英伟达CEO,在GTC大会上发布新一代AI芯片架构Blackwell,并接受了媒体的提问。 以下是采访的主要观点:1. Blackwell芯片定价预计在3万至4万美元之间,但英伟达不会单独出售GPU,而是倾向于配套出售网络设备、软件服务。 2. AI领域正处于起步阶段,未来将颠覆各行各业,AI投资仍处于早期阶段。 3. 黄仁勋强调,英伟达创造了一种全新的计算方式,技术被集成到所有计算机制造商的产品中,使得全球连接成为可能,这解释了英伟达的全球影响力。 4. 黑客芯片(GB200)由两个Compute Die组成,通过NVLink-HBI技术连接,并配备8个8层堆叠的HBM3e内存,总容量为192GB,带宽高达8TB/秒。 5. 黑客芯片的开发成本高昂,英伟达在新架构和设计上投入100亿美元。 6. 黄仁勋表示,英伟达将更注重配套出售网络设备、软件服务,而非单个加速器。 7. 黑客芯片将应用于现实世界任务,需要深入了解多个学科领域,如生物学、科学等。 8. 黄仁勋预测未来十年将见证前所未有的计算技术进步,包括气候技术、数字生物学、通用机器人等领域。 9. 黄仁勋强调,AI技术的非连续性实际上并不存在,各行业底层逻辑相互关联,如视频游戏中的粒子物理学与分子模拟中的流体动力学。 10. 黑客芯片的开发投资需要多年,但在某些情况下,量子计算机的性能可能超过传统超级计算机。 然而,预计这还需要一二十年的时间,英伟达坚信传统与量子计算的结合体将是未来最强大的计算机。