中文 | EN

hth下载地址:5070≥4090!黄仁勋引爆科技春晚NVIDIA要做机器人界的ChatGPT行业动态    发布时间2025-01-12 01:43:13 |来源:hth在线下载| 作者:hth手机


  “女士们、先生们,欢迎来到英伟达。你现在身处我们的数字孪生世界中。此处所有内容均由AI生成。”

  穿着标志性皮衣的英伟达 CEO黄仁勋踌躇满志。刚刚,这位身价千亿的科技巨子在人称“科技界春晚”的 CES 2025(国际消费类电子产品展览会)完成了开幕演讲,老黄这次不仅发布了让全体玩家沸腾的 RTX 50 系列显卡,更展示了令人瞠目结舌的英伟达未来 AI 技术蓝图。

  目前国行售价仅公布了RTX 5090D,起售价 16499 元。从今年 3 月开始,搭载 50 系列显卡的笔记本电脑也将陆续上市,海外售价如下图,对国行来说仅供参考:

  不过,这次最受争议的显卡不止是 5090,还有系列的“中杯”显卡 5070。请看全网吵翻天的这张图:5070 “碰瓷” 4090!这相当于只需三分之一的价格,就能享受当今顶级显卡的算力,堪称真正的下克上。

  黄仁勋对这张 PPT 的具体解释是,搭载全新 DLSS 4 技术的入门级 RTX 5070,凭借每帧生成 3 帧的强大算力,能在实际游戏体验上媲美上代旗舰 4090。

  他强调:“这在没有 AI 的情况下是不可能实现的。GeForce 让我们进入了 AI 时代,现在 AI 又将重新定义 GeForce。” 在他看来,就像 20 年前的可编程着色器彻底改变了计算机图形学,AI 正在掀起新一轮技术变革。

  去年《黑神话:悟空》发售的时候,DLSS 的问题就引起了争议:AI 加持过的画面,还是游戏正常的画面吗?黄仁勋这次演讲相当于把类似问题回应了一遍:“每当英伟达宣称某款显卡性能翻倍,人们总会问:「这是真实的提升还是 AI 加持的结果?」,但这样的一个问题本身就是一种过时的思维。在 AI 时代,计算本身的定义正在发生改变。”

  他以 DLSS 4 为例解释这种范式转变。传统的图形渲染需要 GPU 计算每一个像素,但 DLSS 采用了完全不同的思路:先用光线追踪计算关键像素,再用 AI 生成中间帧。这种方法不仅节省了大量计算资源,更重要的是开创了一种全新的计算模式。

  “想象一下大语言模型是如何工作的,”黄仁勋说,“你给它一个提示,它通过对每个 token 进行大量计算来生成答案。但在实际应用中,AI 不仅需要生成答案,更要一直思考和推理。这需要一种全新的计算方式。”

  首先是经典的“预训练扩展”(pre-training scaling),也就是由 OpenAI 提出的,大家都熟知的那条 Scaling Law,老黄认为这条法则还是会继续生效。

  在旧版法则的基础上,新增了两条新的法则。首先是“后训练扩展”(post-training scaling),即通过强化学习和人类反馈来优化模型。就像 DLSS 通过不断分析游戏画面来提升生成质量一样。

  其次是“测试时扩展”(test-time scaling)。在实际使用时,AI 会根据任务复杂度动态分配计算资源。老黄原话是:“就像人类在思考问题时会投入不同程度的注意力,未来的 AI 也能智能地调配计算力。”

  基于这三条定律,英伟达推出了全新的Blackwell架构。它不仅在单纯的计算性能上实现了突破,更重要的是能够支持 AI 的思考和推理过程。与上一代相比,Blackwell 每瓦性能提升了 4 倍,每美元性能提升了 3 倍。

  说到此处,老黄也是整起了活儿,直接 cos 美队,把晶圆当成盾牌举了起来,倒是展现了新一代架构的规模:

  这就是 Blackwell 架构最新的互联技术NVLink72系统,它集成了 72 块 Blackwell GPU,算力高达 1.4 ExaFLOPS,配备 14TB 内存和 1.2PB/s 带宽,内含 130 万亿个晶体管。总系统重达 1.5 吨,包含 60 万个零件,相当于 20 辆汽车的零件总和。“全世界的互联网流量都能通过这一些芯片做处理,”黄仁勋说,“而这套系统已经在全球 45 家工厂投产,这就是 AI 的普及程度,看看整个行业正以多快的速度拥抱新的计算模式。”

  这款被英伟达官方称为“世界最小 AI 超级计算机”的设备,搭载了传说中神秘的 GB10 芯片。联发科参与设计的这颗芯片整合了最新一代 CUDA 核心、第五代 Tensor Cores 和采用 Arm 架构的 20 个高能效 CPU 核心,在 FP4 精度下可提供高达 1 PFLOPS 的 AI 性能。

  “每位数据科学家、AI 研究人员和学生的办公桌上都应该有一台这样的个人 AI 超级计算机,”黄仁勋说,“因为 AI 将成为每个行业、每个应用的主流。”

  如果把两台设备连接在一起,则更能处理4050 亿参数级别的 AI任务。4050 这一个数字比较刻意,直接点名了 Llama 3.1 模型。

  总之,未来一个普通开发者就能在办公桌上完成过去只有大型数据中心才能进行的 AI 研发。

  “我们希望让每一个人都能参与并塑造AI时代,”黄仁勋说。Project DIGITS 预计将于今年 5 月上市,起售价为 3000 美元(约 21978元)。它支持从 HuggingFace 到 PyTorch 等主流 AI 开发框架,可用于模型微调和日常开发。

  这个名字要是直译起来则相当霸气:“英伟达宇宙世界基础模型”。但这里的“Cosmos”是它的正式名字,即英伟达今天发布的全球首个世界基础模型Cosmos。

  “就像大语言模型让 AI 学会交谈,Cosmos 将让 AI 学会行动。”

  这个经过 2000 万小时视频训练的 AI 系统,不仅能理解物理规律,还能预测物体运动。更重要的是,Cosmos 采用开源商业许可,让任何企业都能基于这一平台开发自己的物理 AI 应用。

  通过与英伟达之前的物理仿真平台 Omniverse 深度整合,Cosmos 还能将物理仿真与 AI 生成无缝结合。“这就像给机器人创造了一个数字孪生的训练场,”黄仁勋解释说,“它们能在虚拟世界中不断练习和改进,然后再把学到的技能应用到现实世界。”

  目前已有包括丰田、Uber 在内的多家巨头开始使用 Cosmos。在现场,黄仁勋还宣布丰田将基于英伟达芯片和操作系统开发下一代新能源汽车。

  然后是上面的这张图比较有意思,最上方是“英伟达 AI 蓝图”,里面其实是各种各样不停切换的 AI Agents。基于此,英伟达发布了一系列关键工具。首先是基于 Meta Llama 的 Nemotron 模型系列。这套模型分为三个层次:针对边缘设备优化的 Nano 系列,开箱即用的 Super 系列,以及可用作“教师模型”的 Ultra 系列。每个层次都针对不一样场景进行了优化。

  值得一提的是NIM 微服务生态。英伟达联合 Black Forest Labs、Meta 等顶级开发者,针对 RTX AI PC 优化了一系列微服务,可在 Windows 11 PC 上快速部署。此外,基于 NIM 的 AI 蓝图还为开发者提供了丰富的预设工作流,比如 PDF 转播客、3D 引导生成式 AI 等。

  基于此又出了一套Cosmos Nemotron视觉语言模型。它通过英伟达的 NIM 微服务支持开发者构建能分析和响应图像及视频的智能体,应用于多个领域。这也是 Cosmos 平台走向开源的重要一步。

  “Ultra 系列不但可以评估其他模型生成的答案,还能作为知识蒸馏的基础模型。”黄仁勋说,“我们大家都希望为公司可以提供完整的 AI 开发工具链。”

  另一个重要发布是Isaac GR00T平台。这是一套专门面向人形机器人的开发工具。工程师可以戴上 Vision Pro,在虚拟环境中示范动作。系统会将这些示范动作自动扩展成海量训练数据。

  在黄仁勋看来,未来最有前景的是三类机器人:信息工作者(AI 助手)、无人驾驶汽车和人形机器人。这三者的共同点是不要重新改造现有环境,就能部署在我们为人类建造的世界中。

  “这就是机器人革命的关键,”黄仁勋说,“不是要求世界适应机器人,而是让机器人来适应我们的世界。AI Agent 可以在办公软件中工作,无人驾驶汽车可通过现有的道路系统,人形机器人则能够正常的使用为人类设计的工具和设施。”

  每一类机器人都需要三种计算机的配合:DGX 用于训练AI模型,Omniverse 创建数字孪生用于测试优化,AGX/Thor 芯片则部署在实体设备中。这个“三机战略”体现了英伟达对产业链的深刻理解。

  “我们需要在虚拟世界中进行大量测试,”黄仁勋在现场展示新一代车规级芯片 Thor 时说道,“一辆无人驾驶汽车在大多数情况下要行驶数百万英里才能遇到足够多的边缘场景。但在 Omniverse 中,我们大家可以快速生成和验证这些场景。”

  “过去训练机器人需要大量的物理实验,”黄仁勋解释说,“每个动作都可能损坏设备。有了 Isaac Groot,我们大家可以在数字孪生环境中完成 95% 的训练。”

  最后,黄仁勋做出了大胆预测:“无人驾驶革命已经到来,这很可能成为首个市值超万亿美元的机器人产业。而这仅仅是个开始,Cosmos 将为整个机器人行业带来类似 Llama 的突破。”

  30 年前,英伟达还只是做世嘉游戏卡起家的小公司。“我在丹尼斯餐厅当洗碗工时学到的勤奋、谦逊和好客精神,帮助我度过了英伟达早期的种种困难。”黄仁勋回忆道。

  如今,AI 浪潮让英伟达成为全球第二大上市公司(可能过几天就不止第二了),估值达 3.66 万亿美元。但在黄仁勋看来,这才刚刚开始。

  “ChatGPT 用了 6 年时间从 AlexNet 发展而来,”他说,“而在机器人领域,我们已具备了所有必要的技术。”

  2024 是大模型技术惊心动魄的一年,技术上,Scaling Law 撞墙、预训练终结、真开源 vs 假开源之声不绝于耳,向量数据库、RAG 不约而同地直指数据,大干多模态之时,推理迎来突破。但我们依然困惑良多,比如 GenAI 应用爆发何时到来?Agent 是 AGI 应用的突破口吗?1 月 8 日(星期三)晚 19:30-21:00,CSDN 视频号直播间,欢迎深度交流共同迎接 2025。

上一篇:英国伯明翰大学Pham教授:智能系统三定律 下一篇:英伟达黄仁勋在CES 2025 演讲中揭示物理人工智能的未来趋势

推荐资讯-hth下载地址