百家乐官方网站永久网址【363050.com】

百家乐官方网站

zhenren真人娱乐

您当前所在位置: 主页 > 真人娱乐 > 百家乐

百家乐- 百家乐官方网站- APP下载黄仁勋新年首秀:大谈物理AI、盛赞开源模型、不发新品GPU

发布日期:2026-01-08  浏览次数:

  百家乐,百家乐官方网站,百家乐APP下载/百家乐是最喜欢和最吸引人的娱乐之一(永久网址:363050.com)本站提供百家乐游戏,在线百家乐,百家乐平台,百家乐试玩,百家乐官方网站。百家乐官网链接,百家乐app下载,百家乐的玩法,百家乐赔率,百家乐技巧,百家乐公式,百家乐打法,百家乐稳赢技巧,21点,德州扑克,老虎机,快三,pk10,时时彩,北京赛车,欢迎注册发财

百家乐- 百家乐官方网站- 百家乐APP下载黄仁勋新年首秀:大谈物理AI、盛赞开源模型、不发新品GPU

  这场号称“科技春晚”的国际消费电子产品展览会(CES 2026)在近年来成为了英伟达新年战略发布的核心窗口。

  不过,黄仁勋今年却没有带来新款的GPU产品。英伟达在社交平台上公告称:“(CES 2026)不会发布新款 GPU。”这打破了英伟达过去5年来的惯例。

  在这场演讲中,黄仁勋把重点放在了英伟达在物理AI领域的进展,包括自动驾驶和机器人,相关开源模型和工具等。

  “物理AI的ChatGPT 时刻已然到来,机器开始具备理解真实世界、推理并付诸行动的能力。无人驾驶出租车将是最早受益的应用之一。”黄仁勋说。

  在CES上,黄仁勋推出了名为Alpamayo的开源AI模型、仿真工具及数据集,目的是推动推理型辅助驾驶汽车开发。

  据介绍,智能汽车要在复杂多变的路况下安全跑起来,有个绕不开的难题——那些极少出现但又极其复杂的“长尾场景”。传统辅助驾驶系统把“感知环境”和“规划路线”拆成两个独立模块,遇到突发状况时,很容易因为衔接问题限制系统能力。虽然现在“端到端学习”技术有了大突破,但要应对这些没见过的极端场景,还得靠能像人一样分析因果、安全推理的AI模型。

  而Alpamayo系列的核心,就是加入了基于“思维链”的VLA推理模型。它能让辅助驾驶系统像人思考一样,一步步分析罕见或全新的路况,不仅能提升驾驶能力,还能让决策过程清晰可解释。这对建立大家对智能汽车的信任至关重要,整套技术的安全核心则由英伟达的Halos安全系统提供支持。

  黄仁勋称,首款搭载英伟达技术的汽车将于第一季度在美国上路,第二季度在欧洲上路,下半年在亚洲上路。据透露,目前捷豹路虎、Uber、Lucid等企业均对该技术方案表达了兴趣,并希望基于推理的自动驾驶堆栈,以实现L4级自动驾驶。

  在机器人领域,英伟达发布了两款全新的开源模型和配套数据——NVIDIA Cosmos和GR00T,专门用于机器人的学习和推理;同时推出了用于机器人性能评估的Isaac Lab-Arena,以及一套从边缘设备到云端的计算框架 OSMO,这些工具的核心目的都是简化机器人的训练流程。同时,英伟达和 Hugging Face合作,把英伟达的 Isaac 开源模型和相关库整合到了LeRobot项目里,以加快开源机器人开发社区的发展速度。此外,由英伟达Blackwell架构驱动的Jetson T4000模组已经发售,这款模组能把设备的能效和AI算力提升到原来的4倍。

  “机器人开发的ChatGPT时刻已然到来。物理 AI 领域取得了突破性进展,这类模型具备理解现实世界、推理和行动规划的能力,持续催生全新的应用场景。”这是黄仁勋在演讲中提到的另一个“ChatGPT时刻”。

  可以看出,无论是在自动驾驶还是在机器人领域,英伟达都开源了多个模型、数据和工具。黄仁勋在演讲时也谈到,2025年最重要的事情之一就是开放模型取得进步,他展示了Kimi K2、DeepSeek V3.2、Qwen等开源大模型。

  黄仁勋表示,虽然相比最领先的AI大模型,开源模型落后了大概6个月,但这个距离正在缩短。“开放模型去年真的起飞了。AI模型现在能推理的能力强大得不可思议。”他说。

  黄仁勋还提到了AI技术高速发展后带来的存储瓶颈问题。如今,AI模型的规模已经扩展到数万亿参数,推理过程也变得更加复杂,需要多步骤完成。在这个过程中,模型会产生大量的上下文数据,这些数据通常以键值(KV)缓存的形式存在。但是键值(KV)缓存无法长期存放在GPU当中。如果强行存放,会成为多智能体系统实时推理的性能瓶颈,拖慢整体运行速度。因此,AI原生应用迫切需要一种全新的、可扩展的基础设施,来专门存储和共享这些数据。

  因此,英伟达发布了由BlueField-4驱动的推理上下文内存存储平台(Inference Context Memory Storage Platform),其核心作用,就是通过扩展 GPU 的内存容量,为上下文记忆提供专属的存储基础设施,同时实现跨节点的高速数据共享。相比传统存储方案,它能将每秒处理的token数量和能效提升最高5倍。

  虽然没有发布新款的GPU,但黄仁勋还是下一代计算架构Rubin的技术细节和关键进展。

  黄仁勋表示,Rubin已全面投产,基于Rubin的产品将于2026年下半年通过合作伙伴上市。亚马逊的AWS、谷歌云、微软和甲骨文云在2026年将率先部署基于Vera Rubin的实例,云合作伙伴CoreWeave、Lambda、Nebius和Nscale也将跟进。返回搜狐,查看更多

在线客服
服务热线

服务热线

13988888888

微信咨询
返回顶部
X

截屏,微信识别二维码

微信号:weixin88888

(点击微信号复制,添加好友)

打开微信

微信号已复制,请打开微信添加咨询详情!