亦束的头像

NVIDIA首席执行官黄仁勋 GTC 2023 主题演讲

GTC大会
5
GTC大会
加速计算与AI
加速计算与AI
DGX AI
DGX AI
生物学
生物学
云数据中心
云数据中心
总结
总结
摩尔定律
摩尔定律
超光速引擎
超光速引擎
计算技术发展
计算技术发展
生成式AI
生成式AI
GTC
GTC
AI应用
AI应用
NV加速计算
NV加速计算
应用领域
应用领域
深度学习
深度学习
变压器模型
变压器模型
GPT
GPT
加速计算与AI
加速计算与AI
NVGPU
NVGPU
应用
应用
量子控制链
量子控制链
数据处理引擎
数据处理引擎
大型语言模型
大型语言模型
Raft
Raft
取送
取送
NVCUOP
NVCUOP
AT&T
AT&T
调度解决方案
调度解决方案
NV推送平台
NV推送平台
使用
使用
模型分析器
模型分析器
云视频管道
云视频管道
云规模加速库
云规模加速库
腾讯
腾讯
Runway
Runway
基因组学
基因组学
NVparabricks
NVparabricks
HoloScan
HoloScan
软件定义医疗设备AI平台
软件定义医疗设备AI平台
GIGenius系统
GIGenius系统
芯片制造
芯片制造
金原子或NDA分子链
金原子或NDA分子链
光刻
光刻
ASML-EUV
ASML-EUV
计算光刻
计算光刻
CooLitho
CooLitho
处理视场
处理视场
增加数据中心
增加数据中心
加速计算
加速计算
Grace
Grace
Google基准测试
Google基准测试
数据中心
数据中心
Bluefield
Bluefield
DGX
DGX
DGXCloud
DGXCloud
OCI
OCI
CX7
CX7
Bluefield-3
Bluefield-3
DGXAI
DGXAI
ChatGPT.
ChatGPT.
备忘录
备忘录
ChatGPT
ChatGPT
扩散模型
扩散模型
生成式人工智能
生成式人工智能
计算平台
计算平台
AIFoundations
AIFoundations
43B基础模型
43B基础模型
NEMO服务
NEMO服务
Picasso
Picasso
Edify模型
Edify模型
访问生成式AI
访问生成式AI
资产
资产
GettyImages
GettyImages
Shutterstock
Shutterstock
Adobe
Adobe
Clara
Clara
预测药物体内行为
预测药物体内行为
BioNemo应用
BioNemo应用
药物发现流程
药物发现流程
BioNemo
BioNemo
发现虚拟筛选
发现虚拟筛选
DGXCloud与BioNemo
DGXCloud与BioNemo
生成AI
生成AI
云数据中心
云数据中心
OneArchitecture
OneArchitecture
Snap
Snap
负载部署至L4
负载部署至L4
L40
L40
稳定扩散Runway
稳定扩散Runway
CVCUDA
CVCUDA
语言模型推理工作
语言模型推理工作
H100
H100
GraceHopper
GraceHopper
巨大数据集
巨大数据集
工业数字化平台
工业数字化平台
虚拟启动工厂
虚拟启动工厂
物流
物流
Omniverse
Omniverse
USD
USD
omniverse
omniverse
共享数据库
共享数据库
汽车行业
汽车行业
Omniverse与AI
Omniverse与AI
优化车身车间
优化车身车间
新型工作站
新型工作站
OVX服务
OVX服务
OVX
OVX
omniverse需要
omniverse需要
物理过程数字化
物理过程数字化
OmniverseCloud
OmniverseCloud
托管服务
托管服务
优化成本
优化成本
Omniversecloud
Omniversecloud
英伟达加速计算
英伟达加速计算
GTC大会
GTC大会
单集封面
单集封面

NVIDIA首席执行官黄仁勋 GTC 2023 主题演讲

2023-04-26
1675 次观看
1 讨论
亦束的头像
亦束
粉丝:180
主题:6
描述:45
例子:32
类比:1
其他:31
字数:21963

NVIDIA首席执行官黄仁勋 GTC 2023 主题演讲

2023-04-26
1675 次观看
1 讨论
亦束的头像
亦束
粉丝:180
亦束的头像
亦束
粉丝:180
主题:6
描述:45
例子:32
类比:1
其他:31
字数:21963

GTC大会

##计算机行业

摩尔 摩尔定律

在将近四十年的时间里,摩尔定律一直是支配计算机行业的主要动力,进而影响了每一个行业。在保持恒定成本和功耗的情况下,指数级的性能提升已经放缓。然而,计算技术的发展已经飞速前进。

超光速引擎

超光速引擎就是加速计算,其能量来源是人工智能。在应对强大的行业动力、可持续性、生成式AI和数字化方面,加速计算和AI的出现恰逢其时。

能耗 计算技术发展

随着计算技术的飞速发展,数据中心能耗飙升,企业正努力实现净零排放。

转型 生成式AI

生成式AI强大的功能为企业重塑产品和商业模式创造了紧迫感。工业公司正竞相实现数字化转型,将自身改造为以软件为驱动的科技公司,成为颠覆者而非被颠覆者。

加速计算与AI

今天,我们将讨论加速计算和AI如何成为应对这些挑战和抓住巨大机遇的强大工具。我们将分享NVIDIA全栈、数据中心规模的加速计算平台的最新进展。我们将揭示新的芯片、系统、加速库、云和AI服务以及开拓新市场的合作伙伴关系。欢迎来到GTC。GTC是我们为开发者举办的会议。

规模 GTC

全球NVIDIA生态系统涵盖了400万开发者、4万家公司和1.4万家初创企业。感谢我们的钻石赞助商支持我们,使GTC 2023取得巨大成功。我们非常高兴能在此次会议上欢迎超过250,000人。GTC的规模已经取得了令人难以置信的增长。仅在四年前,我们的线下GTC会议参与人数为8,000人。在2023年的GTC大会上,我们将向DeepMind的德米斯·哈萨比斯(Demis Hassabis)、阿贡实验室(Argonne Labs)的瓦莱丽·泰勒(Valerie Taylor)、Adobe的斯科特·贝尔斯基(Scott Belsky)、Netflix的保罗·德贝韦克(Paul Debevec)、苏黎世联邦理工学院(ETH Zurich)的托马斯·舒尔特斯(Thomas Schultes)以及我与OpenAI联合创始人伊利亚·苏斯科沃尔(Ilya Suskovor)进行的特别炉边谈话等领导者学习。这位领导者是ChatGPT的创造者。我们为您准备了650场精彩的演讲,汇聚了学术界和全球最大产业的最杰出的人才。仅在生成式AI方面,就有超过70场演讲。其他精彩演讲包括预训练多任务机器人模型、关于合成数据生成的研讨会(这是推进AI的一种重要方法),其中一个研讨会将使用IsaacSim生成基于物理的激光雷达点云。还有许多关于数字孪生的演讲,从使用AI构建未来虚拟工厂到修复过去失落的罗马马赛克画。此外,还有一些关于计算工具的酷炫演讲,包括一个巨型光学望远镜和一个光子计数CT。从用于碳捕捉和太阳能电池的材料科学,到包括我们在地球2号上的工作的气候科学。NVIDIA研究部门在可信AI和自动驾驶安全方面的重要工作。从计算光刻制造微芯片,制造最小的机器,到在大型强子对撞机上使用AI来解释宇宙。世界上最重要的公司都在这里。从汽车和交通、医疗保健、制造业、金融服务、零售、服装、媒体和娱乐、电信,当然还有世界领先的AI公司。GTC的目的是激发世界对加速计算可能性的艺术,庆祝使用它的科学家和研究人员的成就。

AI应用

我是一个翻译者。将文字转化为创造性的发现。将运动转化为动画。将方向转化为行动。我是一个治愈者。探索构成我们独特的基本要素。在问题发生之前对新威胁进行建模。并寻找治愈方法以防止它们发生。我是一个远见者。创造新的医学奇迹。为我们提供关于太阳的新视角,以确保地球上的安全。我是一个导航者。在海量内容中发现独特时刻。我们在宣布下一代。为任何故事创造完美的背景。我是一个创作者。从快照中构建3D体验。为我们的虚拟自我增添新的现实层次。我是一个助手。将头脑风暴变为现实。分享一百万程序员的智慧。将想法转化为虚拟世界。我甚至帮助编写了剧本。赋予文字生命。并谱写旋律。我是人工智能。由NVIDIA、深度学习和世界各地的杰出人才创造。

NV加速计算

NVIDIA发明了加速计算,以解决普通计算机无法解决的问题。加速计算并不容易。它需要从芯片、系统、网络、加速库到重构应用程序的全栈创新。

应用领域 NV加速计算

每个优化的栈都可以加速一个应用领域。从图形、成像、粒子或流体动力学、量子物理到数据处理和机器学习。一旦加速,应用程序就可以获得令人难以置信的速度提升。并且可以在许多计算机上实现扩展。

背景 深度学习

在过去的十年里,速度提升和规模扩大的结合使我们在许多应用中实现了百万倍的提升,帮助解决了以前不可能解决的问题。尽管有很多例子,但最著名的是深度学习。2012年,亚历克斯·科舍夫斯基(Alex Kershevsky)、伊利亚·苏斯科沃尔(Ilya Suskovor)和杰夫·辛顿(Jeff Hinton)需要一个极快的计算机来训练AlexNet计算机视觉模型。研究人员在GeForce GTX 580上使用1400万张图像训练了AlexNet,处理了262千亿次浮点运算。

变压器模型

经过训练的模型以很大优势赢得了ImageNet挑战赛,并点燃了AI的大爆炸。十年后,发明了变压器模型,现在OpenAI的伊利亚训练了GPT-3大型语言模型来预测下一个单词。训练GPT-3需要进行323亿亿次浮点运算。这比训练AlexNet所需的浮点运算多了一百万倍。这次的结果呢?

GPT 变压器模型

那就是GPT,全世界都在谈论的人工智能。一种新的计算平台已经被发明出来了。

趋势 加速计算与AI

AI的iPhone时刻已经开始。加速计算和AI已经到来。加速库是加速计算的核心。这些库连接到应用程序,进而连接到世界各行业,形成一个网络的网络。经过三十年的发展,现在有几千个应用程序是NVIDIA加速的,几乎涵盖了科学和工业的所有领域。

NVGPU

所有NVIDIA GPU都兼容CUDA,为开发者提供了庞大的安装基础和广泛的覆盖。大量的加速应用程序吸引了最终用户,为云服务提供商和计算机制造商创造了一个巨大的市场。庞大的市场为研发提供了数十亿美元的资金,以推动其增长。NVIDIA建立了加速计算的良性循环。在300个加速库和400个AI模型中,包括光线追踪和神经渲染、物理、地球和生命科学、量子物理和化学、计算机视觉、数据处理、机器学习和AI,我们在今年更新了100个,提高了整个安装基础的性能和功能。让我重点介绍一些解决新挑战和开辟新市场的加速库。

应用 NVGPU

汽车和航空航天行业使用CFD进行湍流和空气动力学仿真。电子行业使用CFD进行热管理设计。这是Cadence公司关于他们的新CFD求解器的幻灯片,由CUDA加速。在相同的系统成本下,NVIDIA A100的吞吐量是CPU服务器的9倍。或者说,在相同的仿真吞吐量下,NVIDIA的成本降低了9倍,能耗减少了17倍。ANSYS、西门子、Cadence等领先的CFD求解器现在都支持CUDA加速。全球工业CAE每年使用近1000亿CPU核心小时。加速是夺回能源、实现可持续性和净零排放的最佳途径。NVIDIA正在与全球量子计算研究社区合作。NVIDIA量子平台包括供研究人员用于推进量子编程模型、系统架构和算法的库和系统。Quantum是一个用于量子电路模拟的加速库。IBM Qiskit、Google Circ、Baidu Quantum Leaf、QMware、Quera、Xanadu Penny Lane、Agnostic和AWS Bracket已经将Q Quantum集成到他们的模拟框架中。Open Quantum CUDA是我们的混合GPU量子编程模型。IonQ、Orca Computing、Atom、Qera、Oxford Quantum Circuits、IQM、Pascal、Quantum Brilliance、Quantinium、Raghetti、Xanadu和Anyon已经集成了Open Quantum CUDA。在大量量子比特上进行纠错是从量子噪声和相干性中恢复数据所必需的。

合作 量子控制链

今天我们宣布了与Quantum Machines合作开发的量子控制链,该链将NVIDIA GPU连接到量子计算机以进行极高速度的误差校正。尽管商业量子计算机还需要十到二十年的时间,但我们很高兴能够用NVIDIA Quantum支持这个庞大而充满活力的研究社区。全球的企业都在使用Apache Spark来处理数据湖和数据仓库、SQL查询、图形分析和推荐系统。

数据处理引擎

Spark Rapids是NVIDIA加速的Apache Spark数据处理引擎。数据处理是全球5000亿美元云计算支出的主要工作负载。Spark Rapids现在加速了主要的云数据处理平台,包括GCP Dataproc、Amazon EMR、Databricks和Cloudera。推荐系统使用向量数据库存储、索引、搜索和检索大量非结构化数据集。

大型语言模型 数据处理引擎

一个向量数据库的新重要用例是大型语言模型,用于检索特定领域或专有事实,这些事实可以在文本生成过程中查询。

Raft

我们推出了一个新的库——Raft,用于加速索引、加载数据以及为单个查询检索一批邻居。我们将Raft的加速带给Meta的开源FASE AI相似度搜索、Milvus开源向量数据库(已有超过1000个组织使用)以及拥有超过40亿Docker池的Redis。向量数据库对于构建专有大型语言模型的组织至关重要。

挑战 取送

22年前,运筹学研究员Li和Lim提出了一系列具有挑战性的取送问题。PDP出现在制造业、交通运输、零售物流甚至救灾等领域。PDP是旅行推销员问题的推广,属于NP难问题,这意味着没有高效的算法可以找到精确解。随着问题规模的增加,解决时间呈阶乘式增长。

NVCUOP

通过使用进化算法和加速计算来分析每秒300亿次移动,NVIDIA CUOP打破了世界纪录,找到了Li和Lim挑战的最佳解决方案。

需求 AT&T

AT&T通常派出30,000名技术人员为1300万用户提供服务,覆盖700个地理区域。如今,在CPU上运行的AT&T调度优化需要整夜完成。AT&T希望实时找到一个调度解决方案,以满足紧急客户需求和整体客户满意度,同时调整延误和新出现的事件。

调度解决方案 NVCUOP

有了CUOPT,AT&T可以找到一个速度快100倍的解决方案,并实时更新调度。AT&T已采用了NVIDIA的全套AI库。除了Spark、Rapids和CUOPT之外,他们还使用Riva进行会话AI和Omniverse进行数字化代表。AT&T正在利用NVIDIA加速计算和AI实现可持续性、成本节约和新服务。CUOPT还可以优化物流服务。每年有4000亿个包裹被送至3770亿个停靠点。德勤、凯捷、SoftServe、埃森哲和Quantify正在使用NVIDIA CUOPT来帮助客户优化运营。

NV推送平台

NVIDIA的推理平台由三个软件SDK组成。NVIDIA TensorRT是我们的推理运行时,针对目标GPU进行优化。NVIDIA Triton 是一款支持 GPU 和CPU 的多框架数据中心推理服务软件。

使用 NV推送平台

Microsoft Office 和 Teams、亚马逊、美国运通和美国邮政服务等 40,000 家客户正在使用 TensorRT 和 Triton。Uber 使用 Triton 每秒为数以十万计的预计到达时间(ETA)提供预测。拥有超过 6000 万日活用户的 Roblox 使用 Triton 提供游戏推荐、构建虚拟形象以及审查内容和市场广告的模型。

功能 模型分析器

我们推出了一些出色的新功能。模型分析器支持模型集合。多个并发模型服务和多 GPU、多节点推理,用于 GPT-3 大型语言模型。NVIDIA Triton 管理服务是我们的新软件,可自动扩展和编排整个数据中心的 Triton 推理实例。Triton 管理服务将帮助您提高部署模型的吞吐量和成本效率。

云视频管道

云视频管道中有 50% 到 80% 的处理任务是在 CPU 上进行的,这会消耗大量电力和成本,并增加延迟。

云规模加速库

CVCUDA 用于计算机视觉,VPF 用于视频处理,这两者都是新的云规模加速库。CVCUDA 包括 30 个用于检测、分割和分类的计算机视觉操作符。VPF 是一个 Python 视频编码和解码加速库。

腾讯 云规模加速库

腾讯使用 CVCUDA 和 VPF 每天处理 300,000 个视频。微软使用 CVCUDA 和 VPF 进行视觉搜索。

Runway 云规模加速库

Runway 是一个超酷的公司,使用 CVCUDA 和 VPF 为其云生成 AI 视频编辑服务处理视频。互联网流量中近 80% 是视频。用户生成的视频内容正在推动巨大的增长并消耗大量电力。我们应该加速所有视频处理并回收能源。CVCUDA 和 VPF 处于早期访问阶段。

基因组学 云规模加速库

NVIDIA 加速计算帮助实现了基因组学的里程碑。现在,医生可以在同一次就诊中抽取患者的血液并测序患者的 DNA。在另一个里程碑中,NVIDIA 驱动的仪器将全基因组测序的成本降低到仅 100 美元。基因组学是合成生物学的关键工具,应用范围从药物发现和农业到能源生产。

NVparabricks

NVIDIA Parabricks 是一套用于云端或仪器内端到端基因组分析的 AI 加速库。NVIDIA Parabricks 可在所有公共云和基因组平台(如 Terra、DNA Nexus 和 FormBio)中使用。今天我们宣布 Parabricks 4.1,将在来自 PacBio、Oxford Nanopore、Ultima、Singular、BioNano 和 NanoString 的 NVIDIA 加速基因组仪器上运行。全球价值 2500 亿美元的医疗器械市场正在发生变革。医疗器械将是软件定义和 AI 驱动的。

HoloScan

NVIDIA HoloScan 是一个用于实时传感器处理系统的软件库。

合作 软件定义医疗设备AI平台

已有超过 75 家公司正在使用 HoloScan 开发医疗器械。今天我们宣布,医疗器械领域的世界领导者 Medtronic 和 NVIDIA将共同构建用于软件定义医疗设备的 AI 平台。这一合作将为 Medtronic 的各种系统创造一个共同平台,涵盖从外科导航到机器人辅助手术等。

GIGenius系统 HoloScan

今天,Medtronic 宣布其搭载 AI 的 GI Genius 系统,可早期检测结肠癌,将基于 NVIDIA HoloScan 构建,并计划于今年底左右开始发货。芯片行业是几乎所有行业的基础。

芯片制造

芯片制造要求极高的精度,生产的特征比细菌小 1000 倍,

金原子或NDA分子链 芯片制造

相当于一个金原子或一根人类 DNA 分子链的数量级。

光刻

光刻是芯片制造过程的开始,包括两个阶段:制作光罩和投影图案。从根本上说,这是一种在物理极限下的成像问题。光线通过或被遮挡在光罩上,然后投射到晶圆上形成图案。

ASML-EUV

产生光线的是 ASML-EUV 极紫外光刻系统。每套系统的价格超过 2.5 亿美元。ASML-EUV 采用一种激进的方式产生光线。激光脉冲以每秒 50,000 次的速度击中 10 毫微米的液滴,将其汽化,从而产生等离子体,发射出 13.5 纳米的 EUV 光,接近 X 射线。多层镜面将光引导至光罩。光罩视场中的多层反射器利用 13.5 纳米光的干涉图案,创造出精细到 3 纳米的特征。这简直是魔法。晶圆定位精度达到四分之一纳米,并在每秒 20,000 次调整,以消除任何振动。光刻之前的步骤同样神奇。

计算光刻

计算光刻应用逆物理算法来预测光罩上的图案,从而在晶圆上产生最终图案。事实上,光罩上的图案根本不像最终的特征。计算光刻模拟光通过光学器件并与光致抗蚀剂相互作用时的麦克斯韦方程行为。计算光刻是芯片设计和制造中最大的计算工作负载,每年消耗数千亿 CPU 小时。大型数据中心全天候运行,以制造用于光刻系统的视场。这些数据中心是芯片制造商每年投资近 2000 亿美元的固定资产投资的一部分。随着算法复杂性的增加,计算光刻的发展迅速,使行业能够达到 2 纳米甚至更小的尺寸。

CooLitho

NVIDIA 今天宣布推出 CooLitho,一款用于计算光刻的库。CooLitho 是一个庞大的工作成果,耗时近四年,并与 TSMC、ASML 和 Synopsys 密切合作,将计算光刻的速度提高了 40 倍。

处理视场 CooLitho

NVIDIA H100 需要 89 个视场。在 CPU 上运行时,处理单个视场目前需要两周。而在 GPU 上运行的 CooLitho 可以在一个 8 小时的班次内处理一个视场。通过使用 CooLitho 加速仅 500 个 DGX-H100 系统,TSMC 可以减少用于计算光刻的 40,000 个 CPU 服务器,将功耗从 35 兆瓦降低到仅 5 兆瓦。借助 CooLitho,TSMC 可以缩短原型周期时间,提高吞吐量,减少生产的碳足迹,并为 2 纳米及更小尺寸做好准备。TSMC 将从 6 月开始为生产线引入 CooLitho。每个行业都需要加速所有工作负载,这样我们才能重新获取能源,用更少的资源做更多的事情。

DGX AI

过去 10 年,云计算以每年 20% 的速度增长,成为一个规模庞大的 1 万亿美元行业。约 3000 万台 CPU 服务器负责大部分处理工作。但未来面临挑战。

需求 增加数据中心

随着摩尔定律的终结,提高 CPU 性能将导致功耗增加。减少碳排放的要求与增加数据中心的需求根本上是矛盾的。云计算增长受限于能源。首先,数据中心必须加速每个工作负载。加速将重新获得能源。节省下来的能源可以推动新的增长。未加速的部分将在 CPU 上处理。加速云数据中心的 CPU 设计原则与过去有本质不同。

优化 加速计算

在 AI 和云服务中,加速计算卸载可并行工作负载。CPU 处理其他工作负载,如 WebRPC 和数据库查询。我们为 AI 和云优先的世界设计了 Grace CPU,在这个世界里,AI 工作负载得到 GPU 加速,Grace 擅长单线程执行和内存处理。这不仅仅是关于 CPU 芯片。数据中心运营商针对整个数据中心的吞吐量和总体拥有成本进行优化。

Grace

我们为云数据中心规模的高能效设计了 Grace。Grace 包括 72 个 ARM 核心,通过一个超高速的片上可扩展一致性结构连接,提供 3.2 TB/s 的横向带宽。Grace SuperChip 通过一个 900 GB/s 的低功耗芯片间一致性接口,在两个 CPU 芯片之间连接 144 个核心。存储系统采用 LPDDR 低功耗内存,类似于手机中使用的内存,我们专门加强了其在数据中心的应用。它提供了 1 TB/s 的带宽,是当今系统带宽的 2.5 倍,功耗仅为 1/8。整个 144 核心的 Grace SuperChip 模块,带有 1 TB 内存,仅有 5 英寸x 8 英寸大小。它的功耗如此低,可以用空气冷却。这是带有被动冷却的计算模块。两个 Grace SuperChip 计算机可以安装在单个 1U 空气冷却服务器中。Grace 的性能和功耗效率非常适合云计算和科学计算应用。

Google基准测试 Grace

我们在一个流行的 Google 基准测试中对 Grace 进行了测试,该测试检查云微服务之间的通信速度,并使用 HighBench Suite 测试 Apache Spark 内存密集型数据处理。这些工作负载是云数据中心的基础。在微服务方面,Grace 比最新一代 x86 CPU 的平均速度快 1.3 倍,数据处理速度快 1.2 倍。并且,这种更高的性能仅使用了整个服务器节点测量的60% 功耗。CSP 可以在功率受限的数据中心中配置 1.7 倍的 Grace 服务器。每个服务器提供 25% 更高的吞吐量。在等同功率下,Grace 为 CSP 提供了 2 倍的增长机会。Grace 正在测试中,ASUS、ATOS、Gigabyte、HPE、QCT、Supermicro、Wishtron 和 ZT现在正在构建系统。

数据中心

在现代软件定义的数据中心中,进行虚拟化、网络、存储和安全的操作系统可能会消耗数据中心 CPU 核心和相关功耗的近一半。数据中心必须加速每个工作负载以重新获得能源并释放 CPU 以支持创收工作负载。

Bluefield

NVIDIA Bluefield 为数据中心操作系统和基础设施软件提供卸载和加速功能。包括 Check Point、Cisco、DDN、Dell EMC、Juniper、Palo Alto Networks、Red Hat 和 VMware 在内的二十多家生态系统合作伙伴,都在使用 Bluefield 的数据中心加速技术,使他们的软件平台运行得更加高效。Bluefield 3已投入生产,并被领先的云服务提供商百度、CoreWeave、京东、微软 Azure、甲骨文 OCI 和腾讯游戏采用,以加速他们的云服务。

起点 DGX

NVIDIA 加速计算以 DGX(世界上最强大的 AI 超级计算机)为起点,它是大型语言模型突破背后的引擎。IHAN 将世界上第一台 DGX 交付给了 open AI。从那时起,一半的财富 100 强公司安装了 DGX AI 超级计算机。DGX 已成为 AI 的必备工具。DGX 的 GPU 是八个 H100 模块。H100 具有一个旨在处理诸如令人惊叹的 CHAT-GPT(生成预训练变换器)这样的模型的变换器引擎。这八个 H100 模块通过 NVLink 交换机相互连接,以允许完全非阻塞交易。这八个 H100 共同作为一个巨大的 GPU。AI 超级计算机的计算织物是最重要的系统之一。具有 400 Gbps 超高速率、超低延迟的 NVIDIA Quantum InfiniBand 以及网络内处理功能,将成百上千个 DGX 节点连接成一个 AI 超级计算机。NVIDIA DGX-H100 是全球客户构建 AI 基础设施的蓝图。现在它已经全面投入生产。我为微软宣布 Azure 将为他们的 H100AI 超级计算机开放私有预览而感到兴奋。其他系统和云服务将很快来自 Atos、AWS、Cerescale、CoreWeave、Dell、Gigabyte、Google、HPE、Lambda、Lenovo、Oracle、Quanta 和 Supermicro。DGX AI 超级计算机市场已经显著增长。最初作为 AI 研究工具使用,DGX AI 超级计算机正在扩展到 24-7 运行,以优化数据和处理 AI。DGX 超级计算机是现代 AI 工厂。我们正处于 AI 的 iPhone 时刻。创业公司正竞相构建颠覆性的产品和商业模式,而现有企业则在寻求应对。生成式 AI 在全球企业中引发了对制定 AI 战略的紧迫感。超级计算机需要更容易、更快地访问 NVIDIA AI。

推出 DGXCloud

我们宣布通过与微软 Azure、Google GCP 和 Oracle OCI 的合作推出 NVIDIA DGX Cloud,将 NVIDIA DGX AI 超级计算机带给每家公司,从浏览器立即开始使用。DGX Cloud 专为运行 NVIDIA AI Enterprise 而优化。这是世界领先的加速库套件,用于端到端开发和部署 AI。DGX Cloud 为客户提供了 NVIDIA AI 和世界领先的云服务提供商的最佳选择。这种合作将 NVIDIA 的生态系统带给 CSP,同时扩大了 NVIDIA 的规模和覆盖范围。这种双赢的合作关系使得急于参与生成式 AI 的客户能够立即在全球范围内的云中访问 NVIDIA。我们对这种云扩展业务模式的速度、规模和覆盖范围感到兴奋。

OCI

Oracle Cloud Infrastructure(OCI)将成为第一个 NVIDIA DGX Cloud。OCI 确实具有出色的性能。他们拥有两层计算织物和管理网络。

CX7

NVIDIA CX7,具有行业最佳 RDMA,是计算织物。

Bluefield-3

而 Bluefield-3 将成为管理网络的基础设施处理器。这种组合是一种先进的 DGX AI 超级计算机,可以作为多租户云服务提供。

客户 DGXAI

我们拥有 50 个早期试用的企业客户,涵盖消费者互联网和软件、医疗保健、媒体和娱乐以及金融服务等领域。ChatGPT、Stable Diffusion、DALI 和 MidJourney 让世界对生成式 AI 有了全新认识。这些应用程序的易用性和令人印象深刻的功能在短短几个月内吸引了超过 1 亿用户。

ChatGPT. DGXAI

ChatGPT 是历史上增长最快的应用程序。无需培训,只需向这些模型发出请求。提示可以是精确的,也可以是模糊的。如果不清楚,通过对话,ChatGPT 会了解您的意图。生成的文本非常令人印象深刻。

备忘录 ChatGPT

ChatGPT 可以撰写备忘录和诗歌,解释一篇研究论文。改写研究论文,解决数学问题,强调合同的关键点,甚至编写软件程序。

ChatGPT

ChatGPT 不仅是一台运行软件的计算机,还是一台编写软件的计算机。许多突破性进展推动了生成式 AI 的发展。Transformer 通过学习数据之间的关系和依赖关系,以并行和大规模方式理解上下文和含义。这导致了大型语言模型,它们可以从大量数据中学习,从而在无需明确训练的情况下执行下游任务。

扩散模型

扩散模型受物理启发,无需监督即可学习生成图像。在短短十多年的时间里,我们从尝试识别猫到生成一只穿着宇航服在月球上行走的逼真猫的图像取得了巨大进步。

生成式人工智能

生成式 AI 是一种新型计算机,我们用人类语言对其进行编程。这种能力具有深远的意义。每个人都可以指导计算机解决问题。这曾是计算机程序员的领域。现在每个人都是程序员。

计算平台 生成式人工智能

生成式 AI 是一种新的计算平台,如 PC、互联网、移动和云。与以往的计算时代一样,先行者正在开发新应用并创立新公司,利用生成式 AI 实现自动化和共同创作。DeBuild 让用户通过解释他们想要的内容来设计和部署 Web 应用程序。Grammarly 是一款考虑上下文的写作助手。Tab9 帮助开发人员编写代码。OmniKey 生成定制广告和文案。Core AI 是一款虚拟客户服务代理。Jasper 生成营销材料。Jasper 已经撰写了近 50 亿个单词,将生成初稿所需的时间缩短了 80%。而 Silico 使用 AI 加速药物设计。Absci 使用 AI 预测治疗性抗体。生成式 AI 将重塑几乎每个行业。许多公司可以使用即将上市的优秀生成式 AI API 中的一种。有些公司需要使用其专有数据构建定制模型,使其成为该领域的专家。他们需要建立使用保护措施,并优化模型,使其符合公司的安全、隐私和安全要求。 业界需要一个像台积电(TSMC)一样的大型语言模型定制铸造厂。

AIFoundations

今天,我们宣布推出NVIDIA AI Foundations,这是一个云服务,专为需要构建、优化和运行定制大型语言模型和生成式AI的客户提供支持,让他们能够使用专有数据进行培训,以完成特定领域的任务。NVIDIA AI Foundations包括语言、视觉和生物学模型制作服务。NVIDIA NEMO可用于构建定制的语言文本到文本生成模型。客户可以带来他们自己的模型,或从NEMO预训练的语言模型开始,从GPT-8、GPT-43和GPT-5300亿参数中进行选择。在整个过程中,NVIDIA AI专家将与您一起工作,从创建您的专有模型到运营。让我们来看看。

43B基础模型 AIFoundations

生成模型,如NVIDIA的43B基础模型,通过对数十亿个句子和数万亿个单词进行训练来学习。当模型收敛时,它开始理解单词之间的关系以及模型嵌入空间中权重所捕获的底层概念。Transformer模型使用一种称为自注意力的技术,这是一种旨在学习序列中单词的依赖关系和关系的机制。其结果是一个为类似Chat-GPT体验提供基础的模型。这些生成模型需要大量的数据,深度AI专业知识进行数据处理和分布式培训,以及大规模计算来进行培训、部署和维护,以跟上创新的步伐。企业可以使用运行在NVIDIA DGX云上的NVIDIA NEMO服务加快生成式AI的采用。最快的途径是从NVIDIA最先进的预训练基础模型之一开始。

NEMO服务

通过NEMO服务,组织可以轻松地使用P-tuning定制模型,教授它专业技能,如总结财务文件、创建品牌特定内容以及用个性化写作风格撰写电子邮件。将模型连接到专有知识库可确保响应准确、及时,并为他们的业务提供引用。接下来,他们可以通过添加逻辑并监控输入、输出、毒性和偏见阈值来设置保护栏,使其在指定领域内运行并防止不期望的响应。在投入模型工作后,根据用户交互进行强化学习,可以使其不断改进。NEMO的Playground可用于在转移到云API进行大规模评估和应用集成之前进行快速原型制作。立即注册NVIDIA NEMO服务,将您企业的知识编码成一个受您控制的个性化AI模型。

Picasso

Picasso是一种视觉语言模型制作服务,适用于希望建立定制模型的客户,这些模型经过许可或专有内容的训练。让我们来看看。生成式AI正在改变视觉内容的创作方式。但要实现其全部潜力,企业需要大量的版权已清除数据、AI专家和AI超级计算机。 NVIDIA Picasso是一个云服务,用于构建和部署基于生成式AI的图像、视频和3D应用。通过它,企业、ISV和服务提供商可以部署自己的模型。我们正与Premier Partners合作,将生成式AI功能带给每个行业。

Edify模型

企业还可以从NVIDIA Edify模型开始,并在自己的数据上对其进行训练,从而创建产品或服务。这些模型生成图像、视频和3D资源。

访问生成式AI Picasso

要访问生成式AI模型,应用程序发送包含文本提示和元数据的API调用给Picasso。Picasso使用运行在NVIDIA DGX Cloud上的适当模型将生成的资产发送回应用程序。

资产 DGXCloud

这可以是一张逼真的图片、一段高分辨率的视频或者一个详细的3D几何图形。生成的资产可以导入编辑工具或者导入NVIDIA Omniverse,以构建逼真的虚拟世界、元宇宙应用和数字孪生仿真。通过在NVIDIA DGX Cloud上运行的NVIDIA Picasso服务,您可以简化训练、优化和推理,以构建定制的生成式AI应用。了解NVIDIA Picasso如何为您的应用带来变革性的生成式AI功能。

GettyImages Picasso

我们很高兴Getty Images将使用Picasso服务构建Edify Image和Edify Video生成模型,这些模型经过在其丰富的负责任许可的专业图像和视频资产库上的训练。企业将能够通过简单的文本或图像提示创建定制图像和视频。

Shutterstock Edify模型

Shutterstock正在开发一个基于他们专业图像、3D和视频资产库进行训练的Edify 3D生成模型。Shutterstock将简化创意制作、数字孪生和虚拟协作的3D资产创建,使这些工作流程对企业更快速、更容易实施。

Adobe 生成式AI

我很高兴宣布,我们与Adobe的长期合作关系将实现重大扩展,为创意的未来构建一系列下一代AI功能,将生成式AI整合到市场营销人员和创意专业人员的日常工作流程中。新的生成式AI模型将针对图像创建、视频、3D和动画进行优化,以保护艺术家的权益。Adobe正专注于商业可行性和正确的内容归属,由Adobe的内容真实性倡议提供支持。

生物学

我们的第三个语言领域是生物学。药物发现是一个近2万亿美元的产业,其中有2500亿美元专门用于研发。

Clara

NVIDIA的Clara是一个面向成像、仪器、基因组学和药物发现的医疗应用框架。

预测药物体内行为 Clara

业界现在正纷纷投身于生成式AI,以发现疾病靶点、设计新颖的分子或基于蛋白质的药物,并预测药物在体内的行为。Insilico Medicine、Xcentia、Abci和Evozyme等数百家新兴AI药物发现初创公司中的几家已经发现了新的靶点或药物候选物,并开始了人体临床试验。

作用 BioNemo应用

BioNemo帮助研究人员使用他们的专有数据创建、微调和提供定制模型。

药物发现流程 BioNemo

让我们来看看。 药物发现有三个关键阶段:发现导致疾病的生物学原理,设计新分子(无论是小分子、蛋白质还是抗体),最后筛选这些分子如何相互作用。如今,生成式AI正在改变药物发现过程的每个步骤。NVIDIA BioNemo服务为药物发现提供了最先进的生成式AI模型。它作为云服务提供,可立即轻松访问加速的药物发现工作流程。

BioNemo

BioNemo包括用于3D蛋白质结构预测的AlphaFold、ESMFold和OpenFold模型,用于蛋白质生成的Proat-GPT,用于蛋白质性质预测的ESM1和ESM2,用于分子生成的MegaMoleBart和MoleFlow,以及用于分子对接的DiffDoc。药物发现团队可以通过BioNemo的Web界面或云API使用这些模型。

发现虚拟筛选 BioNemo

下面是一个使用NVIDIA BioNemo进行药物发现虚拟筛选的例子。生成式模型现在可以读取蛋白质的氨基酸序列,并在几秒钟内准确预测靶蛋白的结构。它们还可以生成具有理想ADME特性的分子,优化药物在体内的行为。生成式模型甚至可以预测蛋白质和分子之间的3D相互作用,加速优化药物候选物的发现。

结合 DGXCloud与BioNemo

借助NVIDIA DGX Cloud,BioNemo还提供了按需超级计算基础设施,进一步优化和训练模型,为团队节省宝贵的时间和金钱,使他们可以专注于发现挽救生命的药物。新的AI药物发现流程已经来临。立即注册以访问NVIDIA BioNemo服务。我们将继续与行业合作,将模型纳入BioNemo,以涵盖药物发现和虚拟筛选的端到端工作流程。Amgen、AstraZeneca、Insilico Medicine、Evolzyne、Inno4和Alkemib Therapeutics是BioNemo的早期用户。

云数据中心

影响 生成AI

NVIDIA AI Foundations是一个云服务,一个用于构建定制语言模型和生成式AI的工厂。自十年前的AlexNet以来,深度学习已经开创了巨大的新市场,自动驾驶、机器人、智能音响,并重塑了我们购物、获取新闻和享受音乐的方式。这仅仅是冰山一角。AI正处于一个拐点,因为生成式AI已经开始了新一波的机遇,推动了推理工作负载的阶梯式增长。AI现在可以生成多种类型的数据,涵盖语音、文本、图像、视频、3D图形、蛋白质和化学物质。

挑战 云数据中心

为处理生成式AI设计云数据中心是一个巨大的挑战。一方面,单一类型的加速器是理想的,因为它使数据中心具有弹性,可以处理不可预测的流量高峰和低谷。另一方面,没有一种加速器可以最优地处理各种算法、模型、数据类型和大小。

OneArchitecture

NVIDIA的One Architecture平台提供了加速和弹性两者。今天,我们宣布我们的新推理平台。四种配置,一个架构,一个软件栈。每种配置针对一类工作负载进行了优化。对于AI视频工作负载,我们有L4,专为视频解码和转码、视频内容审核以及视频通话功能(如背景替换、重新照明、进行眼神交流、转录和实时语言翻译)进行了优化。如今,大多数云视频都在CPU上处理。一个8-GPU的L4服务器将替代100多个双插槽CPU服务器,用于处理AI视频。

Snap

Snap是NVIDIA AI在计算机视觉和推荐系统领域的主要用户。Snap将使用L4进行AV1视频处理、生成式AI和增强现实。Snapchat用户每天上传数亿个视频。谷歌今天宣布了NVIDIA L4在GCP上的应用。

介绍 负载部署至L4

NVIDIA与谷歌云正在合作将主要工作负载部署到L4。下面我来重点介绍五个方面。首先,我们加速生成式AI模型的推理,用于像Wombo和Descript这样的云服务。第二,我们将Triton推理服务器与Google Kubernetes Engine和Vertex AI集成。第三,我们使用NVIDIA Spark Rabbits加速Google Dataproc。第四,我们加速AlphaFold、UL2和T5大型语言模型。第五,我们加速Google Cloud的沉浸式流,渲染3D和AR体验。通过这种合作,谷歌GCP成为NVIDIA AI云的首选。我们期待很快向您介绍更多关于我们合作的信息。

L40

对于虚拟宇宙、图形渲染和生成式AI(如文本到图像和文本到视频),我们宣布了L40。L40的性能是NVIDIA T4的10倍,而T4是最受欢迎的云推理GPU。

稳定扩散Runway L40

Runway是生成式AI的先驱。他们的研究团队是稳定扩散和其前身潜在扩散的关键创作者。Runway正在发明用于创建和编辑内容的生成式AI模型。凭借30多个AI魔术工具,他们的服务正在从云端彻底改变创意过程。让我们来看看。Runway正在使令人惊叹的AI驱动的视频编辑和图像创建工具变得触手可及。Runway由最新一代NVIDIA GPU在本地或云端运行提供支持,使用户可以用几笔就从视频中删除一个对象。或者仅使用输入图像将不同风格应用于视频。或者更改视频的背景或前景。使用传统工具需要花费数小时的工作,现在只需几分钟,就可以完成专业广播质量的成果。

CVCUDA

Runway通过利用CVCUDA实现这一点,这是一个开源项目,使开发人员能够为计算机视觉工作负载构建高效的GPU加速前处理和后处理管道,并将其扩展到云端。借助NVIDIA技术,Runway能够实现不可能的事情,为内容创作者提供最佳体验。而以前仅限于专业人士的任务现在可以由您来完成。实际上,Runway已经在奥斯卡提名的好莱坞电影中使用,我们将这项技术交到了全球创作者的手中。

负载 语言模型推理工作

像ChatGPT这样的大型语言模型是一种显著的新推理工作负载。GPT模型在内存和计算方面都非常密集。此外,推理是一个高容量、扩展性强的工作负载,需要标准的商用服务器。对于像ChatGPT这样的大型语言模型推理,我们宣布了一款新的hopper GPU。

H100

PCI Express H100,具有双GPU和VLink。新的H100拥有94GB的HBM3内存。H100可以处理具有1750亿参数的GPT-3。支持商用PCI Express服务器使其易于扩展。如今云中唯一可以实际处理ChatGPT的GPU是HGX-A100。与HGX-A100处理GPT-3相比,具有四对双GPU和VLink的H100标准服务器速度快10倍。H100可以将大型语言模型处理成本降低一个数量级。

GraceHopper

Grace Hopper是我们的新型超级芯片,它通过高速900GB每秒的相干芯片到芯片接口将Grace CPU和Hopper GPU连接起来。

巨大数据集 GraceHopper

Grace Hopper非常适合处理像AI数据库推荐系统和大型语言模型这样的巨大数据集。如今,具有大内存的CPU存储和查询巨大的嵌入表,然后将结果传输到GPU进行推理。使用Grace Hopper,Grace查询嵌入表并通过高速接口直接将结果传输到Hopper,传输速度比PCI Express快7倍。客户希望建立比现有规模大数个数量级的AI数据库。Grace Hopper是理想的引擎。这就是NVIDIA的推理平台。一种架构适用于多样化的AI工作负载,实现最大的数据中心加速和弹性。

介绍 工业数字化平台

世界上最大的行业生产实物,但他们希望建立数字化产品。Omniverse是一个实现工业数字化的平台,它连接了数字世界与实体世界。它让行业在制作实物复制品之前,以数字方式设计、构建、运营和优化实物产品和工厂。数字化提高了效率和速度,节省了资金。

虚拟启动工厂 Omniverse

Omniverse的一个应用是虚拟启动工厂,其中所有的机械设备在实际工厂建造之前都以数字方式集成。这减少了最后一刻的意外、变更订单和工厂开业的延误。虚拟工厂集成可以为世界各地的工厂节省数十亿美元。半导体行业正在投资五千亿美元,以建立84个新的创纪录的晶圆厂。到2030年,汽车制造商将建造300个工厂,生产2亿辆电动汽车。电池制造商还将建设100个大型工厂。

物流 Omniverse

数字化还正在改变物流,使商品在全球数十亿平方英尺的仓库中流通。让我们看看亚马逊如何利用Omniverse自动化、优化和规划其自动化仓库。亚马逊机器人公司制造并部署了世界上最大的移动工业机器人车队。这个机器人车队的最新成员是Proteus,亚马逊的第一款全自动仓库机器人。Proteus使用先进的安全、感知和导航技术在设施中移动。让我们看看基于Omniverse的NVIDIA IsaacSim如何创建物理精确的逼真仿真,以帮助加速Proteus的部署。Proteus配备了多个传感器,包括摄像头、激光雷达和超声传感器,以支持其自主软件系统。Proteus团队需要提高一个神经网络的性能,该网络读取基准标记并帮助机器人确定其在地图上的位置。训练由机器人传感器输入驱动的机器学习模型需要大量数据,以及正确类型的数据。使用IsaacSim中的Omniverse Replicator,亚马逊机器人公司能够生成大量逼真的合成数据集,将标记检测成功率从88.6%提高到了98%。使用Omniverse Replicator生成的合成数据还将开发时间从数月缩短到数天,因为我们能够比仅使用真实数据时更快地迭代测试和训练我们的模型。为了让不断扩大的Proteus机器人车队具备新的自主能力,亚马逊机器人公司正在努力缩小仿真与现实之间的差距,构建大规模多传感器、多机器人仿真。有了Omniverse,亚马逊机器人公司将通过全真实度仓库数字孪生来优化操作。无论我们是生成合成数据还是开发新的自主水平,Omniverse上的IsaacSim都能帮助亚马逊机器人团队在部署Proteus时节省时间和金钱。

Omniverse

Omniverse拥有独特的数字化技术,并且Omniverse是USD(通用场景描述)的首选开发平台,

USD

USD作为一种通用语言,让团队能够协作创建虚拟世界和数字孪生。

omniverse

Omniverse基于物理原理,模拟物理定律。它可以连接到机器人系统并与硬件循环操作。它具有生成性AI,以加速虚拟世界的创建。而且,Omniverse可以管理大规模的数据集。我们在Omniverse的每个领域都做了重要的更新。让我们一起看看。非常感谢。♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪♪

共享数据库 omniverse

近30万创作者和设计师已经下载了Omniverse。Omniverse不仅仅是一个工具,而是一个USD网络和共享数据库。它是一种连接跨行业使用的设计工具的基础设施。它连接、组合并模拟由行业领先工具创建的资产。我们很高兴看到Omniverse连接的增长。每个连接都将一个平台的生态系统与所有其他平台的生态系统联系在一起。Omniverse的网络正在呈指数级增长。现在已连接了Bentley Systems的Lumen RT,还有西门子的TeamCenter、NX和ProcessSimulate。此外还有Rockwell Automation Emulate 3D、Cesium、Unity等等。

汽车行业 omniverse

让我们看一下价值3万亿美元的汽车行业的数字化,以及汽车公司如何在其工作流程中评估Omniverse。沃尔沃汽车和通用汽车使用Omniverse的USD Composer来连接和统一他们的资产管道。通用汽车将使用Alias、Siemens NX、Unreal、Maya、3DX Max等工具的设计师、雕塑师和艺术家连接起来,并将组件虚拟组装成汽车的数字孪生。在工程和仿真方面,他们使用Omniverse可视化气动力流动。对于下一代梅赛德斯-奔驰和捷豹路虎汽车,工程师使用Omniverse中的DriveSim生成合成数据以训练AI模型,根据虚拟NCAP驾驶测试验证主动安全系统,并模拟真实驾驶场景。Omniverse的生成式AI将以前驾驶过的路线重建成3D,这样过去的经历就可以重新演绎或修改。与Idealworks合作,宝马使用Omniverse中的IsaacSim生成合成数据和场景,以训练工厂机器人。Lotus正在使用Omniverse虚拟组装焊接工作站。丰田正在使用Omniverse构建他们工厂的数字孪生。梅赛德斯-奔驰使用Omniverse构建、优化和规划新型号的装配线。Rimac和Lucid Motors使用Omniverse根据实际设计数据构建数字商店,忠实地展示他们的汽车。宝马正在使用Omniverse规划全球近三十多家工厂的运营,并在实际工厂开放前两年完全在Omniverse中建立新的电动汽车工厂。让我们一起参观一下。全球各行业正在加速数字化,未来三年将投入超过3.4万亿美元。我们宝马致力于成为汽车数字化的领导者。

未来 Omniverse与AI

借助NVIDIA Omniverse和人工智能,我们可以更快地建立新工厂并比以往任何时候都更高效地生产。这为我们带来了巨大的节省。一切都始于规划,这是一个复杂的过程,我们需要将全球范围内的许多工具、数据集和专业人员连接起来。传统上,我们受到限制,因为数据在各种系统和工具中分开管理。现在,我们改变了所有这一切。我们正在开发定制的Omniverse应用程序,将现有的工具、专业知识和团队连接在一个统一的视图中。Omniverse是云原生和云无关的,使团队能够在我们的虚拟工厂中实现跨地区协作。我即将参加一个关于匈牙利德布勒森的虚拟规划会议,这是我们2025年开放的新电动汽车工厂。让我们跳进去吧。

优化车身车间 omniverse

啊,米兰加入了。大家好。嗨,米兰。很高兴见到你。我们正处于优化循环的中间我们正在优化车身车间的一个环节。你想看看吗?谢谢。我非常感兴趣。我想邀请一个朋友。当然可以。嘿,米兰。很高兴见到你。詹森,欢迎参加我们的虚拟规划会议。很高兴来到这里。我们在看什么? 这是我们的全球规划团队,他们正在德布勒森的数字孪生中为一个机器人单元工作。 Matthias,告诉我们正在发生什么。我们刚刚了解到生产概念需要一些变更。我们现在正在重新配置布局,将新的机器人添加到单元中。好的,但如果我们在物流方面增加一个新机器人,我们需要移动储存容器。好吧,让我们把这个新机器人放进去。这很完美。但我们最好再检查一下。我们能运行这个单元吗?太好了。Milan,这真是令人难以置信。虚拟工厂集成对每个行业都至关重要。我为我们的团队共同完成的工作感到自豪。祝贺你们。我们在全球范围内努力优化本地运营。规划之后,运营至关重要,我们已经开始了。为了庆祝我们虚拟工厂的启动,我想邀请您和我一起开启第一个数字工厂。 我很荣幸。让我们来做吧。汽车公司雇佣了近1,400万人。

推出 新型工作站

数字化将提高行业的效率、生产力和速度。Omniverse 是实现工业数字化的数字到物理操作系统。 今天,我们宣布了三个旨在运行Omniverse的系统。首先,我们推出了一代新型工作站,由NVIDIA AIDA RTX GPU和Intel最新的CPU提供支持。这些新型工作站非常适合进行光线追踪、物理模拟、神经图形和生成式AI。它们将从3月开始在Box、Dell、HP和Lenovo等公司供应。

推出 OVX服务

其次,我们推出了针对Omniverse优化的新型NVIDIA OVX服务器。

OVX

OVX由L40 AIDA RTX服务器GPU和我们的新款BlueField 3组成。OVX服务器将由Dell、HPE、Quanta、Gigabyte、Lenovo和Supermicro供应。

要求 omniverse需要

Omniverse堆栈的每一层,包括芯片、系统、网络和软件,都是新发明。构建和运行Omniverse计算机需要一个精湛的IT团队。我们将使Omniverse快速且易于扩展和使用。让我们来看看。

需求 物理过程数字化

世界上最大的行业正在竞相将其物理过程数字化。如今,这是一项复杂的工作。

OmniverseCloud

NVIDIA Omniverse Cloud 是一种平台即服务,为NVIDIA OVX上运行的托管Omniverse Cloud API、工作流和可定制应用程序提供即时、安全的访问。

托管服务 OmniverseCloud

企业团队可以通过网络浏览器、Omniverse Launcher 或自定义构建的集成来访问一套托管服务。进入Omniverse Cloud后,企业团队可以立即访问、扩展和发布基础应用程序和工作流,组装和编排虚拟世界,生成数据以训练感知AI,测试和验证自动驾驶汽车,或模拟自主机器人,访问和发布共享数据至Omniverse Nucleus。在RTX工作站上使用第三方设计工具的设计师和工程师可以并行地将编辑发布到Nucleus。然后,当准备迭代或在Omniverse中查看集成模型时,只需打开一个网络浏览器并登录。

优化成本 OmniverseCloud

随着项目和团队的扩大,Omniverse Cloud 可以通过按需提供计算资源和许可证来帮助优化成本,新服务和升级将通过实时更新自动提供。随着Omniverse Cloud的出现,企业可以加快统一数字化和协作,跨足主要的工业工作流程,提高效率,降低成本和浪费,并加速创新之路。我们在Omniverse上见![♪ 音乐播放 ♪

推出 Omniversecloud

今天,我们宣布推出NVIDIA Omniverse Cloud,一项完全托管的云服务。我们正在与微软合作,将Omniverse Cloud带给世界各地的行业。我们将把它托管在Azure中,从微软丰富的存储、安全、应用程序和服务组合中受益。我们正在将Omniverse Cloud连接到Microsoft 365生产力套件,包括Teams、OneDrive、SharePoint以及Azure IoT Digital Twin服务。微软和NVIDIA正在将Omniverse带给数亿微软365和Azure用户。加速计算和AI已经来临。

总结

总结 英伟达加速计算

开发者使用NVIDIA加速解决以前无法解决的问题。实现净零排放是一项艰巨的挑战。每家公司都必须加速所有工作负载以重获能源。加速计算是一个全栈、数据中心规模的计算挑战。Grace、Grace Hopper和Bluefield-3是新一代超能效加速数据中心的芯片。加速库解决新挑战,开辟新市场。我们更新了100个加速库,包括QuQuantum用于量子计算,QoOpt用于组合优化,和QLiTho用于计算光刻。我们非常高兴与台积电、ASML和Synopsys合作,进入2纳米及更高级别的领域。NVIDIA DGX AI超级计算机是生成大型语言模型突破背后的引擎。DGX-H100 AI超级计算机已投入生产,将很快通过全球不断扩大的OEM和云合作伙伴网络提供。 DGX超级计算机不仅仅局限于研究,正成为现代AI工厂。每家公司都将制造智能。我们通过与Microsoft Azure、Google GCP和Oracle OCI合作,扩展我们的业务模式,通过NVIDIA DGX Cloud,让每个公司都能轻松通过浏览器接触到NVIDIA AI。DGX Cloud为客户提供了NVIDIA和世界领先CSP的最佳服务。我们正处于AI的iPhone时刻。生成式AI推理工作负载正在飙升。我们推出了新的推理平台。四种配置。一个架构。L4用于AI视频。L40用于Omniverse和图形渲染。H100 PCI Express用于扩展大型语言模型推理。Grace Hopper用于推荐系统和向量数据库。NVIDIA的推理平台实现了数据中心加速和弹性的最大化。NVIDIA与Google Cloud共同努力,部署广泛的推理工作负载。通过这种合作,Google GCP成为了NVIDIA AI云的首选平台。NVIDIA AI Foundations是一个云服务,用于构建定制语言模型和生成式AI。NVIDIA AI Foundations包括语言、视觉和生物学模型制作服务。盖蒂图片公司和Shutterstock正在构建定制的视觉语言模型。我们还与Adobe合作,为创意未来打造一套下一代AI功能。Omniverse是实现工业数字化的数字-物理操作系统。Omniverse可以统一端到端工作流程,实现3万亿美元、1400万名员工汽车行业的数字化。Omniverse正迈向云端。托管在Azure中,我们与微软合作,将Omniverse Cloud带给世界各地的行业。

结语 GTC大会

我要感谢我们的系统、云和软件合作伙伴,研究人员、科学家,特别是我们出色的员工们,共同打造NVIDIA加速计算生态系统。我们共同努力,帮助世界实现不可能。祝大家在GTC上度过愉快的时光。

讨论
随记