随着摩尔定律的终结,提高 CPU 性能将导致功耗增加。减少碳排放的要求与增加数据中心的需求根本上是矛盾的。云计算增长受限于能源。首先,数据中心必须加速每个工作负载。加速将重新获得能源。节省下来的能源可以推动新的增长。未加速的部分将在 CPU 上处理。加速云数据中心的 CPU 设计原则与过去有本质不同。
优化 加速计算
在 AI 和云服务中,加速计算卸载可并行工作负载。CPU 处理其他工作负载,如 WebRPC 和数据库查询。我们为 AI 和云优先的世界设计了 Grace CPU,在这个世界里,AI 工作负载得到 GPU 加速,Grace 擅长单线程执行和内存处理。这不仅仅是关于 CPU 芯片。数据中心运营商针对整个数据中心的吞吐量和总体拥有成本进行优化。
生成式 AI 是一种新型计算机,我们用人类语言对其进行编程。这种能力具有深远的意义。每个人都可以指导计算机解决问题。这曾是计算机程序员的领域。现在每个人都是程序员。
计算平台 生成式人工智能
生成式 AI 是一种新的计算平台,如 PC、互联网、移动和云。与以往的计算时代一样,先行者正在开发新应用并创立新公司,利用生成式 AI 实现自动化和共同创作。DeBuild 让用户通过解释他们想要的内容来设计和部署 Web 应用程序。Grammarly 是一款考虑上下文的写作助手。Tab9 帮助开发人员编写代码。OmniKey 生成定制广告和文案。Core AI 是一款虚拟客户服务代理。Jasper 生成营销材料。Jasper 已经撰写了近 50 亿个单词,将生成初稿所需的时间缩短了 80%。而 Silico 使用 AI 加速药物设计。Absci 使用 AI 预测治疗性抗体。生成式 AI 将重塑几乎每个行业。许多公司可以使用即将上市的优秀生成式 AI API 中的一种。有些公司需要使用其专有数据构建定制模型,使其成为该领域的专家。他们需要建立使用保护措施,并优化模型,使其符合公司的安全、隐私和安全要求。业界需要一个像台积电(TSMC)一样的大型语言模型定制铸造厂。
AIFoundations
今天,我们宣布推出NVIDIA AI Foundations,这是一个云服务,专为需要构建、优化和运行定制大型语言模型和生成式AI的客户提供支持,让他们能够使用专有数据进行培训,以完成特定领域的任务。NVIDIA AI Foundations包括语言、视觉和生物学模型制作服务。NVIDIA NEMO可用于构建定制的语言文本到文本生成模型。客户可以带来他们自己的模型,或从NEMO预训练的语言模型开始,从GPT-8、GPT-43和GPT-5300亿参数中进行选择。在整个过程中,NVIDIA AI专家将与您一起工作,从创建您的专有模型到运营。让我们来看看。
NVIDIA AI Foundations是一个云服务,一个用于构建定制语言模型和生成式AI的工厂。自十年前的AlexNet以来,深度学习已经开创了巨大的新市场,自动驾驶、机器人、智能音响,并重塑了我们购物、获取新闻和享受音乐的方式。这仅仅是冰山一角。AI正处于一个拐点,因为生成式AI已经开始了新一波的机遇,推动了推理工作负载的阶梯式增长。AI现在可以生成多种类型的数据,涵盖语音、文本、图像、视频、3D图形、蛋白质和化学物质。