(资料图)
2023 年 GTC 大会上,英伟达 CEO 发布了四个全新推理平台,每个平台都包含针对特定的 AIGC 推理工作负载优化的 NVIDIA GPU 以及专用软件:
1)用于图像渲染和 AI 视频的 L4。L4 提供增强的视频解码/转码、视频流、增强现实以及生成 AI 视频等功能,可提供比 CPU 高 120 倍的 AI 视频性能,一台 8 卡 L4 服务器能够替代 100 多台用于处理 AI 视频的双插槽 CPU 服务器。
2)用于 Omniverse、图像生成、文本转图像等各类生成式 AI 的 L40。L40 针对图形和支持 AI 的 2D、视频和 3D 图像生成进行了优化。L40 平台作为 Omniverse 的引擎,用于在数据中心构建和运行元宇宙应用程序,推理性能是云推理 GPU T4 的 10 倍。
3)用于大语言模型(LLM)推理的 H100 NVL。H100 NVLGPU 适用于大规模部署 ChatGPT 等大型 LLM。H100 NVL 通过 NVLINK 将两张 H100 PCIE 桥接在一起,其中的每张卡拥有 94GB HBM3 内存,同时内置 Transformer 引擎。与目前唯一可以在云上处理 GPT 模型的 HXG A100 相比,一台搭载四对 H100 NVL 和双 GPU NVLINK 的服务器可以将推理速度提高 10 倍。
4)Grace Hopper Superchip 适用于推荐模型、向量数据库和大型语言模型的 AI 数据库,并通过 NVLink-C2C 技术为 Grace CPU 和 Hopper GPU 之间提供高达 900GB/s 的高速连接,CPU 查询和存储巨型嵌入表,GPU 负责将收到的结果进行推理,整体是 PCIE 速度的 7 倍。
下载链接:
09 - 内嵌汇编10 - 异常处理11 - 中断处理12 - 内存管理