为环球企业打造自定义 3.1 NVIDIA Llama 生成式 模型 Foundry AI AI

美国加利福尼亚州圣克拉拉—2024 年 7 月 23 日—NVIDIA 发表推出全新 NVIDIA AI Foundry 服务和NVIDIA NIM™ 推理微服务,与雷同刚推出的Llama 3.1 系列开源模型一同,为环球企业的生成式 AI 提供强力允许。

借助 NVIDIA AI Foundry,企业和各国如今能够经常使用 Llama 3.1 以及 NVIDIA 软件、计算和专业常识,为其特定畛域的行业用例创立自定义“超级模型”。企业可以经常使用自有数据以及由 Llama 3.1 405B 和 NVIDIA Nemotron™ Reward 模型生成的分解数据,来训练这些超级模型。

NVIDIA AI Foundry 是由 NVIDIA DGX™ Cloud AI 平台驱动。该平台由 NVIDIA 与环球上游的私有云共同设计,旨在为企业提供少量计算资源,所提供的计算资源可随着 AI 需求的变动轻松裁减。

企业以及制订主权 AI 策略的国度正宿愿创立具备特定畛域常识的自定义大言语模型,以便生成式 AI 运行能够反映其共同的业务或文明。因此,这些新服务的推出恰逢其时。

NVIDIA 开创人兼首席口头官黄仁勋示意:“Meta 的 Llama 3.1 开源模型标记着环球企业采用生成式 AI 的关键时辰曾经来到。Llama 3.1 将掀起各个企业与行业创立先进生成式 AI 运行的浪潮。NVIDIA AI Foundry 曾经在整个环节中集成了 Llama 3.1,并能够协助企业构建和部署自定义 Llama 超级模型。”

Meta 开创人兼首席口头官马克·扎克伯格示意:“全新的 Llama 3.1 模型是开源 AI 迈出极端关键的一步。借助 NVIDIA AI Foundry,企业可以轻松创立和定制大家想要的最先进的 AI 服务,并经过 NVIDIA NIM 启动部署。我很快乐能将它交付到大家手中。”

企业如今可以从ai.nvidia.com 了解实用于 Llama 3.1 模型的 NVIDIA NIM 推理微服务,以放慢将 Llama 3.1 模型部署到消费级 AI 的速度。NIM 微服务是将 Llama 3.1 模型部署到消费中的最快路径,其吞吐量最多可比不经常使用 NIM 运转推理时高出 2.5 倍。

企业可以将 Llama 3.1 NIM 微服务与全新 NVIDIA NeMo Retriever NIM 微服务组合经常使用,为 AI copilot、助手和数字人虚构笼统搭建先进的检索上班流。

埃森哲率先经常使用 AI Foundry 为企业创立自定义 Llama 超级模型

环球专业服务公司埃森哲率先借助 NVIDIA AI Foundry,经常使用 Accenture AI Refinery™ 框架为自己以及那些宿愿所部署的生成式 AI 运行能够反映其文明、言语和行业的客户来创立自定义 Llama 3.1 模型。

埃森哲董事长兼首席口头官 Julie Sweet 示意:“环球领军企业看到了生成式 AI 正在如何深化扭转各行各业,并且宿愿部署由自定义模型驱动的运行。埃森哲的外部 AI 运行不时在经常使用 NVIDIA NIM 推理微服务。如今,借助 NVIDIA AI Foundry,咱们能够协助客户极速创立和部署自定义 Llama 3.1 模型,为他们的优先业务事项提供改革性的 AI 运行。”

NVIDIA AI Foundry 提供一种可用于极速构建自定义超级模型的端到端服务。其结合 NVIDIA 软件、基础设备和专业常识与放开社区模型、技术和来自 NVIDIA AI 生态系统的允许。

借助 NVIDIA AI Foundry,企业能够经常使用 Llama 3.1 模型和 NVIDIA NeMo 平台(蕴含在Hugging Face RewardBench 上排名第一的 NVIDIA Nemotron-4 340B Reward 模型)创立自定义模型。

在创立了自定义模型后,企业就可以构建 NVIDIA NIM 推理微服务,以便在其首选的云平台和环球主机制作商提供的 NVIDIA 认证系统™上,经常使用自己选用的最佳机器学习运维(MLOps)和人工智能运维(AIOps)平台在消费中运转这些模型。

NVIDIA AI Enterprise 专家和环球系统集成商协作同伴与 AI Foundry 客户一同放慢从开发到部署的全环节。

NVIDIA Nemotron 为初级模型自定义提供助力

假设企业须要更多训练数据来创立特定畛域的模型,可以在创立自定义 Llama 超级模型同时经常使用 Llama 3.1 405B 和 Nemotron-4 340B 生成分解数据,以提高模型的准确性。

领有自己的训练数据的客户可以经常使用 NVIDIA NeMo 对 Llama 3.1 模型启动自定义,经过畛域自顺应预训练(DAPT)进一步提高模型的准确性。

NVIDIA 和 Meta 还一同为 Llama 3.1 提供了一种提炼方法,供开发者为生成式 AI 运行创立更小的自定义 Llama 3.1 模型。这使企业能够在更多减速基础设备(如 AI 上班站和笔记本电脑)上运转由 Llama 驱动的 AI 运行。

行业领军企业纷繁经常使用 NVIDIA 和 Llama 为 AI 提供强力允许

医疗、动力、金融服务、批发、交通、电信等行业的企业已在经常使用实用于 Llama 的 NVIDIA NIM 微服务。首批经常使用面向 Llama 3.1 全新 NIM 微服务的公司包括 Aramco、AT&T 和优步。

Llama 3.1 多语种大言语模型(LLM)汇合是一个具备 8B、70B 和 405B 三种参数规模的生成式 AI 模型汇合。该汇合中的模型在超越 16,000 个 NVIDIA Tensor Core GPU 上训练而成,并针对 NVIDIA 减速计算和软件(无论是在数据中心、云以及装备 NVIDIA RTX™ GPU 的本地上班站或装备GeForce RTX GPU 的 PC 上)启动了提升。

全新 NeMo Retriever RAG 微服务大幅提高准确性和性能

经过经常使用全新的 NVIDIA NeMo Retriever NIM 推理微服务来成功检索增强生成(RAG),企业可以将自定义 Llama 超级模型和 Llama NIM 微服务部署到消费中,以提高照应准确性。

当与实用于 Llama 3.1 405B 的 NVIDIA NIM 推理微服务结合经常使用时,NeMo Retriever NIM 微服务可认为 RAG 上班流中的放开和商业文本问答带来极高的检索准确性。

企业生态系统为 Llama 3.1 和 NeMo Retriever NIM 部署提供助力

数百家提供企业、数据和基础设备平台的 NVIDIA NIM 协作同伴如今能够将这些新的微服务集成到其 AI 处置方案中,从而为 NVIDIA 社区 500 多万开发者和 1.9 万家初创公司的生成式 AI 提供超强助力。

如今可以经过NVIDIA AI Enterprise 取得 Llama 3.1 NIM 和 NeMo Retriever NIM 微服务的消费允许。NVIDIA 开发者方案会员将很快能够收费访问 NIM 微服务,以在他们首选的基础设备上启动钻研、开发和测试。称或者是与其相关的各家公司的商标。性能、多少钱、可用性和规格如有更改,恕不另行通知。

您可能还会对下面的文章感兴趣: