NVIDIA AI

NVIDIA NIM マイクロサービス

高速な生成 AI 推論を、どこにでも迅速かつ信頼性の高い方法でデプロイできるように設計されています。

概要

NVIDIA NIM とは?

NVIDIA NIM™ は、クラウド、データセンター、ワークステーション、エッジなど、あらゆる NVIDIA アクセラレーテッド インフラストラクチャに最新の AI モデルを迅速にデプロイできるように、最適化された事前構築済みの推論マイクロサービスを提供します。

NVIDIA NIM を活用した生成 AI 推論: パフォーマンスと TCO

NIM マイクロサービスが一般的な代替ソリューションより、どのように優れたパフォーマンスを発揮するかをご確認ください。同じ NVIDIA アクセラレーテッド インフラストラクチャ上で実行した場合、1 秒あたり最大 3 倍のトークンを処理できます。

NIM への無料開発アクセス

DGX Cloud で高速化された NIM のホスト型 API による無制限のプロトタイプ作成を利用したり、NVIDIA 開発者プログラムの一環として研究開発向けの NIM マイクロサービスをダウンロードしてセルフホストしたりすることができます。

NVIDIA NIM で AI のデプロイを高速化

NVIDIA NIM は、マネージド API の使いやすさと運用の簡素さと、お客様が好むインフラ上にあるセルフホスティング モデルの柔軟性とセキュリティを組み合わせたサービスです。NIM マイクロサービスには、最新の AI 基盤モデル、最適化された推論エンジン、業界標準の API、ランタイム依存関係など、AI チームが必要とするあらゆるものが含まれています。どこにでもデプロイと拡張が可能なエンタープライズ グレードのソフトウェア コンテナとして事前にパッケージ化されています。

利点

少ないコストでより多くの成果を達成するエンタープライズ向け生成 AI

高性能 AI 向けに構築された使いやすいエンタープライズ グレードのマイクロサービス。シームレスに連携し、手頃な価格で拡張できるように設計されています。推論、シミュレーション、音声など、最新の AI モデルを活用した AI エージェントやその他のエンタープライズ向け生成 AI アプリケーションで、最速で価値が創出されることをご体験ください。

使いやすさ

最新の AI モデル向けに最適化された事前構築済みのマイクロサービスで、イノベーションを高速化し、市場投入までの時間を短縮します。標準 API を使用すれば、モデルを 5 分でデプロイして、アプリケーションに簡単に統合できます。

エンタープライズ グレード

NVIDIA による厳格な検証プロセスと専用の機能ブランチを通じて継続的に管理されるエンタープライズ グレードのマイクロサービスをデプロイ。そのすべてが、NVIDIA エンタープライズ サポートによって支えられ、NVIDIA AI エキスパートにも直接アクセスして利用できます。

パフォーマンスとスケール

クラウドで拡張する、低レイテンシで高スループットの AI 推論で TCO を改善し、すぐに使用できるファインチューニング済みのモデルで最高の精度を実現します。

ポータビリティ

クラウド、データ センター、ワークステーションなど、あらゆる NVIDIA アクセラレーテッド インフラストラクチャで実行可能な事前構築済みのクラウド ネイティブなマイクロサービスで任意の場所にデプロイし、Kubernetes やクラウド サービス プロバイダーの環境にシームレスに拡張することができます。

デモ

NIM で AI エージェントを構築

コンテンツ生成用とデジタル グラフィックス デザイン用の 2 つの AI エージェントをセットアップし、NIM マイクロサービスで簡単に導入・実行する方法を体験してください。


テクノロジ

エージェント型 AI の構成要素

最新の AI 推論モデルを入手

推論、言語、検索、音声、ビジョンなどに対応する最新の AI モデルを入手できます。あらゆる NVIDIA アクセラレーテッド インフラストラクチャに 5 分以内にデプロイすることが可能です。

NVIDIA Blueprint で開発をすばやく開始

NVIDIA 高速化ライブラリ、SDK、NIM マイクロサービスを活用した包括的なリファレンス ワークフローにより、インパクトのあるエージェント型 AI アプリケーションを構築できます。

NVIDIA AgentIQ Toolkit で開発をシンプルに

AI エージェントを構築し、カスタム ワークフローに統合する開発者ツールキット、NVIDIA AgentIQ ライブラリを使って、NIM マイクロサービスをエージェント AI アプリケーションに組み込みましょう。

ベンチマーク

NIM でスループットを向上

NVIDIA NIM は、面倒な設定なしで最適化されたスループットとレイテンシを提供し、トークン生成の最大化、ピーク時の同時ユーザー サポート、そして応答性の向上を実現します。NIM マイクロサービスは最新の最適化された推論エンジンで継続的に更新され、同じインフラストラクチャでのパフォーマンスを長期にわたって向上させます。

構成: Llama 3.1 8B instruct、1x H100 SXM、同時リクエスト: 200。NIM ON: FP8、スループット 1201 トークン/秒、ITL 32 ミリ秒。NIM OFF: FP8、スループット 613 トークン/秒、ITL 37 ミリ秒。

モデル

主要なオープンモデルを使った構築

推論、言語、検索、音声、画像などに対応するマルチモーダルのエージェント型 AI を強化する、最新の AI モデル向けに最適化された推論パフォーマンスを手に入れましょう。NIM には、NVIDIA および開発コミュニティが提供する高速推論エンジン、NVIDIA® TensorRT™ や TensorRT-LLM などが統合されており、NVIDIA アクセラレーテッド・インフラストラクチャ上で低レイテンシかつ高スループットな推論を実現するよう事前に最適化されています。


特長

AI 開発とデプロイの簡単なボタン

どこででも実行できるように設計された NIM 推論マイクロサービスでは、業界標準の API を公開しています。これにより企業システムやアプリケーションとの統合を容易にし、Kubernetes 上でシームレスに拡張できるため、クラウド規模で高スループットかつ低レイテンシの推論を実現できます。

NIM のデプロイ

1 つのコマンドでモデルに NIM をデプロイできます。 ファインチューニング済みモデルでも簡単に NIM が実行可能です。

推論を実行

貴社の NVIDIA アクセラレーテッド インフラストラクチャに基づいた最適なランタイム エンジンを使って、NIM を稼働させることができます。

構築

数行のコードを書くだけで、セルフホストの NIM エンドポイントを統合できます。

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

ユース ケース

NIM の活用事例

NVIDIA NIM がどのように業界のユースケースをサポートし、厳選した例示で AI 開発を素早く開始できるのようにしているのかをご覧ください。

AI バーチャル アシスタント

生成 AI で顧客体験を向上させ、ビジネス プロセスを改善します。

インテリジェントなドキュメント処理

生成 AI を活用してドキュメント処理を高速化および自動化します。

高度にカスタマイズされたショッピングのための AI

AI の力で顧客満足度を向上させるカスタマイズされた体験を提供します。

3D 製品コンフィギュレーター

OpenUSD と生成 AI を活用して、3D 製品コンフィギュレータ ツールおよび体験を開発し、ほぼすべてのデバイスにデプロイすることができます。

スタート オプション

NVIDIA NIM を使い始める方法

無料でプロトタイピングを開始

DGX™ Cloud を基盤とする NIM 用の使いやすい API エンドポイントで始めましょう。

  • 完全に高速化された AI インフラストラクチャにアクセスします。
  • 自分のデータがモデル トレーニングに使用されないようにします。
  • NVIDIA 開発者プログラムの一環として、開発 テスト用にアクセスすることが可能です。

ダウンロードとデプロイ

NVIDIA NIM を実行して、最適化された AI モデルをクラウドまたはデータ センターで拡張しましょう。

  • 自分のデータが安全領域から出ないようにしてください。
  • コード変更せずに、クラウドのエンドポイントからセルフホスト API へとシームレスに移行できます。
  • 開発 テスト用の無料アクセスから始めて、本番環境向けの NVIDIA AI Enterprise ライセンスに移行しましょう。

お問い合わせ

NVIDIA AI Enterprise に含まれるセキュリティ、API の安定性、サポートを活用して、生成 AI パイロットを本番環境へと移行する方法について、NVIDIA AI の専門家にぜひご相談ください。

  • 生成 AI のユースケースをご覧ください。
  • 技術要件についてご相談ください。
  • NVIDIA AI ソリューションをお客様の目標と要件に合わせることができます。

関連情報

最新の NVIDIA NIM リソース

NVIDIA NIM マイクロサービス入門

NIM がどのように AI アプリケーションの構築、デプロイ、拡張を可能にするのかをご覧ください。

LLM 推論システムのサイジング

NIM マイクロサービスを使用して、実際のアプリケーション向けに大規模言語モデルを最適化し、デプロイする方法について説明します。

NIM を使用した AI バックグラウンド ジェネレータの開発

AI 対応 NVIDIA Omniverse™ キット ベースのアプリケーションの作成プロセスをご覧ください。 Omniverse 拡張機能、NIM マイクロサービス、Python コードを使用して、テキスト入力から背景を生成できる拡張機能を追加する方法を学びます。

NVIDIA NIM を使用して、5 分でシンプルな AI エージェントを構築する方法

コンテンツ生成用とデジタル グラフィック デザイン用の 2 つの AI エージェントをセットアップする方法をご覧ください。

RTX AI PC 向け NVIDIA NIM マイクロサービス

NVIDIA NIM と NVIDIA Blueprint を活用して、NVIDIA RTX™ AI PC 上で最新の生成 AI モデルをローカルに活用しましょう。

NVIDIA NIM を活用した生成 AI 推論

NVIDIA NIM マイクロサービスを使用して、高性能な生成 AI 推論がもたらすインパクトを可視化します。

次のステップ

さっそく始めませんか?

DGX Cloud で高速化されたプロトタイプ作成用の NIM API エンドポイントへの無制限アクセスを手に入れましょう。本番環境で利用する準備ができたら、ワークステーション、データ センター、エッジ、クラウドなど、お好みのインフラストラクチャに NIM をダウンロードしてセルフホストするか、NVIDIA パートナーがホストする NIM エンドポイントにアクセスしてください。

お問い合わせ

セキュリティ、API の安定性、サポートが含まれる NVIDIA AI Enterpriseを利用して、試作から本番環境へと移行する方法について、NVIDIA の製品スペシャリストにご相談ください。

NVIDIA NIM ニュースで最新の情報をお届けします

最新のニュース、テクノロジ、ブレークスルーなどの情報を メールで直接受け取ることができます。