ツール一覧へ戻る
TensorRT-LLM

TensorRT-LLM

学習支援と翻訳

TensorRT-LLM (NVIDIA/TensorRT-LLM) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: TensorRT LLM は、大規模言語モデル (LLM) を定義するための使いやすい Python API をユーザーに提供し、NVIDIA GPU で推論を効率的に実行するための最先端の最適化をサポートします。 TensorRT LLM には、推論の実行をパフォーマンスの高い方法で調整する Python および C++ ランタイムを作成するコンポーネントも含まれています。その焦点には、開発者中心のエンジニアリング ワークフローが含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。

ライセンス

Other

スター

13,515

主な機能

  • Core 機能: TensorRT LLM は、大規模言語モデル (LLM) を定義するための使いやすい Python API をユーザーに提供し、NVIDIA GPU で推論を効率的に実行するための最先端の最適化をサポートします。 TensorRT LLM には、推論の実行をパフォーマンスの高い方法で調整する Python および C++ ランタイムを作成するコンポーネントも含まれています。
  • コード生成、デバッグ、またはエンジニアリング統合用に構築
  • リポジトリ: NVIDIA/TensorRT-LLM
  • 主な言語: Python
  • オープンソース ライセンス: その他
  • GitHub の注目度: 約 13,514 個のスター

ユースケース

  • 開発チーム向けの AI エンジニアリングのビルドと反復のワークフローをサポート
  • TensorRT-LLM を使用して内部 AI ワークフロー プロトタイプを構築する
  • 本番環境のようなエンジニアリング シナリオで TensorRT-LLM を検証する
  • 学習コンテンツの翻訳と整理
  • 言語の練習と復習
  • コース教材の多言語出版

FAQ

TensorRT-LLM (NVIDIA/TensorRT-LLM) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: TensorRT LLM は、大規模言語モデル (LLM) を定義するための使いやすい Python API をユーザーに提供し、NVIDIA GPU で推論を効率的に実行するための最先端の最適化をサポートします。 TensorRT LLM には、推論の実行をパフォーマンスの高い方法で調整する Python および C++ ランタイムを作成するコンポーネントも含まれています。その焦点には、開発者中心のエンジニアリング ワークフローが含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。

主な利用シーン: 開発チーム向けの AI エンジニアリングのビルドと反復のワークフローをサポート、TensorRT-LLM を使用して内部 AI ワークフロー プロトタイプを構築する、本番環境のようなエンジニアリング シナリオで TensorRT-LLM を検証する。

関連ツール

AI Toolbase

厳選された AI ツールで生産性を向上

© 2026 AI Toolbase. 無断転載を禁じます

リンク: sh991自动链