InferenceX (SemiAnalogyAI/InferenceX) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: オープンソースの連続推論ベンチマーク Qwen3.5、DeepSeek、GPTOSS - GB200 NVL72 対 MI355X 対 B200 対 GB300 NVL72 対 H100 および近々™ TPUv6e/v7/Trainium2/3 その焦点には、評価と可観測性が含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。
ライセンス
Apache-2.0
スター
893
主な機能
- コア機能: オープンソースの連続推論ベンチマーク Qwen3.5、DeepSeek、GPTOSS - GB200 NVL72 対 MI355X 対 B200 対 GB300 NVL72 対 H100、まもなく™ TPUv6e/v7/Trainium2/3
- 評価、トレース、または可観測性機能が含まれます
- リポジトリ: SemiAnalysisAI/InferenceX
- 主な言語: Python
- オープンソース ライセンス: Apache-2.0
- GitHub トラクション: 約 893 スター
ユースケース
- AI の品質モニタリングと回帰評価に使用されます
- InferenceX を使用して内部 AI ワークフロー プロトタイプを構築する
- 実稼働のようなエンジニアリング シナリオで InferenceX を検証する
- モデルの評価と回帰テスト
- AI アプリケーションの品質の監視
- ビジネスリサーチと洞察分析
FAQ
InferenceX (SemiAnalogyAI/InferenceX) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: オープンソースの連続推論ベンチマーク Qwen3.5、DeepSeek、GPTOSS - GB200 NVL72 対 MI355X 対 B200 対 GB300 NVL72 対 H100 および近々™ TPUv6e/v7/Trainium2/3 その焦点には、評価と可観測性が含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。
主な利用シーン: AI の品質モニタリングと回帰評価に使用されます、InferenceX を使用して内部 AI ワークフロー プロトタイプを構築する、実稼働のようなエンジニアリング シナリオで InferenceX を検証する。