litellm (BerriAI/litellm) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: Python SDK、プロキシ サーバー (AI ゲートウェイ) は、コスト追跡、ガードレール、ロードバランシング、ロギングを備えた OpenAI (またはネイティブ) 形式で 100 以上の LLM API を呼び出します。 [Bedrock、Azure、OpenAI、VertexAI、Cohere、Anthropic、Sagemaker、HuggingFace、VLLM、NVIDIA NIM] その焦点には、MCP とツール呼び出しの統合、開発者中心のエンジニアリング ワークフロー、ワークフローの自動化が含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。
ライセンス
Other
スター
46,896
主な機能
- Core 機能: Python SDK、プロキシ サーバー (AI ゲートウェイ) は、コスト追跡、ガードレール、ロードバランシング、ロギングを備えた OpenAI (またはネイティブ) 形式で 100 以上の LLM API を呼び出します。 [Bedrock、Azure、OpenAI、VertexAI、Cohere、Anthropic、Sagemaker、HuggingFace、VLLM、NVIDIA NIM]
- MCP またはツール呼び出しの統合を提供します
- コード生成、デバッグ、またはエンジニアリング統合用に構築
- 調整された自動化フローとスケジュールをサポートします
- リポジトリ: BerriAI/litellm
- 主な言語: Python
ユースケース
- 外部システムをエージェント ワークフローに接続します
- 開発チーム向けの AI エンジニアリングのビルドと反復のワークフローをサポート
- システム間のプロセスの自動化と運用の効率化に使用されます
- litellm を使用して内部 AI ワークフロー プロトタイプを構築する
- 実稼働のようなエンジニアリング シナリオでリテルムを検証する
- AI 開発ワークフローの構築
FAQ
litellm (BerriAI/litellm) は、GitHub 上のオープンソース AI プロジェクトです。リポジトリの概要: Python SDK、プロキシ サーバー (AI ゲートウェイ) は、コスト追跡、ガードレール、ロードバランシング、ロギングを備えた OpenAI (またはネイティブ) 形式で 100 以上の LLM API を呼び出します。 [Bedrock、Azure、OpenAI、VertexAI、Cohere、Anthropic、Sagemaker、HuggingFace、VLLM、NVIDIA NIM] その焦点には、MCP とツール呼び出しの統合、開発者中心のエンジニアリング ワークフロー、ワークフローの自動化が含まれます。実際のワークフローでの拡張、統合、反復配信に適しています。
主な利用シーン: 外部システムをエージェント ワークフローに接続します、開発チーム向けの AI エンジニアリングのビルドと反復のワークフローをサポート、システム間のプロセスの自動化と運用の効率化に使用されます。