exp-llm-mcp-rag
このプロジェクトは、大規模言語モデル(LLM)、モデルコンテキストプロトコル(MCP)、および検索強化生成(RAG)技術を活用したAIアシスタントシステムの構築を目的としています。OpenAI APIを使用し、外部ツールとのインタラクションを実現することで、ユーザーの質問に対して効果的に応答します。
GitHubスター
115
ユーザー評価
未評価
お気に入り
0
閲覧数
27
フォーク
18
イシュー
1
インストール方法
難易度
中級推定所要時間
10-20 分
必要な環境
Python 3.12以上
インストール方法
インストール方法
前提条件
Python: 3.12以上
インストール手順
1. リポジトリのクローン
bash
git clone https://github.com/StrayDragon/exp-llm-mcp-rag
cd exp-llm-mcp-rag
2. 環境変数の設定
.env.example
をコピーして.env
を作成し、必要な設定を記入します。
3. 依存関係のインストール
bash
uv sync
4. サンプルの実行
bash
just help
トラブルシューティング
問題: 依存関係のインストールに失敗する 解決策: Pythonのバージョンを確認し、必要なパッケージが正しくインストールされているか確認してください。設定方法
設定方法
基本設定
.env
ファイルを編集し、以下の環境変数を設定します:
OPENAI_API_KEY
: OpenAI APIキーOPENAI_BASE_URL
: OpenAI APIの基本URL(デフォルトは 'https://api.openai.com/v1')DEFAULT_MODEL_NAME
: 使用するモデル名(デフォルトは 'gpt-4o-mini')設定例
dotenv
OPENAI_API_KEY=your_openai_api_key
OPENAI_BASE_URL=https://api.openai.com/v1
DEFAULT_MODEL_NAME=gpt-4o-mini
セキュリティ設定
APIキーは安全な方法で保存してください。
不要なファイルアクセスを制限してください。
使用例
使用例
プログラムでの使用
python
import requests
def call_mcp_tool(tool_name, params):
response = requests.post(
'http://localhost:3000/mcp/call',
json={
'tool': tool_name,
'parameters': params
}
)
return response.json()
使用例
result = call_mcp_tool('analyze', {
'input': 'sample data',
'options': {'format': 'json'}
})
RAGフローの例
mermaid
sequenceDiagram
participant User as ユーザー
participant Agent as Agent
participant LLM as LLM
User->>Agent: 質問
Agent->>LLM: 質問を送信
LLM-->>Agent: 回答を生成
Agent-->>User: 回答を返す
使用ケース
ユーザーからの質問に応じて、AIアシスタントが外部データを取得し、回答を生成する。
特定のファイルを操作するためのMCPクライアントを使用して、ファイルの読み書きを行う。
ウェブからの情報を取得し、ユーザーのリクエストに基づいて回答を生成する。
ベクトル検索を使用して、関連する文書を迅速に取得し、LLMのコンテキストを強化する。
APIを介して他のシステムと統合し、データの分析や処理を行う。