exp-llm-mcp-rag

このプロジェクトは、大規模言語モデル(LLM)、モデルコンテキストプロトコル(MCP)、および検索強化生成(RAG)技術を活用したAIアシスタントシステムの構築を目的としています。OpenAI APIを使用し、外部ツールとのインタラクションを実現することで、ユーザーの質問に対して効果的に応答します。

GitHubスター

115

ユーザー評価

未評価

お気に入り

0

閲覧数

27

フォーク

18

イシュー

1

インストール方法
難易度
中級
推定所要時間
10-20
必要な環境
Python 3.12以上

インストール方法

インストール方法

前提条件

Python: 3.12以上

インストール手順

1. リポジトリのクローン

bash
git clone https://github.com/StrayDragon/exp-llm-mcp-rag
cd exp-llm-mcp-rag

2. 環境変数の設定

.env.exampleをコピーして.envを作成し、必要な設定を記入します。

3. 依存関係のインストール

bash
uv sync

4. サンプルの実行

bash
just help

トラブルシューティング

問題: 依存関係のインストールに失敗する 解決策: Pythonのバージョンを確認し、必要なパッケージが正しくインストールされているか確認してください。

設定方法

設定方法

基本設定

.envファイルを編集し、以下の環境変数を設定します:
OPENAI_API_KEY: OpenAI APIキー
OPENAI_BASE_URL: OpenAI APIの基本URL(デフォルトは 'https://api.openai.com/v1')
DEFAULT_MODEL_NAME: 使用するモデル名(デフォルトは 'gpt-4o-mini')

設定例

dotenv
OPENAI_API_KEY=your_openai_api_key
OPENAI_BASE_URL=https://api.openai.com/v1
DEFAULT_MODEL_NAME=gpt-4o-mini

セキュリティ設定

APIキーは安全な方法で保存してください。
不要なファイルアクセスを制限してください。

使用例

使用例

プログラムでの使用

python
import requests

def call_mcp_tool(tool_name, params):
    response = requests.post(
        'http://localhost:3000/mcp/call',
        json={
            'tool': tool_name,
            'parameters': params
        }
    )
    return response.json()

使用例

result = call_mcp_tool('analyze', { 'input': 'sample data', 'options': {'format': 'json'} })

RAGフローの例

mermaid
sequenceDiagram
    participant User as ユーザー
    participant Agent as Agent
    participant LLM as LLM
    User->>Agent: 質問
    Agent->>LLM: 質問を送信
    LLM-->>Agent: 回答を生成
    Agent-->>User: 回答を返す

使用ケース

ユーザーからの質問に応じて、AIアシスタントが外部データを取得し、回答を生成する。
特定のファイルを操作するためのMCPクライアントを使用して、ファイルの読み書きを行う。
ウェブからの情報を取得し、ユーザーのリクエストに基づいて回答を生成する。
ベクトル検索を使用して、関連する文書を迅速に取得し、LLMのコンテキストを強化する。
APIを介して他のシステムと統合し、データの分析や処理を行う。

追加リソース