LLaMa-MCP-Streamlit
AI assistant built with Streamlit, NVIDIA NIM (LLaMa 3.3:70B) / Ollama, and Model Control Protocol (MCP).
GitHubスター
42
ユーザー評価
未評価
お気に入り
0
閲覧数
8
フォーク
14
イシュー
1
インストール方法
難易度
中級推定所要時間
10-20 分
インストール方法
インストール方法
前提条件
Python: 3.8以上
Poetry: 最新版
Docker: 最新版(Dockerを使用する場合)
インストール手順
1. リポジトリのクローン
bash
git clone https://github.com/Nikunj2003/LLaMa-MCP-Streamlit.git
cd LLaMa-MCP-Streamlit
2. 依存関係のインストール
bash
poetry install
3. 環境変数の設定
.env
ファイルを編集してAPIキーを設定します:
API_ENDPOINT=https://integrate.api.nvidia.com/v1
API_KEY=your_api_key_here
API_ENDPOINT=http://localhost:11434/v1/
API_KEY=ollama
4. アプリの実行
bash
poetry run streamlit run llama_mcp_streamlit/main.py