LLaMa-MCP-Streamlit

AI assistant built with Streamlit, NVIDIA NIM (LLaMa 3.3:70B) / Ollama, and Model Control Protocol (MCP).

GitHubスター

42

ユーザー評価

未評価

お気に入り

0

閲覧数

8

フォーク

14

イシュー

1

インストール方法
難易度
中級
推定所要時間
10-20

インストール方法

インストール方法

前提条件

Python: 3.8以上
Poetry: 最新版
Docker: 最新版(Dockerを使用する場合)

インストール手順

1. リポジトリのクローン

bash
git clone https://github.com/Nikunj2003/LLaMa-MCP-Streamlit.git
cd LLaMa-MCP-Streamlit

2. 依存関係のインストール

bash
poetry install

3. 環境変数の設定

.envファイルを編集してAPIキーを設定します:

API_ENDPOINT=https://integrate.api.nvidia.com/v1
API_KEY=your_api_key_here

API_ENDPOINT=http://localhost:11434/v1/
API_KEY=ollama

4. アプリの実行

bash
poetry run streamlit run llama_mcp_streamlit/main.py

トラブルシューティング

問題: アプリが起動しない 解決策: 依存関係が正しくインストールされているか確認してください。

追加リソース