SMKORTEX
SMKortexは、インターネット接続なしで動作するフランス語のローカルAIアシスタントです。llama.cppとVigogne 2 7Bモデルに基づいており、モジュール式で自動化されたセットアップを提供します。LinuxまたはmacOSで動作し、簡単にインストールできます。スクリプトを使用して依存関係を管理し、ユーザーが簡単に操作できるように設計されています。
GitHubスター
1
ユーザー評価
未評価
フォーク
0
イシュー
0
閲覧数
0
お気に入り
0
📘 README — SMKortex : Assistant IA local en français
🤖 Présentation
SMKortex est un assistant IA 100 % local en français, basé sur llama.cpp et le modèle Vigogne 2 7B, conçu pour fonctionner sans connexion internet après installation.
Il propose un setup modulaire et automatisé, avec des scripts organisés, une installation propre, et un raccourci terminal pour interagir facilement via smkortex.
🛠️ Prérequis
Avant de commencer :
- Linux ou macOS avec Bash
- Git, Make et wget installés
- CPU correct (ou GPU si intégré dans le futur)
- ~4 Go d’espace libre pour le modèle
🚀 Installation complète
✅ Étape 1 — Cloner le dépôt
git clone https://github.com/ton-utilisateur/smkortex.git
cd smkortex
✅ Étape 2 — Lancer le script principal
bash main-smkortex.sh
Ce script exécute les étapes suivantes dans cet ordre :
| Étape | Script appelé | Action réalisée |
|---|---|---|
| 1️⃣ | install-dependances.sh |
Installe les paquets nécessaires |
| 2️⃣ | clone-compile-llama.sh |
Clone llama.cpp et compile llama-cli |
| 3️⃣ | telecharger-modele.sh |
Télécharge Vigogne .gguf dans llama/models/ |
| 4️⃣ | installer-chatv2.sh |
Installe instChatv2-kortex.sh dans scripts/ |
| 5️⃣ | configurer-lanceur.sh |
Crée le raccourci global smkortex |
| 6️⃣ | (option) desinstaller-smkortex.sh |
Supprime tout proprement si choisi |
🧱 Structure attendue après installation
SMKORTEX/
├── main-smkortex.sh
├── scripts/
│ └── instChatv2-kortex.sh
├── llama/
│ ├── llama.cpp/
│ │ └── build/bin/llama-cli
│ └── models/
│ └── vigogne-2-7b-chat.Q4_K_M.gguf
├── logs/ ← sessions interactives ici
├── config/ ← paramètres si nécessaires
└── README.md
💬 Lancement de l’assistant IA
Deux méthodes pour démarrer une session :
🔹 Méthode 1 — via le raccourci
smkortex "Bonjour toi"
🔹 Méthode 2 — en lançant directement le script
bash scripts/instChatv2-kortex.sh
Chaque session génère un log dans
logs/avec horodatage complet.
🧠 Problèmes fréquents
| Message d'erreur | Cause probable | Solution recommandée |
|---|---|---|
llama-cli: command not found |
Binaire non compilé | Relance clone-compile-llama.sh |
model not found |
Modèle absent ou chemin incorrect | Vérifie dans llama/models/ |
tee: logs/...log: Aucun fichier... |
Dossier logs/ manquant |
Crée avec mkdir -p logs |
| Modèle fait quelques Ko seulement | Téléchargement incomplet | Relance telecharger-modele.sh |
📦 Désinstallation
Si tu veux tout nettoyer proprement :
bash scripts/desinstaller-smkortex.sh
📚 Crédits & citation du modèle
SMKortex repose sur le modèle Vigogne, développé pour l’instruction et la conversation en français.
Si vous utilisez ce projet dans un cadre académique ou technique, veuillez citer leurs travaux comme suit :
Huang, B. (2023). Vigogne: French Instruction-following and Chat Models [GitHub repository]. GitHub. https://github.com/bofenghuang/vigogne
Ou en BibTeX :
@misc{vigogne,
author = {Bofeng Huang},
title = {Vigogne: French Instruction-following and Chat Models},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/bofenghuang/vigogne}},
}
"SMKortex powered by Vigogne 🧠 — modèle conversationnel français par @bofenghuang"
💚 Auteur
Projet piloté avec passion par Mathieu-Karim & Copilote
Un assistant IA local, libre, hors cloud, et fier de parler français 🇫🇷✨