SMKORTEX
SMKortex is a local French AI assistant that operates without an internet connection. Based on `llama.cpp` and the Vigogne 2 7B model, it offers a modular and automated setup. Designed to run on Linux or macOS, it can be easily installed with scripts that manage dependencies, allowing users to interact effortlessly. Its focus on local processing ensures privacy and accessibility.
GitHub Stars
1
User Rating
Not Rated
Forks
0
Issues
0
Views
1
Favorites
0
📘 README — SMKortex : Assistant IA local en français
🤖 Présentation
SMKortex est un assistant IA 100 % local en français, basé sur llama.cpp
et le modèle Vigogne 2 7B, conçu pour fonctionner sans connexion internet après installation.
Il propose un setup modulaire et automatisé, avec des scripts organisés, une installation propre, et un raccourci terminal pour interagir facilement via smkortex
.
🛠️ Prérequis
Avant de commencer :
- Linux ou macOS avec Bash
- Git, Make et wget installés
- CPU correct (ou GPU si intégré dans le futur)
- ~4 Go d’espace libre pour le modèle
🚀 Installation complète
✅ Étape 1 — Cloner le dépôt
git clone https://github.com/ton-utilisateur/smkortex.git
cd smkortex
✅ Étape 2 — Lancer le script principal
bash main-smkortex.sh
Ce script exécute les étapes suivantes dans cet ordre :
Étape | Script appelé | Action réalisée |
---|---|---|
1️⃣ | install-dependances.sh |
Installe les paquets nécessaires |
2️⃣ | clone-compile-llama.sh |
Clone llama.cpp et compile llama-cli |
3️⃣ | telecharger-modele.sh |
Télécharge Vigogne .gguf dans llama/models/ |
4️⃣ | installer-chatv2.sh |
Installe instChatv2-kortex.sh dans scripts/ |
5️⃣ | configurer-lanceur.sh |
Crée le raccourci global smkortex |
6️⃣ | (option) desinstaller-smkortex.sh |
Supprime tout proprement si choisi |
🧱 Structure attendue après installation
SMKORTEX/
├── main-smkortex.sh
├── scripts/
│ └── instChatv2-kortex.sh
├── llama/
│ ├── llama.cpp/
│ │ └── build/bin/llama-cli
│ └── models/
│ └── vigogne-2-7b-chat.Q4_K_M.gguf
├── logs/ ← sessions interactives ici
├── config/ ← paramètres si nécessaires
└── README.md
💬 Lancement de l’assistant IA
Deux méthodes pour démarrer une session :
🔹 Méthode 1 — via le raccourci
smkortex "Bonjour toi"
🔹 Méthode 2 — en lançant directement le script
bash scripts/instChatv2-kortex.sh
Chaque session génère un log dans
logs/
avec horodatage complet.
🧠 Problèmes fréquents
Message d'erreur | Cause probable | Solution recommandée |
---|---|---|
llama-cli: command not found |
Binaire non compilé | Relance clone-compile-llama.sh |
model not found |
Modèle absent ou chemin incorrect | Vérifie dans llama/models/ |
tee: logs/...log: Aucun fichier... |
Dossier logs/ manquant |
Crée avec mkdir -p logs |
Modèle fait quelques Ko seulement | Téléchargement incomplet | Relance telecharger-modele.sh |
📦 Désinstallation
Si tu veux tout nettoyer proprement :
bash scripts/desinstaller-smkortex.sh
📚 Crédits & citation du modèle
SMKortex repose sur le modèle Vigogne, développé pour l’instruction et la conversation en français.
Si vous utilisez ce projet dans un cadre académique ou technique, veuillez citer leurs travaux comme suit :
Huang, B. (2023). Vigogne: French Instruction-following and Chat Models [GitHub repository]. GitHub. https://github.com/bofenghuang/vigogne
Ou en BibTeX :
@misc{vigogne,
author = {Bofeng Huang},
title = {Vigogne: French Instruction-following and Chat Models},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/bofenghuang/vigogne}},
}
"SMKortex powered by Vigogne 🧠 — modèle conversationnel français par @bofenghuang"
💚 Auteur
Projet piloté avec passion par Mathieu-Karim & Copilote
Un assistant IA local, libre, hors cloud, et fier de parler français 🇫🇷✨