SMKORTEX

SMKortex is a local French AI assistant that operates without an internet connection. Based on `llama.cpp` and the Vigogne 2 7B model, it offers a modular and automated setup. Designed to run on Linux or macOS, it can be easily installed with scripts that manage dependencies, allowing users to interact effortlessly. Its focus on local processing ensures privacy and accessibility.

GitHub Stars

1

User Rating

Not Rated

Forks

0

Issues

0

Views

1

Favorites

0

README
📘 README — SMKortex : Assistant IA local en français

🤖 Présentation

SMKortex est un assistant IA 100 % local en français, basé sur llama.cpp et le modèle Vigogne 2 7B, conçu pour fonctionner sans connexion internet après installation.

Il propose un setup modulaire et automatisé, avec des scripts organisés, une installation propre, et un raccourci terminal pour interagir facilement via smkortex.


🛠️ Prérequis

Avant de commencer :

  • Linux ou macOS avec Bash
  • Git, Make et wget installés
  • CPU correct (ou GPU si intégré dans le futur)
  • ~4 Go d’espace libre pour le modèle

🚀 Installation complète
✅ Étape 1 — Cloner le dépôt
git clone https://github.com/ton-utilisateur/smkortex.git
cd smkortex
✅ Étape 2 — Lancer le script principal
bash main-smkortex.sh

Ce script exécute les étapes suivantes dans cet ordre :

Étape Script appelé Action réalisée
1️⃣ install-dependances.sh Installe les paquets nécessaires
2️⃣ clone-compile-llama.sh Clone llama.cpp et compile llama-cli
3️⃣ telecharger-modele.sh Télécharge Vigogne .gguf dans llama/models/
4️⃣ installer-chatv2.sh Installe instChatv2-kortex.sh dans scripts/
5️⃣ configurer-lanceur.sh Crée le raccourci global smkortex
6️⃣ (option) desinstaller-smkortex.sh Supprime tout proprement si choisi

🧱 Structure attendue après installation
SMKORTEX/
├── main-smkortex.sh
├── scripts/
│   └── instChatv2-kortex.sh
├── llama/
│   ├── llama.cpp/
│   │   └── build/bin/llama-cli
│   └── models/
│       └── vigogne-2-7b-chat.Q4_K_M.gguf
├── logs/         ← sessions interactives ici
├── config/       ← paramètres si nécessaires
└── README.md

💬 Lancement de l’assistant IA

Deux méthodes pour démarrer une session :

🔹 Méthode 1 — via le raccourci
smkortex "Bonjour toi"
🔹 Méthode 2 — en lançant directement le script
bash scripts/instChatv2-kortex.sh

Chaque session génère un log dans logs/ avec horodatage complet.


🧠 Problèmes fréquents
Message d'erreur Cause probable Solution recommandée
llama-cli: command not found Binaire non compilé Relance clone-compile-llama.sh
model not found Modèle absent ou chemin incorrect Vérifie dans llama/models/
tee: logs/...log: Aucun fichier... Dossier logs/ manquant Crée avec mkdir -p logs
Modèle fait quelques Ko seulement Téléchargement incomplet Relance telecharger-modele.sh

📦 Désinstallation

Si tu veux tout nettoyer proprement :

bash scripts/desinstaller-smkortex.sh

📚 Crédits & citation du modèle

SMKortex repose sur le modèle Vigogne, développé pour l’instruction et la conversation en français.
Si vous utilisez ce projet dans un cadre académique ou technique, veuillez citer leurs travaux comme suit :

Huang, B. (2023). Vigogne: French Instruction-following and Chat Models [GitHub repository]. GitHub. https://github.com/bofenghuang/vigogne

Ou en BibTeX :

@misc{vigogne,
  author       = {Bofeng Huang},
  title        = {Vigogne: French Instruction-following and Chat Models},
  year         = {2023},
  publisher    = {GitHub},
  journal      = {GitHub repository},
  howpublished = {\url{https://github.com/bofenghuang/vigogne}},
}

"SMKortex powered by Vigogne 🧠 — modèle conversationnel français par @bofenghuang"


💚 Auteur

Projet piloté avec passion par Mathieu-Karim & Copilote
Un assistant IA local, libre, hors cloud, et fier de parler français 🇫🇷✨

Author Information

0

Followers

8

Repositories

0

Gists

92

Total Contributions

Top Contributors

Threads