FlowTech-AI
Stack IA 100 % locale : RAG sur ma documentation perso (infra, workflows) et outils MCP pour travailler en local sans dépendre du cloud. Au cœur, utilisé au quotidien : Qdrant comme base vectorielle, indexeur Markdown automatique, intégration avec Cursor pour interroger la doc et l'infra en contexte.
Case study
Avant
Je voulais une stack IA locale pour arrêter de dépendre des services cloud (coût, confidentialité, disponibilité), tout en gardant la même puissance pour la doc et les projets.
Objectif principal : pouvoir interroger toute ma documentation personnelle (notamment infra et workflows) via RAG, et disposer d'outils IA utilisables même sans Internet, au minimum pour la doc et le développement.
En parallèle, je voulais comprendre et maîtriser une stack IA self-hosted de bout en bout (serveur, modèles, base vectorielle) plutôt que consommer une API opaque.
Mission
Mettre en place une stack auto-hébergée sur mon infra Proxmox : Qdrant comme base vectorielle, OpenWebUI et Ollama pour les modèles, et une intégration MCP avec Cursor pour interroger Qdrant directement depuis l'IDE.
Développer un indexeur annexe qui parcourt un partage Samba et ingère automatiquement les notes Markdown dans Qdrant, pour garder la base documentaire et la base vectorielle synchronisées.
Préparer, sans les pousser encore en prod, des briques supplémentaires (n8n, services annexes) pour futurs workflows d'automatisation (FPV, trading, infra) en local.
Résultat
Une stack IA locale opérationnelle, utilisée au quotidien pour interroger la documentation d'infrastructure et de workflows via RAG et MCP, avec une base vectorielle Qdrant alimentée automatiquement à partir des notes Markdown.
Une solution self-hosted qui reste contournable mais qui me permet déjà de limiter les coûts cloud et de travailler sur ma doc en contexte, même sans accès Internet.
Apprentissage clé : concevoir une stack IA locale pragmatique, centrée sur quelques usages critiques (doc infra, dev dans l'IDE), plutôt que tout automatiser d'un coup, tout en gardant la porte ouverte à d'autres services annexes intégrés au workflow.