1 - Le lab
Les outils disponibles sur le lab
Pour faciliter votre travail, nous avons installé quelques outils sur votre machine virtuell, votre lab disponible le temps de la formation.
Ce sont des outils disponibles gratuitement en licence ouverte (open source, open weights).
Ollama
Ollama est un serveur qui sert de endpoint pour faire des inférences sur des modèles de langage open source / open weights.
Références :
- https://ollama.ai/
- https://ollama.readthedocs.io/en/api/
- https://www.hostinger.com/fr/tutoriels/tutoriel-ollama-cli
Le serveur tourne en arrière-plan et expose son API en HTTPS, tandis qu'un client local ou distant peut l'utiliser pour l'administration et le requêtage.
Le port par défaut est 11434.
Utiliser http://FQDN.du.lab:11434
pour vérifier que Ollama est up.
Cette URL vous sera utile pour configurer les autres outils.
Ollama simplifie l'accès aux modèles gratuits en vous évitant d'avoir à connaître tous les détails techniques sous-jacents.
Pour obtenir une liste des modèles disponibles : https://ollama.com/library
Il serait très long de comparer les avantages et inconvénients des différents modèles.
En 2025 un bon choix généraliste est Qwen3, qui dès 8B fournit des capacités intéressantes.
Les modèles commerciaux offrent des capacités plus avancées et des performances plus élevées, mais pour le contexte pédagogique c'est suffisant.
La ligne de commande Ollama permet d'automatiser certaines actions en ligne de commande au delà de l'administration.
Commande | Description |
---|---|
ollama --version | Affiche la version actuelle d’Ollama. |
ollama pull [model] | Télécharge le modèle spécifié sur votre système. |
ollama list | Liste tous les modèles téléchargés. |
ollama show [model] | Affiche les détails d’un modèle spécifique, tels que sa configuration et sa date de sortie. |
ollama serve | Démarre Ollama sur votre système local. |
ollama run [model] | Exécute le modèle spécifié pour interaction |
ollama ps | Affiche les modèles en cours d’exécution. |
ollama rm [model] | Supprime le modèle spécifié de votre système. |
ollama create | <new_model> Crée un nouveau modèle à partir d’un modèle existant à des fins de personnalisation ou de formation. |
Attention ollama est lancé dans le lab via docker.
il faut appeler la ligne de commande à travers un appel au conteneur.
docker exec ollama ollama list
docker exec ollama ollama show [model]
docker exec -it ollama ollama run [model]
docker exec ollama ollama ps
docker exec ollama ollama pull [model]
Sachez qu'Ollama fournit aussi une interface MODELFILE qui est comme un DOCKERFILE pour les modèles LLM.
Sur la base d'un modèle donné, vous pouvez créer un nouveau modèle personnalisé en ajoutant des instructions dans le fichier.
C'est une forme de persona comme on en verra plus tard.
Documentation : https://ollama.readthedocs.io/en/modelfile/
OpenWebUI
Open WebUI est une interface web qui permet d'avoir l'équivalent d'un chatbot avec un modèle LLM sur la machine de votre choix.
Open WebUI tourne en mode serveur et expose un port sur votre lab.
Pour y accéder : http://FQDN.du.lab:31434
Open WebUI est un projet Open Source qui se branche très facilement sur Ollama mais aussi sur d'autres fournisseurs commerciaux / propriétaires.
https://docs.openwebui.com/getting-started/quick-start/starting-with-ollama/
Open WebUI offre désormais des fonctionnalités avancées au delà de l'interaction avec un chat.
Il serait trop long de tout détailler ici, l'outil permet d'aller aujourd'hui très loin sur certaines fonctionnalités.
Voici un aperçu des fonctionnalités à date :
- Gestion multi-modèles
- Gestion granulaire des accès utilisateurs (RBAC, OIDC)
- Capacités RAG intégrées, extraction de documents PDF / Office, accès API
- Recherche web
- Génération d'images
- Pipelines de workflow
- Ajouts de fonctions agentiques custom, gestion MCP
- Gestion événementielle
- Création de modèles customs
VS Code via VSCodium avec plugins
VSCodium est une version open-source de Visual Studio Code développée depuis plusieurs années, qui offre notamment l'avantage de supprimer la télémétrie.
Le marketplace de VSCode est accessible et donne accès à de nombreuses extensions orientées IA Gen.
Liste sur https://marketplace.visualstudio.com/search?target=VSCode&category=AI&sortBy=Installs
En 2025, il y a plus de 700 extensions qui se proposent dans cette catégorie.
Voici quelques extensions intéressantes :
Les extensions avec support de modèles commerciaux sauf exception
- Copilot
- Windsurf (https://windsurf.com)
Les extensions avec support de Ollama
- Continue (https://continue.dev)
- Roo Code (https://roocode.com)
- Cline (https://cline.bot)
Si vous souhaitez utiliser ces extensions, vous pouvez les installer via le marketplace de VSCode.
Pour les extensions avec support de Ollama voici les documentations
- Continue : https://docs.continue.dev/customize/model-providers/ollama
- Roo Code : https://docs.roocode.com/providers/ollama/
- Cline : https://docs.cline.bot/provider-config/ollama
La configuration avec Ollama est simple, ces plugins sont développés dans un esprit Open.
Pycharm CE avec plugins
PyCharm est un éditeur de code développé par JetBrains, qui offre des fonctionnalités avancées pour le développement de logiciels en Python.
Référence : https://www.jetbrains.com/pycharm/
La community Edition est librement téléchargeable et offre des fonctionnalités similaires à la version professionnelle.
Comme pour VSCode le marketplace de Jetbrains regorge aujourd'hui de plugins IA/
https://plugins.jetbrains.com/search?excludeTags=internal&products=pycharm&search=ai
Le plugin ProxyAI est parmi les plus intéressants.
Liens :
- Plugin https://plugins.jetbrains.com/plugin/21056-proxyai
- Code https://github.com/carlrobertoh/ProxyAI
Il remplit des fonctionnalités assez complètes :
- autocomplétion
- chat
- ajout de fichiers pour le contexte
- personas
- édition contextuelle de code
- message de commits
ProxyAI est aussi facilement configurable avec Ollama et autres fournisseurs commerciaux / propriétaires.
Documentation Ollama sur https://docs.tryproxy.io/providers/local/ollama
Void
Void est un autre IDE basé sur VS Code qui implémente des fonctionnalités avancées pour l'IA.
Références
- Site https://voideditor.com/
- Code https://github.com/voideditor/void#readme
- Review https://medium.com/@adityakumar2001/void-ide-the-comprehensive-guide-to-the-open-source-cursor-alternative-2a6b17cae235
Void est un éditeur agentique qui se connecte facilement à Ollama.
Il peut également s'interfacer avec de nombreux fournisseurs commerciaux.
On verra la partie agentique dans la formation, mais l'idée est d'avoir un fonctionnement proactif de l'IA dans le développement du code.