Aller au contenu principal

1 - Le lab

Les outils disponibles sur le lab

Pour faciliter votre travail, nous avons installé quelques outils sur votre machine virtuell, votre lab disponible le temps de la formation.

Ce sont des outils disponibles gratuitement en licence ouverte (open source, open weights).


Ollama

Ollama est un serveur qui sert de endpoint pour faire des inférences sur des modèles de langage open source / open weights.

Références :


Le serveur tourne en arrière-plan et expose son API en HTTPS, tandis qu'un client local ou distant peut l'utiliser pour l'administration et le requêtage.

Le port par défaut est 11434.

Utiliser http://FQDN.du.lab:11434 pour vérifier que Ollama est up.

Cette URL vous sera utile pour configurer les autres outils.


Ollama simplifie l'accès aux modèles gratuits en vous évitant d'avoir à connaître tous les détails techniques sous-jacents.

Pour obtenir une liste des modèles disponibles : https://ollama.com/library

Il serait très long de comparer les avantages et inconvénients des différents modèles.

En 2025 un bon choix généraliste est Qwen3, qui dès 8B fournit des capacités intéressantes.

Les modèles commerciaux offrent des capacités plus avancées et des performances plus élevées, mais pour le contexte pédagogique c'est suffisant.


La ligne de commande Ollama permet d'automatiser certaines actions en ligne de commande au delà de l'administration.

CommandeDescription
ollama --versionAffiche la version actuelle d’Ollama.
ollama pull [model]Télécharge le modèle spécifié sur votre système.
ollama listListe tous les modèles téléchargés.
ollama show [model]Affiche les détails d’un modèle spécifique, tels que sa configuration et sa date de sortie.
ollama serveDémarre Ollama sur votre système local.
ollama run [model] Exécute le modèle spécifié pour interaction
ollama psAffiche les modèles en cours d’exécution.
ollama rm [model]Supprime le modèle spécifié de votre système.
ollama create<new_model> Crée un nouveau modèle à partir d’un modèle existant à des fins de personnalisation ou de formation.

Attention ollama est lancé dans le lab via docker.

il faut appeler la ligne de commande à travers un appel au conteneur.


docker exec ollama ollama list
docker exec ollama ollama show [model]
docker exec -it ollama ollama run [model]
docker exec ollama ollama ps
docker exec ollama ollama pull [model]


Sachez qu'Ollama fournit aussi une interface MODELFILE qui est comme un DOCKERFILE pour les modèles LLM.

Sur la base d'un modèle donné, vous pouvez créer un nouveau modèle personnalisé en ajoutant des instructions dans le fichier.

C'est une forme de persona comme on en verra plus tard.

Documentation : https://ollama.readthedocs.io/en/modelfile/


OpenWebUI

Open WebUI est une interface web qui permet d'avoir l'équivalent d'un chatbot avec un modèle LLM sur la machine de votre choix.

https://docs.openwebui.com/


Open WebUI tourne en mode serveur et expose un port sur votre lab.

Pour y accéder : http://FQDN.du.lab:31434


Open WebUI est un projet Open Source qui se branche très facilement sur Ollama mais aussi sur d'autres fournisseurs commerciaux / propriétaires.

https://docs.openwebui.com/getting-started/quick-start/starting-with-ollama/


Open WebUI offre désormais des fonctionnalités avancées au delà de l'interaction avec un chat.

Il serait trop long de tout détailler ici, l'outil permet d'aller aujourd'hui très loin sur certaines fonctionnalités.

Voici un aperçu des fonctionnalités à date :

  • Gestion multi-modèles
  • Gestion granulaire des accès utilisateurs (RBAC, OIDC)
  • Capacités RAG intégrées, extraction de documents PDF / Office, accès API
  • Recherche web
  • Génération d'images
  • Pipelines de workflow
  • Ajouts de fonctions agentiques custom, gestion MCP
  • Gestion événementielle
  • Création de modèles customs

VS Code via VSCodium avec plugins

VSCodium est une version open-source de Visual Studio Code développée depuis plusieurs années, qui offre notamment l'avantage de supprimer la télémétrie.

https://vscodium.com/


Le marketplace de VSCode est accessible et donne accès à de nombreuses extensions orientées IA Gen.

Liste sur https://marketplace.visualstudio.com/search?target=VSCode&category=AI&sortBy=Installs

En 2025, il y a plus de 700 extensions qui se proposent dans cette catégorie.


Voici quelques extensions intéressantes :

Les extensions avec support de modèles commerciaux sauf exception

Les extensions avec support de Ollama


Si vous souhaitez utiliser ces extensions, vous pouvez les installer via le marketplace de VSCode.

Pour les extensions avec support de Ollama voici les documentations

La configuration avec Ollama est simple, ces plugins sont développés dans un esprit Open.


Pycharm CE avec plugins

PyCharm est un éditeur de code développé par JetBrains, qui offre des fonctionnalités avancées pour le développement de logiciels en Python.

Référence : https://www.jetbrains.com/pycharm/

La community Edition est librement téléchargeable et offre des fonctionnalités similaires à la version professionnelle.


Comme pour VSCode le marketplace de Jetbrains regorge aujourd'hui de plugins IA/

https://plugins.jetbrains.com/search?excludeTags=internal&products=pycharm&search=ai


Le plugin ProxyAI est parmi les plus intéressants.

Liens :

Il remplit des fonctionnalités assez complètes :

  • autocomplétion
  • chat
  • ajout de fichiers pour le contexte
  • personas
  • édition contextuelle de code
  • message de commits

ProxyAI est aussi facilement configurable avec Ollama et autres fournisseurs commerciaux / propriétaires.

Documentation Ollama sur https://docs.tryproxy.io/providers/local/ollama


Void

Void est un autre IDE basé sur VS Code qui implémente des fonctionnalités avancées pour l'IA.

Références


Void est un éditeur agentique qui se connecte facilement à Ollama.

Il peut également s'interfacer avec de nombreux fournisseurs commerciaux.

On verra la partie agentique dans la formation, mais l'idée est d'avoir un fonctionnement proactif de l'IA dans le développement du code.