====== Proxmox : créer un conteneur IA (Ollama + Open WebUI) à partir d'un template ======
===== Présentation =====
Le template proposé permet de disposer d'un conteneur LXC qui lance automatiquement :
* **Ollama** utilisable en ligne de commande ou avec Open WebUI,
* et **Open WebUI** sur l'adresse IP de la VM et les **port 8080 ou 80**.
===== Création du conteneur =====
* Dans le Pool de ressources **TemplatesVM**, cliquez-droit sur le template **Modele-IA**
{{ :reseau:cloud:proxmox:ia_05.png |}}
* Renseignez :
* **IMPORTANT** : le serveur **siohyp2** si vous souhaitez pouvoir utiliser des GPU NVidia (non obligatoire)
* le nom du conteneur LXC à créer
* le pool de ressources du conteneur
* **ATTENTION** le mode Full Clone
{{ :reseau:cloud:proxmox:ia_06.png |}}
**Attendez** quelques minutes, le temps de la copie ... de près 40 Gio ...
===== Caractéristiques de la VM =====
Ce sont les caractéristiques de départ que vous pourrez modifier, à la hausse ou à la baisse pour certains, en fonction de l'usage du conteneur :
* RAM : 10 Gio
* Coeurs : 4
* Disque sur : 100 Gio
Il a été rajouté au conteneur les **périphériques Passthrough** associés aux deux cartes NVidia Testa T4 (dev0 à dev7). Cela signifie que le conteneur accède directement aux deux cartes Tesla T4 (/dev/nvidia0 et /dev/nvidia1) sans passer par l'hyperviseur Proxmox.
{{ :reseau:cloud:proxmox:ia_07.png |}}
===== Lancement du conteneur =====
* Lancez le conteneur après la fin du clonage
* Pour ouvrir une session, utilisez le compte **root** avec le mot de passe **Sio1234**
* Attendez quelques instant que tous les services soient lancés. La commande ** ss -nlt** permet de visualiser les services en écoute à obtenir :
* **80** et **8080** pour **Open WebUI** ;
* **11434** pour **Ollama**.
root@IA:~# ss -nlt
State Recv-Q Send-Q Local Address:Port Peer Address:Port
LISTEN 0 2048 0.0.0.0:8080 0.0.0.0:*
LISTEN 0 4096 127.0.0.1:2019 0.0.0.0:*
LISTEN 0 100 127.0.0.1:25 0.0.0.0:*
LISTEN 0 4096 127.0.0.1:11434 0.0.0.0:*
LISTEN 0 4096 *:80 *:*
LISTEN 0 4096 *:22 *:*
LISTEN 0 100 [::1]:25 [::]:*
===== Visualiser les ressources consommées par le conteneur =====
Avec Proxmox, la rubrique **Summary** permet :
* de visualiser la RAM, les coeurs et l'espace disque utilisé en temps réel,
* l'adresse IP du conteneur
{{ :reseau:cloud:proxmox:ia_08.png |}}
* En CLI, la commande **nvidia-smi** permet de visualiser en temps réel, la consommation des ressources des cartes NVidia Tesla T4 :
root@IA:~# nvidia-smi
Fri Jan 16 22:09:02 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 590.48.01 Driver Version: 590.48.01 CUDA Version: 13.1 |
+-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 Tesla T4 On | 00000000:86:00.0 Off | 0 |
| N/A 44C P8 13W / 70W | 0MiB / 15360MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 1 Tesla T4 On | 00000000:AF:00.0 Off | 0 |
| N/A 45C P8 13W / 70W | 0MiB / 15360MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| No running processes found |
+-----------------------------------------------------------------------------------------+