Outils pour utilisateurs

Outils du site


reseau:cloud:proxmox:lxcnvidiaollama

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
reseau:cloud:proxmox:lxcnvidiaollama [2026/01/17 12:04] – [Comparaison rapide] techer.charles_educ-valadon-limoges.frreseau:cloud:proxmox:lxcnvidiaollama [2026/01/18 19:00] (Version actuelle) – [Créer un service systemd] techer.charles_educ-valadon-limoges.fr
Ligne 5: Ligne 5:
 ===== Présentation de Ollama===== ===== Présentation de Ollama=====
 Ollama permet : Ollama permet :
-   * d'installer un modèle LLM +   * d'installer un **modèle LLM** de son choix, 
-   * de configurer automatiquement tous les paramètres techniques +   * de configurer automatiquement tous les paramètres techniques, 
-   dispose d'une interface simple pour discuter avec l’IA+   de disposer d'une interface simple pour interagir avec l’IA.
  
-Les données restent locales+Les données restent locales.
  
-Un LLM  (Large Language Model) est un programme informatique qui a été entraîné sur d’énormes quantités de texte (livres, articles, code source, pages web…). Grâce à cet entraînement, il a appris : +Un **LLM**  (Large Language Model) est un programme informatique qui a été entraîné sur d’énormes quantités de texte (livres, articles, code source, pages web…). Grâce à cet entraînement, il a appris : 
-  * Les règles de la langue : grammaire, orthographe, syntaxe +  * Les **règles de la langue** : grammaire, orthographe, syntaxe, 
-  * Les connaissances du monde : histoire, science, actualités (jusqu’à sa date de publication) +  * Les **connaissances du monde** : histoire, science, actualités (jusqu’à sa date de publication), 
-  * Les patterns de raisonnement : comment résoudre des problèmes, structurer une réponse +  * Les **patterns de raisonnement** : comment résoudre des problèmes, structurer une réponse, 
-  * Les conventions du code : syntaxe des langages, bonnes pratiques, patterns courants+  * Les **conventions du code** : syntaxe des langages, bonnes pratiques, patterns courants.
  
 Quand une question est posée à un LLM, il ne **cherche** pas la réponse dans une base de données. Il génère la réponse mot par mot, en prédisant quel mot est le plus probable après le précédent, compte tenu de votre question et de tout ce qu’il a appris. Quand une question est posée à un LLM, il ne **cherche** pas la réponse dans une base de données. Il génère la réponse mot par mot, en prédisant quel mot est le plus probable après le précédent, compte tenu de votre question et de tout ce qu’il a appris.
Ligne 45: Ligne 45:
  
 Plus un modèle a de paramètres, plus il peut : Plus un modèle a de paramètres, plus il peut :
-  * capturer des nuances linguistiques complexes +  * capturer des nuances linguistiques complexes, 
-  * mémoriser des patterns +  * mémoriser des patterns, 
-  * généraliser à partir d’exemples +  * généraliser à partir d’exemples, 
-  * fournir des réponses plus fines+  * fournir des réponses plus fines.
  
 ==== Comparaison rapide ==== ==== Comparaison rapide ====
Ligne 131: Ligne 131:
  
  
-<WRAP center round info > 
-Signification du paramètre **7B** 
  
-Quand on parle de **Qwen2.5‑Coder 7B**, le **7B** signifie 7 milliards de paramètres, c'est à dire le nombre de **connexions neuronales** dans le modèle. 
- 
-  * Plus de paramètres = modèle plus “intelligent” mais plus gourmand en ressources 
-  * Moins de paramètres = modèle plus rapide mais potentiellement moins précis 
-  *  
- 
-</WRAP> 
  
 ==== Poser des questions en langage naturel ==== ==== Poser des questions en langage naturel ====
Ligne 315: Ligne 306:
    
  
-==== Exécuter open‑webui ====+==== Installer open‑webui ====
  
   * Créer l'environnement virtuel avec la nouvelle version Python dans le dossier **/opt/open-webui** :   * Créer l'environnement virtuel avec la nouvelle version Python dans le dossier **/opt/open-webui** :
Ligne 361: Ligne 352:
 chown -R openwebui:openwebui /opt/open-webui chown -R openwebui:openwebui /opt/open-webui
 </code> </code>
-❗ 2. Pourquoi tu n’as p+
 ==== Créer un service systemd ==== ==== Créer un service systemd ====
   * créer le fichier **/etc/systemd/system/openwebui.service** avec le contenu suivant   * créer le fichier **/etc/systemd/system/openwebui.service** avec le contenu suivant
Ligne 368: Ligne 359:
 [Unit] [Unit]
 Description=Open WebUI service Description=Open WebUI service
-After=network.target+After=network-online.target 
 +Wants=network-online.target
  
 [Service] [Service]
Ligne 374: Ligne 366:
 User=openwebui User=openwebui
 Group=openwebui Group=openwebui
-WorkingDirectory=/opt/openwebui +WorkingDirectory=/opt/open-webui
-ExecStart=/opt/open-webui/venv/bin/open-webui serve --host 0.0.0.0 --port 8080 +
-Restart=always+
 Environment="PATH=/opt/open-webui/venv/bin:/usr/local/bin:/usr/bin" Environment="PATH=/opt/open-webui/venv/bin:/usr/local/bin:/usr/bin"
 Environment="PYTHONUNBUFFERED=1" Environment="PYTHONUNBUFFERED=1"
 +
 +#Attendre que tout les services soient actifs
 +ExecStartPre=/bin/sleep 5
 +ExecStart=/opt/open-webui/venv/bin/open-webui serve --host 0.0.0.0 --port 8080
 +Restart=always
 +RestartSec=3
  
 [Install] [Install]
 WantedBy=multi-user.target WantedBy=multi-user.target
 +
 </code> </code>
  
reseau/cloud/proxmox/lxcnvidiaollama.1768647875.txt.gz · Dernière modification : 2026/01/17 12:04 de techer.charles_educ-valadon-limoges.fr