Outils pour utilisateurs

Outils du site


reseau:cloud:proxmox:lxcnvidiaollama

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 20:37] techer.charles_educ-valadon-limoges.frreseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 21:06] (Version actuelle) – [Poser des questions en langage naturel] techer.charles_educ-valadon-limoges.fr
Ligne 2: Ligne 2:
  
 Lien : https://shionn.github.io/draft/nvidia-proxmox-lxc-passthrought-ollama.html Lien : https://shionn.github.io/draft/nvidia-proxmox-lxc-passthrought-ollama.html
 +
 +===== Installer Ollama =====
  
    * utiliser un conteneur avec les pilotes Nvidia    * utiliser un conteneur avec les pilotes Nvidia
Ligne 34: Ligne 36:
  
  
-    * test en console.+===== Tester le modèle en console ===== 
  
 <code> <code>
 # ollama run qwen2.5-coder:7b # ollama run qwen2.5-coder:7b
 </code> </code>
 +
 +<WRAP center round info>
 +Le modèle Qwen2.5‑Coder 7B dans Ollama en mode interactif est spécialisé pour le code.
 +</WRAP>
 +
 +==== Poser des questions en langage naturel ====
 +
 +Il suffit simplement de taper une question comme :
 +  * Comment créer une API REST en Python ?
 +
 +Le modèle répond dans le terminal.
 +
 +Générer du code (tous langages)
 +Comme il s’agit d’un modèle coder, on peux lui demander :
 +  * Écris une fonction en JavaScript qui trie une liste d’objets par date.
 +
 +Ou même des projets complets :
 +  * Génère un Dockerfile pour une application FastAPI.
 +
 +
 +Expliquer du code :
 +  * Explique ce que fait ce script :
 +<ton code ici>
 +
 +Il te donnera une explication détaillée.
 +
 +Déboguer ou améliorer du code
 +  * Voici mon code, il plante. Trouve l’erreur.
 +
 +ou
 +  * Optimise cette fonction pour la rendre plus rapide.
 +
 +
 +Travailler en conversation continue
 +  * Ollama garde l’état de la conversation tant que le processus est lancé. Il est alors possible d'enchaîner les prompts :
 +  * Maintenant rends le code compatible Python 3.12.
 +
 +
 +Quitter proprement
 +  * /bye
 +
 +ou simplement CTRL + C.
 +
 +==== Utiliser le modèle dans un script (API locale Ollama) ====
 +
 +  * depuis une autre console, pour appeler l’API :
 +
 +<code>
 +curl http://localhost:11434/api/generate \
 +  -d '{ "model": "qwen2.5-coder:7b", "prompt": "Écris une classe Python." }'
 +</code>
 +
 +==== Utiliser dans VS Code ou un éditeur ====
 +Beaucoup d’extensions permettent de configurer Ollama comme LLM local. **Qwen2.5‑Coder** peux alors être utilisé  comme assistant de code directement dans l’IDE.
 +
 +==== Lancer en mode serveur ====
 +
 +<code>
 +ollama serve
 +</code>
 +
 +Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.).
 +
 +
reseau/cloud/proxmox/lxcnvidiaollama.1768419421.txt.gz · Dernière modification : 2026/01/14 20:37 de techer.charles_educ-valadon-limoges.fr