Outils pour utilisateurs

Outils du site


reseau:cloud:proxmox:lxcnvidiaollama

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 20:49] techer.charles_educ-valadon-limoges.frreseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 21:06] (Version actuelle) – [Poser des questions en langage naturel] techer.charles_educ-valadon-limoges.fr
Ligne 36: Ligne 36:
  
  
-===== tester le modèle en console =====+===== Tester le modèle en console =====
  
  
Ligne 85: Ligne 85:
 ou simplement CTRL + C. ou simplement CTRL + C.
  
-📌 Options avancées après l’exécution +==== Utiliser le modèle dans un script (API locale Ollama) ====
-👉 Utiliser le modèle dans un script (API locale Ollama) +
-Tu peux ouvrir une autre console et appeler l’API : +
-Shellcurl http://localhost:11434/api/generate \  -d '{ "model": "qwen2.5-coder:7b", "prompt": "Écris une classe Python." }'Afficher plus de lignes+
  
-👉 Lutiliser dans VS Code ou un éditeur +  * depuis une autre console, pour appeler lAPI : 
-Beaucoup d’extensions permettent de configurer Ollama comme LLM local. + 
-Tu peux alors utiliser Qwen2.5‑Coder comme assistant de code directement dans l’IDE.+<code> 
 +curl http://localhost:11434/api/generate \ 
 +  -d '{ "model": "qwen2.5-coder:7b", "prompt": "Écris une classe Python." }' 
 +</code> 
 + 
 +==== Utiliser dans VS Code ou un éditeur ==== 
 +Beaucoup d’extensions permettent de configurer Ollama comme LLM local. **Qwen2.5‑Coder** peux alors être utilisé  comme assistant de code directement dans l’IDE. 
 + 
 +==== Lancer en mode serveur ==== 
 + 
 +<code> 
 +ollama serve 
 +</code>
  
-👉 Lancer en mode serveur 
-Shellollama serveAfficher plus de lignes 
 Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.). Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.).
  
-Si tu veux, je peux aussi : 
  
-te montrer comment installer un modèle LLM supplémentaire, 
-te donner une liste des commandes utiles d’Ollama, 
-ou te proposer un exemple de workflow complet pour coder avec Qwen2.5‑Coder. 
reseau/cloud/proxmox/lxcnvidiaollama.1768420166.txt.gz · Dernière modification : 2026/01/14 20:49 de techer.charles_educ-valadon-limoges.fr