reseau:cloud:proxmox:lxcnvidiaollama
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 20:35] – techer.charles_educ-valadon-limoges.fr | reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 21:06] (Version actuelle) – [Poser des questions en langage naturel] techer.charles_educ-valadon-limoges.fr | ||
|---|---|---|---|
| Ligne 2: | Ligne 2: | ||
| Lien : https:// | Lien : https:// | ||
| + | |||
| + | ===== Installer Ollama ===== | ||
| * utiliser un conteneur avec les pilotes Nvidia | * utiliser un conteneur avec les pilotes Nvidia | ||
| Ligne 31: | Ligne 33: | ||
| Created symlink '/ | Created symlink '/ | ||
| >>> | >>> | ||
| + | </ | ||
| + | |||
| + | |||
| + | ===== Tester le modèle en console ===== | ||
| + | |||
| + | |||
| + | < | ||
| + | # ollama run qwen2.5-coder: | ||
| + | </ | ||
| + | |||
| + | <WRAP center round info> | ||
| + | Le modèle Qwen2.5‑Coder 7B dans Ollama en mode interactif est spécialisé pour le code. | ||
| + | </ | ||
| + | |||
| + | ==== Poser des questions en langage naturel ==== | ||
| + | |||
| + | Il suffit simplement de taper une question comme : | ||
| + | * Comment créer une API REST en Python ? | ||
| + | |||
| + | Le modèle répond dans le terminal. | ||
| + | |||
| + | Générer du code (tous langages) | ||
| + | Comme il s’agit d’un modèle coder, on peux lui demander : | ||
| + | * Écris une fonction en JavaScript qui trie une liste d’objets par date. | ||
| + | |||
| + | Ou même des projets complets : | ||
| + | * Génère un Dockerfile pour une application FastAPI. | ||
| + | |||
| + | |||
| + | Expliquer du code : | ||
| + | * Explique ce que fait ce script : | ||
| + | <ton code ici> | ||
| + | |||
| + | Il te donnera une explication détaillée. | ||
| + | |||
| + | Déboguer ou améliorer du code | ||
| + | * Voici mon code, il plante. Trouve l’erreur. | ||
| + | |||
| + | ou | ||
| + | * Optimise cette fonction pour la rendre plus rapide. | ||
| + | |||
| + | |||
| + | Travailler en conversation continue | ||
| + | * Ollama garde l’état de la conversation tant que le processus est lancé. Il est alors possible d' | ||
| + | * Maintenant rends le code compatible Python 3.12. | ||
| + | |||
| + | |||
| + | Quitter proprement | ||
| + | * /bye | ||
| + | |||
| + | ou simplement CTRL + C. | ||
| + | |||
| + | ==== Utiliser le modèle dans un script (API locale Ollama) ==== | ||
| + | |||
| + | * depuis une autre console, pour appeler l’API : | ||
| + | |||
| + | < | ||
| + | curl http:// | ||
| + | -d '{ " | ||
| + | </ | ||
| + | |||
| + | ==== Utiliser dans VS Code ou un éditeur ==== | ||
| + | Beaucoup d’extensions permettent de configurer Ollama comme LLM local. **Qwen2.5‑Coder** peux alors être utilisé | ||
| + | |||
| + | ==== Lancer en mode serveur ==== | ||
| + | |||
| + | < | ||
| + | ollama serve | ||
| + | </ | ||
| + | |||
| + | Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.). | ||
| + | |||
reseau/cloud/proxmox/lxcnvidiaollama.1768419346.txt.gz · Dernière modification : 2026/01/14 20:35 de techer.charles_educ-valadon-limoges.fr
