reseau:cloud:proxmox:lxcnvidiaollama
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédente | |||
| reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 21:02] – [tester le modèle en console] techer.charles_educ-valadon-limoges.fr | reseau:cloud:proxmox:lxcnvidiaollama [2026/01/14 21:06] (Version actuelle) – [Poser des questions en langage naturel] techer.charles_educ-valadon-limoges.fr | ||
|---|---|---|---|
| Ligne 85: | Ligne 85: | ||
| ou simplement CTRL + C. | ou simplement CTRL + C. | ||
| - | 📌 Options avancées après l’exécution | + | ==== Utiliser le modèle dans un script (API locale Ollama) |
| - | 👉 Utiliser le modèle dans un script (API locale Ollama) | + | |
| - | Tu peux ouvrir une autre console et appeler l’API : | + | |
| - | Shellcurl http:// | + | |
| - | 👉 L’utiliser | + | * depuis une autre console, pour appeler l’API : |
| - | Beaucoup d’extensions permettent de configurer Ollama comme LLM local. | + | |
| - | Tu peux alors utiliser | + | < |
| + | curl http:// | ||
| + | -d '{ " | ||
| + | </ | ||
| + | |||
| + | ==== Utiliser | ||
| + | Beaucoup d’extensions permettent de configurer Ollama comme LLM local. | ||
| + | |||
| + | ==== Lancer en mode serveur ==== | ||
| + | |||
| + | < | ||
| + | ollama serve | ||
| + | </ | ||
| - | 👉 Lancer en mode serveur | ||
| - | Shellollama serveAfficher plus de lignes | ||
| Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.). | Le modèle devient accessible à d’autres outils (LM Studio, Continue, Cursor, etc.). | ||
| - | Si tu veux, je peux aussi : | ||
| - | te montrer comment installer un modèle LLM supplémentaire, | ||
| - | te donner une liste des commandes utiles d’Ollama, | ||
| - | ou te proposer un exemple de workflow complet pour coder avec Qwen2.5‑Coder. | ||
reseau/cloud/proxmox/lxcnvidiaollama.1768420941.txt.gz · Dernière modification : 2026/01/14 21:02 de techer.charles_educ-valadon-limoges.fr
