Pasar al contenido principal
Mario Galán

Navegación principal

  • Inicio
  • Contact
  • ES
  • EN
Menú de cuenta de usuario
  • Iniciar sesión

IA

Ollama logo

Desplegando modelos LLM en local con Ollama y OpenWebUI

Metidos como estamos en la revolución de la IA parece que siempre tenemos que usar proveedores en la nube. Aunque tiene sus ventajas como la facilidad para arrancar también tiene grandes inconvenientes como son el coste, la privacidad y nos limita las posibilidades de experimentación.

Existen muchas opciones de implantar modelos de lenguaje extensos LLM en local para poder usarlos

Más

Etiquetas

  • proxmox
  • IA
  • docker
IA
Canal RSS
Funciona con Drupal