ejecutar-modelos-local-llm

Cómo ejecutar modelos LLM en local: Guía completa con Ollama y LM Studio

User avatar placeholder
Escrito por Pulchratech

abril 6, 2026

Los modelos de lenguaje grandes (LLM) como los utilizados en inteligencia artificial generativa ya no son exclusivos de la nube. Hoy en día es posible ejecutar modelos LLM en local en tu propio ordenador, lo que permite mayor privacidad, ahorro de costes y control total sobre los datos. En esta guía completa aprenderás cómo correr modelos LLM en local, qué requisitos necesitas y cómo usar herramientas populares como Ollama y LM Studio.

Si quieres saber más sobre modelos LLM puedes visitar este artículo

Qué es un modelo LLM y por qué ejecutarlo en local

Un LLM (Large Language Model) es un modelo de inteligencia artificial entrenado con grandes cantidades de texto para generar lenguaje natural, responder preguntas, programar, traducir o crear contenido. Algunos ejemplos conocidos son Llama, Mistral o Gemma.

Ejecutar un LLM en local significa que el modelo funciona directamente en tu ordenador sin necesidad de enviar datos a servidores externos. Esto tiene múltiples ventajas:

  • Mayor privacidad de datos
  • No dependes de internet
  • Ahorro en costes de API
  • Mayor control sobre el modelo
  • Posibilidad de personalización

Requisitos para ejecutar modelos LLM en local

Antes de instalar un modelo LLM en local, debes comprobar que tu ordenador cumple ciertos requisitos mínimos:

  • RAM: mínimo 16GB (recomendado 32GB)
  • GPU: recomendable NVIDIA con CUDA
  • Espacio en disco: 10GB – 50GB
  • CPU moderna
  • Sistema operativo: Windows, Mac o Linux

Los modelos más pequeños pueden ejecutarse solo con CPU, pero para obtener buen rendimiento se recomienda usar GPU.

Cómo ejecutar LLM en local con Ollama

Ollama es una de las herramientas más populares para ejecutar modelos LLM en local de forma sencilla. Permite descargar modelos y ejecutarlos con un solo comando.

Instalar Ollama

Para instalar Ollama:

  1. Descargar Ollama desde su web oficial
  2. Instalar el programa
  3. Abrir la terminal o consola

Descargar un modelo en Ollama

Ejemplo para descargar el modelo Llama:

ollama run llama3

Otros modelos populares en Ollama:

  • llama3
  • mistral
  • gemma
  • phi
  • codellama

Ventajas de Ollama

  • Muy fácil de usar
  • Instalación rápida
  • Gran biblioteca de modelos
  • API local incluida
  • Compatible con herramientas de IA

Cómo ejecutar LLM en local con LM Studio

LM Studio es otra herramienta muy popular para ejecutar modelos LLM en local, especialmente para usuarios que prefieren interfaz gráfica en lugar de comandos.

Instalar LM Studio

  1. Descargar LM Studio
  2. Instalar el programa
  3. Abrir la aplicación
  4. Ir a la sección de modelos
  5. Descargar un modelo compatible GGUF

Modelos recomendados en LM Studio

  • Mistral 7B
  • Llama 3 8B
  • Gemma 7B
  • Phi-3
  • Mixtral

Ventajas de LM Studio

  • Interfaz gráfica
  • Fácil descarga de modelos
  • Servidor local compatible con API OpenAI
  • Configuración sencilla
  • Ideal para principiantes

Ollama vs LM Studio: cuál elegir

Característica Ollama LM Studio
Interfaz gráfica No
Facilidad de uso Alta Muy alta
API local
Descarga modelos Terminal Interfaz
Ideal para Desarrolladores Principiantes

Qué modelos LLM puedes ejecutar en local

Algunos de los modelos más utilizados para ejecutar en local son:

  • Llama 3
  • Mistral
  • Mixtral
  • Gemma
  • Phi
  • Code Llama

La mayoría se distribuyen en formato GGUF optimizado para ejecución local.

Ventajas de usar LLM en local

  • Privacidad total
  • No pagas por uso
  • Funciona sin internet
  • Puedes entrenar o afinar modelos
  • Integración con aplicaciones propias
  • Automatización de tareas

Desventajas de ejecutar modelos LLM en local

  • Requiere hardware potente
  • Los modelos grandes son lentos sin GPU
  • Configuración inicial
  • Consumo de RAM elevado

FAQs sobre ejecutar LLM en local

¿Se puede ejecutar ChatGPT en local?

No exactamente, pero puedes ejecutar modelos similares como Llama, Mistral o Gemma en tu ordenador.

¿Cuánta RAM necesito para un LLM en local?

Depende del modelo. Para modelos 7B se recomiendan 16GB de RAM, para modelos mayores 32GB o más.

¿Necesito GPU para ejecutar LLM?

No es obligatorio, pero mejora mucho el rendimiento.

¿Cuál es mejor Ollama o LM Studio?

Ollama es mejor para desarrolladores y automatización. LM Studio es mejor para principiantes.

¿Qué modelo LLM local es mejor?

Actualmente Llama 3 y Mistral son de los mejores modelos para ejecutar en local.

En PulchraTech compartimos las últimas novedades en ciberseguridad, hacking ético, OSINT e informática forense. Analizamos vulnerabilidades, herramientas y técnicas utilizadas en la defensa y auditoría de sistemas, fomentando la investigación y la formación en seguridad informática.