[GH-ISSUE #12135] Ollama 'run' command hangs when loading Llama3 and other large models #8064

Closed
opened 2026-04-12 20:19:36 -05:00 by GiteaMirror · 1 comment
Owner

Originally created by @nicoweb33-debug on GitHub (Aug 31, 2025).
Original GitHub issue: https://github.com/ollama/ollama/issues/12135

What is the issue?

El comando ollama run se queda atascado sin dar respuesta cuando intento cargar modelos grandes como Llama3 y Deepseek-Coder. Este problema ocurre a pesar de que el servidor está funcionando y la memoria disponible es suficiente.

Relevant log output

Iniciando diagnóstico...
Verificando el entorno virtual (venv)...
-> [OK] Entorno virtual detectado.
Verificando el directorio 'sandbox'...
-> [OK] Directorio 'sandbox' encontrado.
Verificando el binario de Ollama...
-> [OK] Binario de Ollama encontrado en: /usr/local/bin/ollama
Verificando la conexión HTTP con el servidor de Ollama...
-> [OK] Servidor de Ollama respondiendo (código de estado: 200).
Verificando si el modelo 'llama3' está disponible...
-> [OK] El modelo 'llama3' está instalado.
Realizando una prueba de ejecución del modelo...
-> [Fallo] La prueba de ejecución del modelo tardó demasiado. Es posible que la carga del modelo sea muy lenta.
Diagnóstico completado.

OS

Linux

GPU

AMD

CPU

AMD

Ollama version

ollama version is 0.11.8 Warning: client version is 0.1.41

Originally created by @nicoweb33-debug on GitHub (Aug 31, 2025). Original GitHub issue: https://github.com/ollama/ollama/issues/12135 ### What is the issue? El comando ollama run se queda atascado sin dar respuesta cuando intento cargar modelos grandes como Llama3 y Deepseek-Coder. Este problema ocurre a pesar de que el servidor está funcionando y la memoria disponible es suficiente. ### Relevant log output ```shell Iniciando diagnóstico... Verificando el entorno virtual (venv)... -> [OK] Entorno virtual detectado. Verificando el directorio 'sandbox'... -> [OK] Directorio 'sandbox' encontrado. Verificando el binario de Ollama... -> [OK] Binario de Ollama encontrado en: /usr/local/bin/ollama Verificando la conexión HTTP con el servidor de Ollama... -> [OK] Servidor de Ollama respondiendo (código de estado: 200). Verificando si el modelo 'llama3' está disponible... -> [OK] El modelo 'llama3' está instalado. Realizando una prueba de ejecución del modelo... -> [Fallo] La prueba de ejecución del modelo tardó demasiado. Es posible que la carga del modelo sea muy lenta. Diagnóstico completado. ``` ### OS Linux ### GPU AMD ### CPU AMD ### Ollama version ollama version is 0.11.8 Warning: client version is 0.1.41
GiteaMirror added the bug label 2026-04-12 20:19:36 -05:00
Author
Owner

@rick-github commented on GitHub (Aug 31, 2025):

Set OLLAMA_DEBUG=1. The logs will show the loading progress of the model (model load progress).

Also, you should update the client. 0.1.41 is very old.

<!-- gh-comment-id:3240372381 --> @rick-github commented on GitHub (Aug 31, 2025): Set `OLLAMA_DEBUG=1`. The logs will show the loading progress of the model (`model load progress`). Also, you should update the client. 0.1.41 is very old.
Sign in to join this conversation.
1 Participants
Notifications
Due Date
No due date set.
Dependencies

No dependencies set.

Reference: github-starred/ollama#8064