[GH-ISSUE #9940] ps后只会显示最近一次正在运行的模型而不是所有正在运行的模型 #6506

Closed
opened 2026-04-12 18:05:18 -05:00 by GiteaMirror · 5 comments
Owner

Originally created by @systemoslwb on GitHub (Mar 22, 2025).
Original GitHub issue: https://github.com/ollama/ollama/issues/9940

What is the issue?

我同时运行了qwen2.5和Deepseek-R1,ps后只会显示最近一次正在运行的模型而不是所有正在运行的模型

Relevant log output

ollama ps
NAME               ID              SIZE      PROCESSOR    UNTIL
deepseek-r1:14b    ea35dfe18182    9.9 GB    100% GPU     4 minutes from now

OS

Windows

GPU

Nvidia

CPU

Intel

Ollama version

0.6.0

Originally created by @systemoslwb on GitHub (Mar 22, 2025). Original GitHub issue: https://github.com/ollama/ollama/issues/9940 ### What is the issue? 我同时运行了qwen2.5和Deepseek-R1,ps后只会显示最近一次正在运行的模型而不是所有正在运行的模型 ### Relevant log output ```shell ollama ps NAME ID SIZE PROCESSOR UNTIL deepseek-r1:14b ea35dfe18182 9.9 GB 100% GPU 4 minutes from now ``` ### OS Windows ### GPU Nvidia ### CPU Intel ### Ollama version 0.6.0
GiteaMirror added the bug label 2026-04-12 18:05:18 -05:00
Author
Owner

@JasonHonKL commented on GitHub (Mar 22, 2025):

Image

好像可以喔。可以你看一下如何start server 嗎?

<!-- gh-comment-id:2745250222 --> @JasonHonKL commented on GitHub (Mar 22, 2025): <img width="608" alt="Image" src="https://github.com/user-attachments/assets/8f5b322c-f8b4-4b53-8dc6-b07252e2c96e" /> 好像可以喔。可以你看一下如何start server 嗎?
Author
Owner

@sieveLau commented on GitHub (Mar 22, 2025):

如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了

<!-- gh-comment-id:2745307717 --> @sieveLau commented on GitHub (Mar 22, 2025): 如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了
Author
Owner

@systemoslwb commented on GitHub (Mar 22, 2025):

如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了

可我显存为32G,并且两个模型可以同时对话

<!-- gh-comment-id:2745314774 --> @systemoslwb commented on GitHub (Mar 22, 2025): > 如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了 可我显存为32G,并且两个模型可以同时对话
Author
Owner

@sieveLau commented on GitHub (Mar 22, 2025):

如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了

可我显存为32G,并且两个模型可以同时对话

我在linux平台目前未遇到过这样的情况,可能需要你提供更多的信息比如log以及复现步骤之类的。可能Windows有特别的bug吧,跑AI还是推荐用Linux会比较少问题。

<!-- gh-comment-id:2745316998 --> @sieveLau commented on GitHub (Mar 22, 2025): > > 如果你的显存足够容纳两个模型,ps就会显示全部。ps只显示一个的话就代表着ollama觉得不能同时跑两个,所以把之前的那个unload了 > > 可我显存为32G,并且两个模型可以同时对话 我在linux平台目前未遇到过这样的情况,可能需要你提供更多的信息比如log以及复现步骤之类的。可能Windows有特别的bug吧,跑AI还是推荐用Linux会比较少问题。
Author
Owner

@JasonHonKL commented on GitHub (Mar 24, 2025):

我看了一下代碼,應該是C++那裡換window 的問題。 :( 這個我不太會幫不到

<!-- gh-comment-id:2746679310 --> @JasonHonKL commented on GitHub (Mar 24, 2025): 我看了一下代碼,應該是C++那裡換window 的問題。 :( 這個我不太會幫不到
Sign in to join this conversation.
1 Participants
Notifications
Due Date
No due date set.
Dependencies

No dependencies set.

Reference: github-starred/ollama#6506