[GH-ISSUE #14304] Web search with deepseek-3.2:cloud using MacOS GUI. #55821

Open
opened 2026-04-29 09:46:28 -05:00 by GiteaMirror · 1 comment
Owner

Originally created by @lafisad on GitHub (Feb 18, 2026).
Original GitHub issue: https://github.com/ollama/ollama/issues/14304

What is the issue?

My prompt: Was sei die Verantwortung der Physiker laut Newton, Einstein und Möbius im Buch „Die Physiker“ von Dürrenmatt?
DeepSeek thought for 4.2, trying to search online. It gave the following "error message": Error: ollama cloud is disabled: web search is unavailable (unable to verify server cloud policy)
Thoughts:

Die Frage bezieht sich auf das Drama "Die Physiker" von Friedrich Dürrenmatt, in dem die Verantwortung von Physikern thematisiert wird. Die Figuren Newton, Einstein und Möbius sind darin wichtige Charaktere. Um die Frage zu beantworten, muss ich den Inhalt des Stücks und die Positionen der drei Physikerfiguren verstehen. Dafür suche ich am besten nach Informationen.

Then it thought for a moment.

Der Web-Search über ollama.com ist deaktiviert. Ich muss auf andere Weise nach Informationen suchen. Vielleicht kann ich eine spezifischere Suche durchführen oder eine Website aufrufen, die den Inhalt des Stücks erklärt. Ich versuche es mit einer Suche nach "Dürrenmatt Die Physiker Interpretation Verantwortung".

Relevant log output

time=2026-02-18T09:07:47.147+01:00 level=INFO source=routes.go:1663 msg="server config" env="map[HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_CONTEXT_LENGTH:32768 OLLAMA_DEBUG:INFO OLLAMA_EDITOR: OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://0.0.0.0:11434 OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/Users/main/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NEW_ENGINE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NO_CLOUD:false OLLAMA_NUM_PARALLEL:1 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://* vscode-file://*] OLLAMA_REMOTES:[ollama.com] OLLAMA_SCHED_SPREAD:false http_proxy: https_proxy: no_proxy:]"
time=2026-02-18T09:07:47.147+01:00 level=INFO source=routes.go:1665 msg="Ollama cloud disabled: false"
time=2026-02-18T09:07:47.152+01:00 level=INFO source=images.go:473 msg="total blobs: 23"
time=2026-02-18T09:07:47.153+01:00 level=INFO source=images.go:480 msg="total unused blobs removed: 0"
time=2026-02-18T09:07:47.155+01:00 level=INFO source=routes.go:1718 msg="Listening on [::]:11434 (version 0.16.2)"
time=2026-02-18T09:07:47.155+01:00 level=INFO source=runner.go:67 msg="discovering available GPUs..."
time=2026-02-18T09:07:47.157+01:00 level=INFO source=server.go:431 msg="starting runner" cmd="/Applications/Ollama.app/Contents/Resources/ollama runner --ollama-engine --port 49570"
time=2026-02-18T09:07:47.451+01:00 level=INFO source=types.go:42 msg="inference compute" id=0 filter_id=0 library=Metal compute=0.0 name=Metal description="Apple M1" libdirs="" driver=0.0 pci_id="" type=discrete total="11.8 GiB" available="11.8 GiB"
time=2026-02-18T09:07:47.451+01:00 level=INFO source=routes.go:1768 msg="vram-based default context" total_vram="11.8 GiB" default_num_ctx=4096

# (i dont have any more)

OS

macOS

GPU

Apple

CPU

Apple

Ollama version

0.15.5

Originally created by @lafisad on GitHub (Feb 18, 2026). Original GitHub issue: https://github.com/ollama/ollama/issues/14304 ### What is the issue? My prompt: `Was sei die Verantwortung der Physiker laut Newton, Einstein und Möbius im Buch „Die Physiker“ von Dürrenmatt?` DeepSeek thought for 4.2, trying to search online. It gave the following "error message": `Error: ollama cloud is disabled: web search is unavailable (unable to verify server cloud policy)` Thoughts: ``` Die Frage bezieht sich auf das Drama "Die Physiker" von Friedrich Dürrenmatt, in dem die Verantwortung von Physikern thematisiert wird. Die Figuren Newton, Einstein und Möbius sind darin wichtige Charaktere. Um die Frage zu beantworten, muss ich den Inhalt des Stücks und die Positionen der drei Physikerfiguren verstehen. Dafür suche ich am besten nach Informationen. ``` Then it thought for a moment. ``` Der Web-Search über ollama.com ist deaktiviert. Ich muss auf andere Weise nach Informationen suchen. Vielleicht kann ich eine spezifischere Suche durchführen oder eine Website aufrufen, die den Inhalt des Stücks erklärt. Ich versuche es mit einer Suche nach "Dürrenmatt Die Physiker Interpretation Verantwortung". ``` ### Relevant log output ```shell time=2026-02-18T09:07:47.147+01:00 level=INFO source=routes.go:1663 msg="server config" env="map[HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_CONTEXT_LENGTH:32768 OLLAMA_DEBUG:INFO OLLAMA_EDITOR: OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://0.0.0.0:11434 OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/Users/main/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NEW_ENGINE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NO_CLOUD:false OLLAMA_NUM_PARALLEL:1 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://* vscode-file://*] OLLAMA_REMOTES:[ollama.com] OLLAMA_SCHED_SPREAD:false http_proxy: https_proxy: no_proxy:]" time=2026-02-18T09:07:47.147+01:00 level=INFO source=routes.go:1665 msg="Ollama cloud disabled: false" time=2026-02-18T09:07:47.152+01:00 level=INFO source=images.go:473 msg="total blobs: 23" time=2026-02-18T09:07:47.153+01:00 level=INFO source=images.go:480 msg="total unused blobs removed: 0" time=2026-02-18T09:07:47.155+01:00 level=INFO source=routes.go:1718 msg="Listening on [::]:11434 (version 0.16.2)" time=2026-02-18T09:07:47.155+01:00 level=INFO source=runner.go:67 msg="discovering available GPUs..." time=2026-02-18T09:07:47.157+01:00 level=INFO source=server.go:431 msg="starting runner" cmd="/Applications/Ollama.app/Contents/Resources/ollama runner --ollama-engine --port 49570" time=2026-02-18T09:07:47.451+01:00 level=INFO source=types.go:42 msg="inference compute" id=0 filter_id=0 library=Metal compute=0.0 name=Metal description="Apple M1" libdirs="" driver=0.0 pci_id="" type=discrete total="11.8 GiB" available="11.8 GiB" time=2026-02-18T09:07:47.451+01:00 level=INFO source=routes.go:1768 msg="vram-based default context" total_vram="11.8 GiB" default_num_ctx=4096 # (i dont have any more) ``` ### OS macOS ### GPU Apple ### CPU Apple ### Ollama version 0.15.5
GiteaMirror added the bug label 2026-04-29 09:46:28 -05:00
Author
Owner

@lafisad commented on GitHub (Feb 23, 2026):

Network Layer Authentication Gap: The system attempts to verify cloud policies through network calls that may be failing due to certificate validation, proxy configurations, or rate limiting at the cloud endpoint level.

Model-Specific Cloud Feature Mapping: The deepseek-3.2:cloud model explicitly requests cloud features (web search), but the local Ollama instance cannot delegate this capability properly to the cloud backend, indicating a mismatch in feature advertisement vs. actual capability verification.

this seems to be the reason, as other models that are not deepseek do not have this problem.

<!-- gh-comment-id:3947126463 --> @lafisad commented on GitHub (Feb 23, 2026): > Network Layer Authentication Gap: The system attempts to verify cloud policies through network calls that may be failing due to certificate validation, proxy configurations, or rate limiting at the cloud endpoint level. > Model-Specific Cloud Feature Mapping: The deepseek-3.2:cloud model explicitly requests cloud features (web search), but the local Ollama instance cannot delegate this capability properly to the cloud backend, indicating a mismatch in feature advertisement vs. actual capability verification. this seems to be the reason, as other models that are **not** deepseek do not have this problem.
Sign in to join this conversation.
1 Participants
Notifications
Due Date
No due date set.
Dependencies

No dependencies set.

Reference: github-starred/ollama#55821