[GH-ISSUE #7146] Unable to recognize the long text content. #66591

Closed
opened 2026-05-04 07:31:31 -05:00 by GiteaMirror · 20 comments
Owner

Originally created by @goactiongo on GitHub (Oct 9, 2024).
Original GitHub issue: https://github.com/ollama/ollama/issues/7146

Originally assigned to: @dhiltgen on GitHub.

What is the issue?

I have 4 GPU cards and which card is 24G
image

It's ok for recognizing short text content, but failed to recognize the long text content.

Model is qwen2.5:32b and ctx-size is setted to 30001 for handeling the long content, as followed

10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.871+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama273555 6946/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede 8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,16,16,16 --port 41781"

AI debug information as followed.

image

image

ollama debug logs

10月 09 12:37:39 gpu ollama[40766]: time=2024-10-09T12:37:39.452+08:00 level=INFO source=common.go:49 msg="Dynamic LLM libraries" runners="[cpu_avx2 cuda_v11 cuda_v12 rocm_v60102 cpu cpu_avx]"
10月 09 12:37:39 gpu ollama[40766]: time=2024-10-09T12:37:39.453+08:00 level=INFO source=gpu.go:199 msg="looking for compatible GPUs"
10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="14.7 GiB"
10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB"
10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="19.4 GiB"
10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="20.0 GiB"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.854+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 library=cuda parallel=1 required="40.6 GiB"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.854+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.7 GiB" free_swap="3.7 GiB"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.858+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=65 layers.offload=65 layers.split=17,16,16,16 memory.available="[20.0 GiB 19.4 GiB 16.8 GiB 14.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="40.6 GiB" memory.required.partial="40.6 GiB" memory.required.kv="7.3 GiB" memory.required.allocations="[10.6 GiB 10.0 GiB 10.0 GiB 10.0 GiB]" memory.weights.total="24.8 GiB" memory.weights.repeating="24.2 GiB" memory.weights.nonrepeating="609.1 MiB" memory.graph.full="2.9 GiB" memory.graph.partial="2.9 GiB"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.871+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama2735556946/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,16,16,16 --port 41781"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.872+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.872+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding"
10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.873+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 09 12:37:41 gpu ollama[40766]: INFO [main] build info | build=10 commit="9225b05" tid="140652491755520" timestamp=1728448661
10月 09 12:37:41 gpu ollama[40766]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="140652491755520" timestamp=1728448661 total_threads=64
10月 09 12:37:41 gpu ollama[40766]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="41781" tid="140652491755520" timestamp=1728448661
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (latest))
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 0: general.architecture str = qwen2
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 1: general.type str = model
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 2: general.name str = Qwen2.5 32B Instruct
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 3: general.finetune str = Instruct
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 4: general.basename str = Qwen2.5
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 5: general.size_label str = 32B
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 6: general.license str = apache-2.0
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 7: general.license.link str = https://huggingface.co/Qwen/Qwen2.5-3...
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 8: general.base_model.count u32 = 1
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 9: general.base_model.0.name str = Qwen2.5 32B
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 10: general.base_model.0.organization str = Qwen
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 11: general.base_model.0.repo_url str = https://huggingface.co/Qwen/Qwen2.5-32B
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 12: general.tags arr[str,2] = ["chat", "text-generation"]
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 13: general.languages arr[str,1] = ["en"]
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 14: qwen2.block_count u32 = 64
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 15: qwen2.context_length u32 = 32768
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 16: qwen2.embedding_length u32 = 5120
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 17: qwen2.feed_forward_length u32 = 27648
10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 18: qwen2.attention.head_count u32 = 40
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 19: qwen2.attention.head_count_kv u32 = 8
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 20: qwen2.rope.freq_base f32 = 1000000.000000
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 21: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000001
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 22: general.file_type u32 = 15
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 23: tokenizer.ggml.model str = gpt2
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 24: tokenizer.ggml.pre str = qwen2
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 25: tokenizer.ggml.tokens arr[str,152064] = ["!", """, "#", "$", "%", "&", "'", ...
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 26: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
10月 09 12:37:42 gpu ollama[40766]: time=2024-10-09T12:37:42.126+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 27: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 28: tokenizer.ggml.eos_token_id u32 = 151645
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 29: tokenizer.ggml.padding_token_id u32 = 151643
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 30: tokenizer.ggml.bos_token_id u32 = 151643
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 31: tokenizer.ggml.add_bos_token bool = false
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 32: tokenizer.chat_template str = {%- if tools %}\n {{- '<|im_start|>...
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 33: general.quantization_version u32 = 2
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type f32: 321 tensors
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type q4_K: 385 tensors
10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type q6_K: 65 tensors
10月 09 12:37:42 gpu ollama[40766]: llm_load_vocab: special tokens cache size = 22
10月 09 12:37:42 gpu ollama[40766]: llm_load_vocab: token to piece cache size = 0.9310 MB
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: format = GGUF V3 (latest)
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: arch = qwen2
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: vocab type = BPE
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_vocab = 152064
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_merges = 151387
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: vocab_only = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ctx_train = 32768
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd = 5120
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_layer = 64
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_head = 40
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_head_kv = 8
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_rot = 128
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_swa = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_head_k = 128
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_head_v = 128
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_gqa = 5
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_k_gqa = 1024
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_v_gqa = 1024
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_norm_eps = 0.0e+00
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_norm_rms_eps = 1.0e-06
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_clamp_kqv = 0.0e+00
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_logit_scale = 0.0e+00
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ff = 27648
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_expert = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_expert_used = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: causal attn = 1
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: pooling type = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope type = 2
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope scaling = linear
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: freq_base_train = 1000000.0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: freq_scale_train = 1
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ctx_orig_yarn = 32768
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope_finetuned = unknown
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_conv = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_inner = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_state = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_dt_rank = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_dt_b_c_rms = 0
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model type = ?B
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model ftype = Q4_K - Medium
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model params = 32.76 B
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model size = 18.48 GiB (4.85 BPW)
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: general.name = Qwen2.5 32B Instruct
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: BOS token = 151643 '<|endoftext|>'
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: EOS token = 151645 '<|im_end|>'
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: PAD token = 151643 '<|endoftext|>'
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: LF token = 148848 'ÄĬ'
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: EOT token = 151645 '<|im_end|>'
10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: max token length = 256
10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no
10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no
10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: found 4 CUDA devices:
10月 09 12:37:42 gpu ollama[40766]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 12:37:42 gpu ollama[40766]: Device 1: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 12:37:42 gpu ollama[40766]: Device 2: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 12:37:42 gpu ollama[40766]: Device 3: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 12:37:42 gpu ollama[40766]: llm_load_tensors: ggml ctx size = 1.69 MiB
10月 09 12:37:43 gpu ollama[40766]: time=2024-10-09T12:37:43.583+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 09 12:37:45 gpu ollama[40766]: time=2024-10-09T12:37:45.233+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloading 64 repeating layers to GPU
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloading non-repeating layers to GPU
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloaded 65/65 layers to GPU
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CPU buffer size = 417.66 MiB
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA0 buffer size = 4844.72 MiB
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA1 buffer size = 4366.53 MiB
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA2 buffer size = 4366.53 MiB
10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA3 buffer size = 4930.57 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_ctx = 30016
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_batch = 512
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_ubatch = 512
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: flash_attn = 0
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: freq_base = 1000000.0
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: freq_scale = 1
10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA0 KV buffer size = 1993.25 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA1 KV buffer size = 1876.00 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA2 KV buffer size = 1876.00 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA3 KV buffer size = 1758.75 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: KV self size = 7504.00 MiB, K (f16): 3752.00 MiB, V (f16): 3752.00 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA_Host output buffer size = 0.60 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4)
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA0 compute buffer size = 2659.51 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA1 compute buffer size = 2659.51 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA2 compute buffer size = 2659.51 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA3 compute buffer size = 2659.52 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA_Host compute buffer size = 244.52 MiB
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: graph nodes = 2246
10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: graph splits = 5
10月 09 12:37:49 gpu ollama[40766]: INFO [main] model loaded | tid="140652491755520" timestamp=1728448669
10月 09 12:37:49 gpu ollama[40766]: time=2024-10-09T12:37:49.646+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.77 seconds"
10月 09 12:37:51 gpu ollama[40766]: [GIN] 2024/10/09 - 12:37:51 | 200 | 10.947908166s | 172.22.1.39 | POST "/api/chat"

OS

Linux

GPU

Nvidia

CPU

Intel

Ollama version

ollama version is 0.3.11

Originally created by @goactiongo on GitHub (Oct 9, 2024). Original GitHub issue: https://github.com/ollama/ollama/issues/7146 Originally assigned to: @dhiltgen on GitHub. ### What is the issue? I have 4 GPU cards and which card is 24G ![image](https://github.com/user-attachments/assets/f938bc27-4c40-4f2b-b855-0535485a7f3e) It's ok for recognizing short text content, but failed to recognize the long text content. ### Model is qwen2.5:32b and ctx-size is setted to 30001 for handeling the long content, as followed 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.871+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama273555 6946/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede 8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,16,16,16 --port 41781" ### AI debug information as followed. ![image](https://github.com/user-attachments/assets/54b725ca-a130-4e7c-9b90-f65c33cc1667) ![image](https://github.com/user-attachments/assets/aa973cc5-d453-4646-95ed-f68f9cacc9be) #### ollama debug logs 10月 09 12:37:39 gpu ollama[40766]: time=2024-10-09T12:37:39.452+08:00 level=INFO source=common.go:49 msg="Dynamic LLM libraries" runners="[cpu_avx2 cuda_v11 cuda_v12 rocm_v60102 cpu cpu_avx]" 10月 09 12:37:39 gpu ollama[40766]: time=2024-10-09T12:37:39.453+08:00 level=INFO source=gpu.go:199 msg="looking for compatible GPUs" 10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="14.7 GiB" 10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" 10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="19.4 GiB" 10月 09 12:37:40 gpu ollama[40766]: time=2024-10-09T12:37:40.723+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="20.0 GiB" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.854+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 library=cuda parallel=1 required="40.6 GiB" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.854+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.7 GiB" free_swap="3.7 GiB" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.858+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=65 layers.offload=65 layers.split=17,16,16,16 memory.available="[20.0 GiB 19.4 GiB 16.8 GiB 14.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="40.6 GiB" memory.required.partial="40.6 GiB" memory.required.kv="7.3 GiB" memory.required.allocations="[10.6 GiB 10.0 GiB 10.0 GiB 10.0 GiB]" memory.weights.total="24.8 GiB" memory.weights.repeating="24.2 GiB" memory.weights.nonrepeating="609.1 MiB" memory.graph.full="2.9 GiB" memory.graph.partial="2.9 GiB" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.871+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama2735556946/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,16,16,16 --port 41781" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.872+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.872+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding" 10月 09 12:37:41 gpu ollama[40766]: time=2024-10-09T12:37:41.873+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 09 12:37:41 gpu ollama[40766]: INFO [main] build info | build=10 commit="9225b05" tid="140652491755520" timestamp=1728448661 10月 09 12:37:41 gpu ollama[40766]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="140652491755520" timestamp=1728448661 total_threads=64 10月 09 12:37:41 gpu ollama[40766]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="41781" tid="140652491755520" timestamp=1728448661 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (latest)) 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output. 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 0: general.architecture str = qwen2 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 1: general.type str = model 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 2: general.name str = Qwen2.5 32B Instruct 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 3: general.finetune str = Instruct 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 4: general.basename str = Qwen2.5 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 5: general.size_label str = 32B 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 6: general.license str = apache-2.0 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 7: general.license.link str = https://huggingface.co/Qwen/Qwen2.5-3... 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 8: general.base_model.count u32 = 1 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 9: general.base_model.0.name str = Qwen2.5 32B 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 10: general.base_model.0.organization str = Qwen 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 11: general.base_model.0.repo_url str = https://huggingface.co/Qwen/Qwen2.5-32B 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 12: general.tags arr[str,2] = ["chat", "text-generation"] 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 13: general.languages arr[str,1] = ["en"] 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 14: qwen2.block_count u32 = 64 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 15: qwen2.context_length u32 = 32768 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 16: qwen2.embedding_length u32 = 5120 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 17: qwen2.feed_forward_length u32 = 27648 10月 09 12:37:41 gpu ollama[40766]: llama_model_loader: - kv 18: qwen2.attention.head_count u32 = 40 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 19: qwen2.attention.head_count_kv u32 = 8 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 20: qwen2.rope.freq_base f32 = 1000000.000000 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 21: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000001 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 22: general.file_type u32 = 15 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 23: tokenizer.ggml.model str = gpt2 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 24: tokenizer.ggml.pre str = qwen2 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 25: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 26: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 10月 09 12:37:42 gpu ollama[40766]: time=2024-10-09T12:37:42.126+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 27: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 28: tokenizer.ggml.eos_token_id u32 = 151645 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 29: tokenizer.ggml.padding_token_id u32 = 151643 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 30: tokenizer.ggml.bos_token_id u32 = 151643 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 31: tokenizer.ggml.add_bos_token bool = false 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 32: tokenizer.chat_template str = {%- if tools %}\n {{- '<|im_start|>... 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - kv 33: general.quantization_version u32 = 2 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type f32: 321 tensors 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type q4_K: 385 tensors 10月 09 12:37:42 gpu ollama[40766]: llama_model_loader: - type q6_K: 65 tensors 10月 09 12:37:42 gpu ollama[40766]: llm_load_vocab: special tokens cache size = 22 10月 09 12:37:42 gpu ollama[40766]: llm_load_vocab: token to piece cache size = 0.9310 MB 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: format = GGUF V3 (latest) 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: arch = qwen2 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: vocab type = BPE 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_vocab = 152064 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_merges = 151387 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: vocab_only = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ctx_train = 32768 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd = 5120 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_layer = 64 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_head = 40 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_head_kv = 8 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_rot = 128 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_swa = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_head_k = 128 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_head_v = 128 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_gqa = 5 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_k_gqa = 1024 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_embd_v_gqa = 1024 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_norm_eps = 0.0e+00 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_norm_rms_eps = 1.0e-06 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_clamp_kqv = 0.0e+00 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: f_logit_scale = 0.0e+00 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ff = 27648 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_expert = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_expert_used = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: causal attn = 1 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: pooling type = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope type = 2 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope scaling = linear 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: freq_base_train = 1000000.0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: freq_scale_train = 1 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: n_ctx_orig_yarn = 32768 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: rope_finetuned = unknown 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_conv = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_inner = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_d_state = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_dt_rank = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: ssm_dt_b_c_rms = 0 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model type = ?B 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model ftype = Q4_K - Medium 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model params = 32.76 B 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: model size = 18.48 GiB (4.85 BPW) 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: general.name = Qwen2.5 32B Instruct 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: BOS token = 151643 '<|endoftext|>' 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: EOS token = 151645 '<|im_end|>' 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: PAD token = 151643 '<|endoftext|>' 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: LF token = 148848 'ÄĬ' 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: EOT token = 151645 '<|im_end|>' 10月 09 12:37:42 gpu ollama[40766]: llm_load_print_meta: max token length = 256 10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no 10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 10月 09 12:37:42 gpu ollama[40766]: ggml_cuda_init: found 4 CUDA devices: 10月 09 12:37:42 gpu ollama[40766]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 12:37:42 gpu ollama[40766]: Device 1: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 12:37:42 gpu ollama[40766]: Device 2: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 12:37:42 gpu ollama[40766]: Device 3: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 12:37:42 gpu ollama[40766]: llm_load_tensors: ggml ctx size = 1.69 MiB 10月 09 12:37:43 gpu ollama[40766]: time=2024-10-09T12:37:43.583+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 09 12:37:45 gpu ollama[40766]: time=2024-10-09T12:37:45.233+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloading 64 repeating layers to GPU 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloading non-repeating layers to GPU 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: offloaded 65/65 layers to GPU 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CPU buffer size = 417.66 MiB 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA0 buffer size = 4844.72 MiB 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA1 buffer size = 4366.53 MiB 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA2 buffer size = 4366.53 MiB 10月 09 12:37:46 gpu ollama[40766]: llm_load_tensors: CUDA3 buffer size = 4930.57 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_ctx = 30016 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_batch = 512 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: n_ubatch = 512 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: flash_attn = 0 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: freq_base = 1000000.0 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: freq_scale = 1 10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA0 KV buffer size = 1993.25 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA1 KV buffer size = 1876.00 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA2 KV buffer size = 1876.00 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_kv_cache_init: CUDA3 KV buffer size = 1758.75 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: KV self size = 7504.00 MiB, K (f16): 3752.00 MiB, V (f16): 3752.00 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA_Host output buffer size = 0.60 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4) 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA0 compute buffer size = 2659.51 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA1 compute buffer size = 2659.51 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA2 compute buffer size = 2659.51 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA3 compute buffer size = 2659.52 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: CUDA_Host compute buffer size = 244.52 MiB 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: graph nodes = 2246 10月 09 12:37:49 gpu ollama[40766]: llama_new_context_with_model: graph splits = 5 10月 09 12:37:49 gpu ollama[40766]: INFO [main] model loaded | tid="140652491755520" timestamp=1728448669 10月 09 12:37:49 gpu ollama[40766]: time=2024-10-09T12:37:49.646+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.77 seconds" 10月 09 12:37:51 gpu ollama[40766]: [GIN] 2024/10/09 - 12:37:51 | 200 | 10.947908166s | 172.22.1.39 | POST "/api/chat" ### OS Linux ### GPU Nvidia ### CPU Intel ### Ollama version ollama version is 0.3.11
GiteaMirror added the bugnvidia labels 2026-05-04 07:31:33 -05:00
Author
Owner

@goactiongo commented on GitHub (Oct 9, 2024):

When changed the model to glm4:9b ( --ctx-size 128001),there is no information output

AI debug logs

[Info] 2024-10-09 05:08:00 [Vector Queue] Done
[Info] 2024-10-09 05:08:00 [QA Queue] Done
[Warn] 2024-10-09 05:08:16 LLM response error {"requestBody":{"num_ctx":128001,"model":"glm4:9b","temperature":0.01,"max_tokens":200,"stream":true,"messages":[{"role":"system","content":"Consider the content within as your knowledge\n\nFile: 600007.pdf\n\n...........HERE, 20,000 CHARACTERS IN 600007.pdf HAVE BEEN OMITTED........ \n\n\n"},{"role":"user","content":"Summarize the document content"}]}}
[Error] 2024-10-09 05:08:16 sse error: LLM model response empty
[Warn] 2024-10-09 05:08:16 Request finish /api/core/chat/chatTest, time: 130054ms
[Info] 2024-10-09 05:09:00 [QA Queue] Done
[Info] 2024-10-09 05:09:00 [Vector Queue] Done

ollama debug logs

10月 09 13:15:52 gpu ollama[42508]: [GIN] 2024/10/09 - 13:15:52 | 200 | 4m6s | 172.22.1.39 | POST "/api/chat"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=21459828736 required="18.4 GiB"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.6 GiB" free_swap="3.7 GiB"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[20.0 GiB]" memory.gpu_overhead="0 B" memory.required.full="18.4 GiB" memory.required.partial="18.4 GiB" memory.required.kv="4.9 GiB" memory.required.allocations="[18.4 GiB]" memory.weights.total="9.2 GiB" memory.weights.repeating="8.7 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.2 GiB"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.922+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama3332959923/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41 --parallel 1 --port 43492"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.923+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.923+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding"
10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.924+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 09 13:15:55 gpu ollama[42508]: INFO [main] build info | build=10 commit="9225b05" tid="140519079464960" timestamp=1728450955
10月 09 13:15:55 gpu ollama[42508]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="140519079464960" timestamp=1728450955 total_threads=64
10月 09 13:15:55 gpu ollama[42508]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="43492" tid="140519079464960" timestamp=1728450955
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: loaded meta data with 24 key-value pairs and 283 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 (version GGUF V3 (latest))
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 0: general.architecture str = chatglm
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 1: general.name str = glm-4-9b-chat
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 2: chatglm.context_length u32 = 131072
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 3: chatglm.embedding_length u32 = 4096
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 4: chatglm.feed_forward_length u32 = 13696
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 5: chatglm.block_count u32 = 40
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 6: chatglm.attention.head_count u32 = 32
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 7: chatglm.attention.head_count_kv u32 = 2
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 8: chatglm.attention.layer_norm_rms_epsilon f32 = 0.000000
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 9: general.file_type u32 = 2
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 10: chatglm.rope.dimension_count u32 = 64
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 11: tokenizer.ggml.add_bos_token bool = false
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 12: chatglm.rope.freq_base f32 = 5000000.000000
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 13: tokenizer.ggml.model str = gpt2
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 14: tokenizer.ggml.pre str = chatglm-bpe
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 15: tokenizer.ggml.tokens arr[str,151552] = ["!", """, "#", "$", "%", "&", "'", ...
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 16: tokenizer.ggml.token_type arr[i32,151552] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
10月 09 13:15:56 gpu ollama[42508]: time=2024-10-09T13:15:56.177+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 17: tokenizer.ggml.merges arr[str,151073] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 18: tokenizer.ggml.padding_token_id u32 = 151329
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 19: tokenizer.ggml.eos_token_id u32 = 151329
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 20: tokenizer.ggml.eot_token_id u32 = 151336
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 21: tokenizer.ggml.unknown_token_id u32 = 151329
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 22: tokenizer.chat_template str = [gMASK]{% for item in messages %...
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 23: general.quantization_version u32 = 2
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type f32: 121 tensors
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type q4_0: 161 tensors
10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type q6_K: 1 tensors
10月 09 13:15:56 gpu ollama[42508]: llm_load_vocab: special tokens cache size = 223
10月 09 13:15:56 gpu ollama[42508]: llm_load_vocab: token to piece cache size = 0.9732 MB
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: format = GGUF V3 (latest)
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: arch = chatglm
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: vocab type = BPE
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_vocab = 151552
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_merges = 151073
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: vocab_only = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ctx_train = 131072
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd = 4096
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_layer = 40
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_head = 32
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_head_kv = 2
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_rot = 64
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_swa = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_head_k = 128
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_head_v = 128
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_gqa = 16
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_k_gqa = 256
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_v_gqa = 256
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_norm_eps = 0.0e+00
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_norm_rms_eps = 1.6e-07
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_clamp_kqv = 0.0e+00
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_logit_scale = 0.0e+00
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ff = 13696
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_expert = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_expert_used = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: causal attn = 1
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: pooling type = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope type = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope scaling = linear
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: freq_base_train = 5000000.0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: freq_scale_train = 1
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ctx_orig_yarn = 131072
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope_finetuned = unknown
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_conv = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_inner = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_state = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_dt_rank = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_dt_b_c_rms = 0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model type = 9B
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model ftype = Q4_0
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model params = 9.40 B
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model size = 5.08 GiB (4.64 BPW)
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: general.name = glm-4-9b-chat
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: EOS token = 151329 '<|endoftext|>'
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: UNK token = 151329 '<|endoftext|>'
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: PAD token = 151329 '<|endoftext|>'
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: LF token = 128 'Ä'
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: EOT token = 151336 '<|user|>'
10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: max token length = 1024
10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no
10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no
10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: found 1 CUDA devices:
10月 09 13:15:56 gpu ollama[42508]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: ggml ctx size = 0.28 MiB
10月 09 13:15:57 gpu ollama[42508]: time=2024-10-09T13:15:57.634+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 09 13:15:57 gpu ollama[42508]: time=2024-10-09T13:15:57.949+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloading 40 repeating layers to GPU
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloading non-repeating layers to GPU
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloaded 41/41 layers to GPU
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: CPU buffer size = 333.00 MiB
10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: CUDA0 buffer size = 4863.85 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_ctx = 128032
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_batch = 512
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_ubatch = 512
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: flash_attn = 0
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: freq_base = 5000000.0
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: freq_scale = 1
10月 09 13:15:58 gpu ollama[42508]: llama_kv_cache_init: CUDA0 KV buffer size = 5001.25 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: KV self size = 5001.25 MiB, K (f16): 2500.62 MiB, V (f16): 2500.62 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA_Host output buffer size = 0.59 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA0 compute buffer size = 8285.07 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA_Host compute buffer size = 258.07 MiB
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: graph nodes = 1606
10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: graph splits = 2
10月 09 13:15:59 gpu ollama[42508]: INFO [main] model loaded | tid="140519079464960" timestamp=1728450959
10月 09 13:15:59 gpu ollama[42508]: time=2024-10-09T13:15:59.459+08:00 level=INFO source=server.go:626 msg="llama runner started in 3.54 seconds"
10月 09 13:18:09 gpu ollama[42508]: [GIN] 2024/10/09 - 13:18:09 | 200 | 4m13s | 172.22.1.39 | POST "/api/chat"

<!-- gh-comment-id:2401337215 --> @goactiongo commented on GitHub (Oct 9, 2024): When changed the model to glm4:9b ( --ctx-size 128001),there is no information output ### AI debug logs [Info] 2024-10-09 05:08:00 [Vector Queue] Done [Info] 2024-10-09 05:08:00 [QA Queue] Done [Warn] 2024-10-09 05:08:16 LLM response error {"requestBody":{"num_ctx":128001,"model":"glm4:9b","temperature":0.01,"max_tokens":200,"stream":true,"messages":[{"role":"system","content":"Consider the content within <Quote></Quote> as your knowledge\n<Quote>\nFile: 600007.pdf\n<Content>\n...........HERE, 20,000 CHARACTERS IN 600007.pdf HAVE BEEN OMITTED........ \n</Content>\n</Quote>\n"},{"role":"user","content":"Summarize the document content"}]}} [Error] 2024-10-09 05:08:16 sse error: LLM model response empty [Warn] 2024-10-09 05:08:16 Request finish /api/core/chat/chatTest, time: 130054ms [Info] 2024-10-09 05:09:00 [QA Queue] Done [Info] 2024-10-09 05:09:00 [Vector Queue] Done ### ollama debug logs 10月 09 13:15:52 gpu ollama[42508]: [GIN] 2024/10/09 - 13:15:52 | 200 | 4m6s | 172.22.1.39 | POST "/api/chat" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=21459828736 required="18.4 GiB" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.6 GiB" free_swap="3.7 GiB" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.911+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[20.0 GiB]" memory.gpu_overhead="0 B" memory.required.full="18.4 GiB" memory.required.partial="18.4 GiB" memory.required.kv="4.9 GiB" memory.required.allocations="[18.4 GiB]" memory.weights.total="9.2 GiB" memory.weights.repeating="8.7 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.2 GiB" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.922+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama3332959923/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41 --parallel 1 --port 43492" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.923+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.923+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding" 10月 09 13:15:55 gpu ollama[42508]: time=2024-10-09T13:15:55.924+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 09 13:15:55 gpu ollama[42508]: INFO [main] build info | build=10 commit="9225b05" tid="140519079464960" timestamp=1728450955 10月 09 13:15:55 gpu ollama[42508]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="140519079464960" timestamp=1728450955 total_threads=64 10月 09 13:15:55 gpu ollama[42508]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="43492" tid="140519079464960" timestamp=1728450955 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: loaded meta data with 24 key-value pairs and 283 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 (version GGUF V3 (latest)) 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output. 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 0: general.architecture str = chatglm 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 1: general.name str = glm-4-9b-chat 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 2: chatglm.context_length u32 = 131072 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 3: chatglm.embedding_length u32 = 4096 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 4: chatglm.feed_forward_length u32 = 13696 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 5: chatglm.block_count u32 = 40 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 6: chatglm.attention.head_count u32 = 32 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 7: chatglm.attention.head_count_kv u32 = 2 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 8: chatglm.attention.layer_norm_rms_epsilon f32 = 0.000000 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 9: general.file_type u32 = 2 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 10: chatglm.rope.dimension_count u32 = 64 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 11: tokenizer.ggml.add_bos_token bool = false 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 12: chatglm.rope.freq_base f32 = 5000000.000000 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 13: tokenizer.ggml.model str = gpt2 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 14: tokenizer.ggml.pre str = chatglm-bpe 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 15: tokenizer.ggml.tokens arr[str,151552] = ["!", "\"", "#", "$", "%", "&", "'", ... 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 16: tokenizer.ggml.token_type arr[i32,151552] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 10月 09 13:15:56 gpu ollama[42508]: time=2024-10-09T13:15:56.177+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 17: tokenizer.ggml.merges arr[str,151073] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 18: tokenizer.ggml.padding_token_id u32 = 151329 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 19: tokenizer.ggml.eos_token_id u32 = 151329 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 20: tokenizer.ggml.eot_token_id u32 = 151336 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 21: tokenizer.ggml.unknown_token_id u32 = 151329 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 22: tokenizer.chat_template str = [gMASK]<sop>{% for item in messages %... 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - kv 23: general.quantization_version u32 = 2 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type f32: 121 tensors 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type q4_0: 161 tensors 10月 09 13:15:56 gpu ollama[42508]: llama_model_loader: - type q6_K: 1 tensors 10月 09 13:15:56 gpu ollama[42508]: llm_load_vocab: special tokens cache size = 223 10月 09 13:15:56 gpu ollama[42508]: llm_load_vocab: token to piece cache size = 0.9732 MB 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: format = GGUF V3 (latest) 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: arch = chatglm 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: vocab type = BPE 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_vocab = 151552 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_merges = 151073 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: vocab_only = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ctx_train = 131072 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd = 4096 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_layer = 40 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_head = 32 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_head_kv = 2 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_rot = 64 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_swa = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_head_k = 128 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_head_v = 128 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_gqa = 16 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_k_gqa = 256 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_embd_v_gqa = 256 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_norm_eps = 0.0e+00 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_norm_rms_eps = 1.6e-07 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_clamp_kqv = 0.0e+00 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: f_logit_scale = 0.0e+00 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ff = 13696 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_expert = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_expert_used = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: causal attn = 1 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: pooling type = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope type = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope scaling = linear 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: freq_base_train = 5000000.0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: freq_scale_train = 1 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: n_ctx_orig_yarn = 131072 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: rope_finetuned = unknown 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_conv = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_inner = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_d_state = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_dt_rank = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: ssm_dt_b_c_rms = 0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model type = 9B 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model ftype = Q4_0 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model params = 9.40 B 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: model size = 5.08 GiB (4.64 BPW) 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: general.name = glm-4-9b-chat 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: EOS token = 151329 '<|endoftext|>' 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: UNK token = 151329 '<|endoftext|>' 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: PAD token = 151329 '<|endoftext|>' 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: LF token = 128 'Ä' 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: EOT token = 151336 '<|user|>' 10月 09 13:15:56 gpu ollama[42508]: llm_load_print_meta: max token length = 1024 10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no 10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 10月 09 13:15:56 gpu ollama[42508]: ggml_cuda_init: found 1 CUDA devices: 10月 09 13:15:56 gpu ollama[42508]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: ggml ctx size = 0.28 MiB 10月 09 13:15:57 gpu ollama[42508]: time=2024-10-09T13:15:57.634+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 09 13:15:57 gpu ollama[42508]: time=2024-10-09T13:15:57.949+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloading 40 repeating layers to GPU 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloading non-repeating layers to GPU 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: offloaded 41/41 layers to GPU 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: CPU buffer size = 333.00 MiB 10月 09 13:15:57 gpu ollama[42508]: llm_load_tensors: CUDA0 buffer size = 4863.85 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_ctx = 128032 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_batch = 512 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: n_ubatch = 512 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: flash_attn = 0 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: freq_base = 5000000.0 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: freq_scale = 1 10月 09 13:15:58 gpu ollama[42508]: llama_kv_cache_init: CUDA0 KV buffer size = 5001.25 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: KV self size = 5001.25 MiB, K (f16): 2500.62 MiB, V (f16): 2500.62 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA_Host output buffer size = 0.59 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA0 compute buffer size = 8285.07 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: CUDA_Host compute buffer size = 258.07 MiB 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: graph nodes = 1606 10月 09 13:15:58 gpu ollama[42508]: llama_new_context_with_model: graph splits = 2 10月 09 13:15:59 gpu ollama[42508]: INFO [main] model loaded | tid="140519079464960" timestamp=1728450959 10月 09 13:15:59 gpu ollama[42508]: time=2024-10-09T13:15:59.459+08:00 level=INFO source=server.go:626 msg="llama runner started in 3.54 seconds" 10月 09 13:18:09 gpu ollama[42508]: [GIN] 2024/10/09 - 13:18:09 | 200 | 4m13s | 172.22.1.39 | POST "/api/chat"
Author
Owner

@goactiongo commented on GitHub (Oct 9, 2024):

Here is a success example with short text content by using glm4:9b ( --ctx-size 128001)

image

AI DEBUG logs

image

ollama debug logs

10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.807+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=21459828736 required="18.4 GiB"
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.807+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.7 GiB" free_swap="3.7 GiB"
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.808+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[20.0 GiB]" memory.gpu_overhead="0 B" memory.required.full="18.4 GiB" memory.required.partial="18.4 GiB" memory.required.kv="4.9 GiB" memory.required.allocations="[18.4 GiB]" memory.weights.total="9.2 GiB" memory.weights.repeating="8.7 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.2 GiB"
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.820+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama3286374914/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41 --parallel 1 --port 39005"
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.821+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.821+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding"
10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.822+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 09 13:24:02 gpu ollama[44027]: INFO [main] build info | build=10 commit="9225b05" tid="139725003341824" timestamp=1728451442
10月 09 13:24:02 gpu ollama[44027]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="139725003341824" timestamp=1728451442 total_threads=64
10月 09 13:24:02 gpu ollama[44027]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="39005" tid="139725003341824" timestamp=1728451442
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: loaded meta data with 24 key-value pairs and 283 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 (version GGUF V3 (latest))
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 0: general.architecture str = chatglm
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 1: general.name str = glm-4-9b-chat
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 2: chatglm.context_length u32 = 131072
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 3: chatglm.embedding_length u32 = 4096
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 4: chatglm.feed_forward_length u32 = 13696
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 5: chatglm.block_count u32 = 40
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 6: chatglm.attention.head_count u32 = 32
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 7: chatglm.attention.head_count_kv u32 = 2
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 8: chatglm.attention.layer_norm_rms_epsilon f32 = 0.000000
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 9: general.file_type u32 = 2
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 10: chatglm.rope.dimension_count u32 = 64
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 11: tokenizer.ggml.add_bos_token bool = false
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 12: chatglm.rope.freq_base f32 = 5000000.000000
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 13: tokenizer.ggml.model str = gpt2
10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 14: tokenizer.ggml.pre str = chatglm-bpe
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 15: tokenizer.ggml.tokens arr[str,151552] = ["!", """, "#", "$", "%", "&", "'", ...
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 16: tokenizer.ggml.token_type arr[i32,151552] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
10月 09 13:24:03 gpu ollama[44027]: time=2024-10-09T13:24:03.076+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 17: tokenizer.ggml.merges arr[str,151073] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 18: tokenizer.ggml.padding_token_id u32 = 151329
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 19: tokenizer.ggml.eos_token_id u32 = 151329
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 20: tokenizer.ggml.eot_token_id u32 = 151336
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 21: tokenizer.ggml.unknown_token_id u32 = 151329
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 22: tokenizer.chat_template str = [gMASK]{% for item in messages %...
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 23: general.quantization_version u32 = 2
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type f32: 121 tensors
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type q4_0: 161 tensors
10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type q6_K: 1 tensors
10月 09 13:24:03 gpu ollama[44027]: llm_load_vocab: special tokens cache size = 223
10月 09 13:24:03 gpu ollama[44027]: llm_load_vocab: token to piece cache size = 0.9732 MB
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: format = GGUF V3 (latest)
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: arch = chatglm
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: vocab type = BPE
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_vocab = 151552
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_merges = 151073
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: vocab_only = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ctx_train = 131072
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd = 4096
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_layer = 40
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_head = 32
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_head_kv = 2
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_rot = 64
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_swa = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_head_k = 128
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_head_v = 128
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_gqa = 16
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_k_gqa = 256
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_v_gqa = 256
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_norm_eps = 0.0e+00
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_norm_rms_eps = 1.6e-07
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_clamp_kqv = 0.0e+00
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_logit_scale = 0.0e+00
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ff = 13696
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_expert = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_expert_used = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: causal attn = 1
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: pooling type = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope type = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope scaling = linear
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: freq_base_train = 5000000.0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: freq_scale_train = 1
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ctx_orig_yarn = 131072
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope_finetuned = unknown
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_conv = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_inner = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_state = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_dt_rank = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_dt_b_c_rms = 0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model type = 9B
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model ftype = Q4_0
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model params = 9.40 B
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model size = 5.08 GiB (4.64 BPW)
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: general.name = glm-4-9b-chat
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: EOS token = 151329 '<|endoftext|>'
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: UNK token = 151329 '<|endoftext|>'
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: PAD token = 151329 '<|endoftext|>'
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: LF token = 128 'Ä'
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: EOT token = 151336 '<|user|>'
10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: max token length = 1024
10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no
10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no
10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: found 1 CUDA devices:
10月 09 13:24:03 gpu ollama[44027]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: ggml ctx size = 0.28 MiB
10月 09 13:24:04 gpu ollama[44027]: time=2024-10-09T13:24:04.537+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 09 13:24:04 gpu ollama[44027]: time=2024-10-09T13:24:04.877+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloading 40 repeating layers to GPU
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloading non-repeating layers to GPU
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloaded 41/41 layers to GPU
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: CPU buffer size = 333.00 MiB
10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: CUDA0 buffer size = 4863.85 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_ctx = 128032
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_batch = 512
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_ubatch = 512
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: flash_attn = 0
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: freq_base = 5000000.0
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: freq_scale = 1
10月 09 13:24:05 gpu ollama[44027]: llama_kv_cache_init: CUDA0 KV buffer size = 5001.25 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: KV self size = 5001.25 MiB, K (f16): 2500.62 MiB, V (f16): 2500.62 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA_Host output buffer size = 0.59 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA0 compute buffer size = 8285.07 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA_Host compute buffer size = 258.07 MiB
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: graph nodes = 1606
10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: graph splits = 2
10月 09 13:24:06 gpu ollama[44027]: INFO [main] model loaded | tid="139725003341824" timestamp=1728451446
10月 09 13:24:06 gpu ollama[44027]: time=2024-10-09T13:24:06.140+08:00 level=INFO source=server.go:626 msg="llama runner started in 3.32 seconds"
10月 09 13:24:07 gpu ollama[44027]: [GIN] 2024/10/09 - 13:24:07 | 200 | 5.883286351s | 172.22.1.39 | POST "/api/chat"

<!-- gh-comment-id:2401346061 --> @goactiongo commented on GitHub (Oct 9, 2024): Here is a success example with short text content by using glm4:9b ( --ctx-size 128001) ![image](https://github.com/user-attachments/assets/ee2c4e6c-8fc9-46ca-a0fd-ab2d63239489) ### AI DEBUG logs ![image](https://github.com/user-attachments/assets/18aee46b-3c44-4ec0-bc43-870fe4f82ebf) ### ollama debug logs 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.807+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=21459828736 required="18.4 GiB" 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.807+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="112.7 GiB" free_swap="3.7 GiB" 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.808+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[20.0 GiB]" memory.gpu_overhead="0 B" memory.required.full="18.4 GiB" memory.required.partial="18.4 GiB" memory.required.kv="4.9 GiB" memory.required.allocations="[18.4 GiB]" memory.weights.total="9.2 GiB" memory.weights.repeating="8.7 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.2 GiB" 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.820+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama3286374914/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41 --parallel 1 --port 39005" 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.821+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.821+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding" 10月 09 13:24:02 gpu ollama[44027]: time=2024-10-09T13:24:02.822+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 09 13:24:02 gpu ollama[44027]: INFO [main] build info | build=10 commit="9225b05" tid="139725003341824" timestamp=1728451442 10月 09 13:24:02 gpu ollama[44027]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="139725003341824" timestamp=1728451442 total_threads=64 10月 09 13:24:02 gpu ollama[44027]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="39005" tid="139725003341824" timestamp=1728451442 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: loaded meta data with 24 key-value pairs and 283 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 (version GGUF V3 (latest)) 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output. 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 0: general.architecture str = chatglm 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 1: general.name str = glm-4-9b-chat 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 2: chatglm.context_length u32 = 131072 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 3: chatglm.embedding_length u32 = 4096 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 4: chatglm.feed_forward_length u32 = 13696 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 5: chatglm.block_count u32 = 40 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 6: chatglm.attention.head_count u32 = 32 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 7: chatglm.attention.head_count_kv u32 = 2 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 8: chatglm.attention.layer_norm_rms_epsilon f32 = 0.000000 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 9: general.file_type u32 = 2 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 10: chatglm.rope.dimension_count u32 = 64 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 11: tokenizer.ggml.add_bos_token bool = false 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 12: chatglm.rope.freq_base f32 = 5000000.000000 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 13: tokenizer.ggml.model str = gpt2 10月 09 13:24:02 gpu ollama[44027]: llama_model_loader: - kv 14: tokenizer.ggml.pre str = chatglm-bpe 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 15: tokenizer.ggml.tokens arr[str,151552] = ["!", "\"", "#", "$", "%", "&", "'", ... 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 16: tokenizer.ggml.token_type arr[i32,151552] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 10月 09 13:24:03 gpu ollama[44027]: time=2024-10-09T13:24:03.076+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 17: tokenizer.ggml.merges arr[str,151073] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 18: tokenizer.ggml.padding_token_id u32 = 151329 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 19: tokenizer.ggml.eos_token_id u32 = 151329 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 20: tokenizer.ggml.eot_token_id u32 = 151336 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 21: tokenizer.ggml.unknown_token_id u32 = 151329 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 22: tokenizer.chat_template str = [gMASK]<sop>{% for item in messages %... 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - kv 23: general.quantization_version u32 = 2 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type f32: 121 tensors 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type q4_0: 161 tensors 10月 09 13:24:03 gpu ollama[44027]: llama_model_loader: - type q6_K: 1 tensors 10月 09 13:24:03 gpu ollama[44027]: llm_load_vocab: special tokens cache size = 223 10月 09 13:24:03 gpu ollama[44027]: llm_load_vocab: token to piece cache size = 0.9732 MB 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: format = GGUF V3 (latest) 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: arch = chatglm 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: vocab type = BPE 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_vocab = 151552 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_merges = 151073 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: vocab_only = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ctx_train = 131072 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd = 4096 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_layer = 40 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_head = 32 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_head_kv = 2 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_rot = 64 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_swa = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_head_k = 128 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_head_v = 128 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_gqa = 16 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_k_gqa = 256 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_embd_v_gqa = 256 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_norm_eps = 0.0e+00 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_norm_rms_eps = 1.6e-07 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_clamp_kqv = 0.0e+00 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: f_logit_scale = 0.0e+00 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ff = 13696 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_expert = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_expert_used = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: causal attn = 1 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: pooling type = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope type = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope scaling = linear 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: freq_base_train = 5000000.0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: freq_scale_train = 1 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: n_ctx_orig_yarn = 131072 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: rope_finetuned = unknown 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_conv = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_inner = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_d_state = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_dt_rank = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: ssm_dt_b_c_rms = 0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model type = 9B 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model ftype = Q4_0 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model params = 9.40 B 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: model size = 5.08 GiB (4.64 BPW) 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: general.name = glm-4-9b-chat 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: EOS token = 151329 '<|endoftext|>' 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: UNK token = 151329 '<|endoftext|>' 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: PAD token = 151329 '<|endoftext|>' 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: LF token = 128 'Ä' 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: EOT token = 151336 '<|user|>' 10月 09 13:24:03 gpu ollama[44027]: llm_load_print_meta: max token length = 1024 10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no 10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 10月 09 13:24:03 gpu ollama[44027]: ggml_cuda_init: found 1 CUDA devices: 10月 09 13:24:03 gpu ollama[44027]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: ggml ctx size = 0.28 MiB 10月 09 13:24:04 gpu ollama[44027]: time=2024-10-09T13:24:04.537+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 09 13:24:04 gpu ollama[44027]: time=2024-10-09T13:24:04.877+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloading 40 repeating layers to GPU 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloading non-repeating layers to GPU 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: offloaded 41/41 layers to GPU 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: CPU buffer size = 333.00 MiB 10月 09 13:24:04 gpu ollama[44027]: llm_load_tensors: CUDA0 buffer size = 4863.85 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_ctx = 128032 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_batch = 512 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: n_ubatch = 512 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: flash_attn = 0 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: freq_base = 5000000.0 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: freq_scale = 1 10月 09 13:24:05 gpu ollama[44027]: llama_kv_cache_init: CUDA0 KV buffer size = 5001.25 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: KV self size = 5001.25 MiB, K (f16): 2500.62 MiB, V (f16): 2500.62 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA_Host output buffer size = 0.59 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA0 compute buffer size = 8285.07 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: CUDA_Host compute buffer size = 258.07 MiB 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: graph nodes = 1606 10月 09 13:24:05 gpu ollama[44027]: llama_new_context_with_model: graph splits = 2 10月 09 13:24:06 gpu ollama[44027]: INFO [main] model loaded | tid="139725003341824" timestamp=1728451446 10月 09 13:24:06 gpu ollama[44027]: time=2024-10-09T13:24:06.140+08:00 level=INFO source=server.go:626 msg="llama runner started in 3.32 seconds" 10月 09 13:24:07 gpu ollama[44027]: [GIN] 2024/10/09 - 13:24:07 | 200 | 5.883286351s | 172.22.1.39 | POST "/api/chat"
Author
Owner

@rick-github commented on GitHub (Oct 9, 2024):

Can you upload the PDF and give a pointer to the client that you are using?

<!-- gh-comment-id:2401389908 --> @rick-github commented on GitHub (Oct 9, 2024): Can you upload the PDF and give a pointer to the client that you are using?
Author
Owner

@goactiongo commented on GitHub (Oct 11, 2024):

ollama version is 0.3.11
I used the FastGPT

I'm certain that this issue is not related to the PDF format. If I use a WORD file with long text content , the same problem would occur. As long as the content in the document is lengthy, this error will exist.

But as long as the content in the document is minimal, it can be recognized normally, whether it's a PDF or a Word.

Here ,it's the same issue when I used a DOCX file test1.docx within 5000+ charaters.

image

AI debug logs

image

ollama debug logs

10月 11 13:51:37 gpu ollama[60354]: time=2024-10-11T13:51:37.930+08:00 level=INFO source=common.go:49 msg="Dynamic LLM librari es" runners="[cpu cpu_avx cpu_avx2 cuda_v11 cuda_v12 rocm_v60102]"
10月 11 13:51:37 gpu ollama[60354]: time=2024-10-11T13:51:37.931+08:00 level=INFO source=gpu.go:199 msg="looking for compatibl e GPUs"
10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="14.7 GiB"
10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="16.8 GiB"
10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="23.3 GiB"
10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="23.3 GiB"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.354+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8f da98120fefed5881934161ede8bd1a41 gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 parallel=4 available=24986779648 required="21.5 GiB"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.354+08:00 level=INFO source=server.go:103 msg="system memory" tot al="125.4 GiB" free="114.3 GiB" free_swap="3.7 GiB"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.356+08:00 level=INFO source=memory.go:326 msg="offload to cuda" l ayers.requested=-1 layers.model=65 layers.offload=65 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" m emory.required.full="21.5 GiB" memory.required.partial="21.5 GiB" memory.required.kv="2.0 GiB" memory.required.allocations="[2 1.5 GiB]" memory.weights.total="19.5 GiB" memory.weights.repeating="18.9 GiB" memory.weights.nonrepeating="609.1 MiB" memory.g raph.full="676.0 MiB" memory.graph.partial="916.1 MiB"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.374+08:00 level=INFO source=server.go:388 msg="starting llama ser ver" cmd="/tmp/ollama3399730686/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eab c98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 8192 --batch-size 512 --embedding --log-disable --n-g pu-layers 65 --parallel 4 --port 45366"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.375+08:00 level=INFO source=sched.go:449 msg="loaded runners" cou nt=1
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.375+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding"
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.376+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 11 13:51:40 gpu ollama[60354]: INFO [main] build info | build=10 commit="9225b05" tid="140516332331008" timestamp=1728625 900
10月 11 13:51:40 gpu ollama[60354]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " ti d="140516332331008" timestamp=1728625900 total_threads=64
10月 11 13:51:40 gpu ollama[60354]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="45366" tid="140516332331008" timestamp=1728625900
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/sha re/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (lates t))
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 0: general.architecture str = qwen2
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 1: general.type str = model
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 2: general.name str = Qwen2.5 32B Instruct
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 3: general.finetune str = Instruct
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 4: general.basename str = Qwen2.5
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 5: general.size_label str = 32B
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 6: general.license str = apache-2.0
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 7: general.license.link str = https://huggingface.co/Qwen/Qwen2.5-3...
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 8: general.base_model.count u32 = 1
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 9: general.base_model.0.name str = Qwen2.5 32B
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 10: general.base_model.0.organization str = Qwen
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 11: general.base_model.0.repo_url str = https://huggingface.co/Qwen/Qwen2.5-32B
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 12: general.tags arr[str,2] = ["chat", "text-generation"]
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 13: general.languages arr[str,1] = ["en"]
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 14: qwen2.block_count u32 = 64
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 15: qwen2.context_length u32 = 32768
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 16: qwen2.embedding_length u32 = 5120
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 17: qwen2.feed_forward_length u32 = 27648
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 18: qwen2.attention.head_count u32 = 40
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 19: qwen2.attention.head_count_kv u32 = 8
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 20: qwen2.rope.freq_base f32 = 1000000.000000
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 21: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000001
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 22: general.file_type u32 = 15
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 23: tokenizer.ggml.model str = gpt2
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 24: tokenizer.ggml.pre str = qwen2
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 25: tokenizer.ggml.tokens arr[str,152064] = ["!", """, "#", "$", "%", "&", "'", ...
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 26: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.628+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 27: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 28: tokenizer.ggml.eos_token_id u32 = 151645
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 29: tokenizer.ggml.padding_token_id u32 = 151643
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 30: tokenizer.ggml.bos_token_id u32 = 151643
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 31: tokenizer.ggml.add_bos_token bool = false
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 32: tokenizer.chat_template str = {%- if tools %}\n {{- '<|im_start|>...
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 33: general.quantization_version u32 = 2
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type f32: 321 tensors
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type q4_K: 385 tensors
10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type q6_K: 65 tensors
10月 11 13:51:40 gpu ollama[60354]: llm_load_vocab: special tokens cache size = 22
10月 11 13:51:41 gpu ollama[60354]: llm_load_vocab: token to piece cache size = 0.9310 MB
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: format = GGUF V3 (latest)
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: arch = qwen2
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: vocab type = BPE
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_vocab = 152064
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_merges = 151387
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: vocab_only = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ctx_train = 32768
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd = 5120
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_layer = 64
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_head = 40
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_head_kv = 8
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_rot = 128
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_swa = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_head_k = 128
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_head_v = 128
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_gqa = 5
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_k_gqa = 1024
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_v_gqa = 1024
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_norm_eps = 0.0e+00
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_norm_rms_eps = 1.0e-06
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_clamp_kqv = 0.0e+00
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_logit_scale = 0.0e+00
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ff = 27648
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_expert = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_expert_used = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: causal attn = 1
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: pooling type = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope type = 2
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope scaling = linear
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: freq_base_train = 1000000.0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: freq_scale_train = 1
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ctx_orig_yarn = 32768
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope_finetuned = unknown
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_conv = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_inner = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_state = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_dt_rank = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_dt_b_c_rms = 0
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model type = ?B
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model ftype = Q4_K - Medium
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model params = 32.76 B
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model size = 18.48 GiB (4.85 BPW)
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: general.name = Qwen2.5 32B Instruct
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: BOS token = 151643 '<|endoftext|>'
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: EOS token = 151645 '<|im_end|>'
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: PAD token = 151643 '<|endoftext|>'
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: LF token = 148848 'ÄĬ'
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: EOT token = 151645 '<|im_end|>'
10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: max token length = 256
10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no
10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no
10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: found 1 CUDA devices:
10月 11 13:51:41 gpu ollama[60354]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes
10月 11 13:51:41 gpu ollama[60354]: llm_load_tensors: ggml ctx size = 0.68 MiB
10月 11 13:51:42 gpu ollama[60354]: time=2024-10-11T13:51:42.085+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 11 13:51:43 gpu ollama[60354]: time=2024-10-11T13:51:43.741+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloading 64 repeating layers to GPU
10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloading non-repeating layers to GPU
10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloaded 65/65 layers to GPU
10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: CPU buffer size = 417.66 MiB
10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: CUDA0 buffer size = 18508.35 MiB
10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.453+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_ctx = 8192
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_batch = 512
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_ubatch = 512
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: flash_attn = 0
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: freq_base = 1000000.0
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: freq_scale = 1
10月 11 13:51:46 gpu ollama[60354]: llama_kv_cache_init: CUDA0 KV buffer size = 2048.00 MiB
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: KV self size = 2048.00 MiB, K (f16): 1024.00 MiB, V (f16): 1024.00 MiB
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA_Host output buffer size = 2.40 MiB
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA0 compute buffer size = 696.00 MiB
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA_Host compute buffer size = 26.01 MiB
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: graph nodes = 2246
10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: graph splits = 2
10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.705+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 11 13:51:46 gpu ollama[60354]: INFO [main] model loaded | tid="140516332331008" timestamp=1728625906
10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.957+08:00 level=INFO source=server.go:626 msg="llama runner start ed in 6.58 seconds"
10月 11 13:51:50 gpu ollama[60354]: [GIN] 2024/10/11 - 13:51:50 | 200 | 11.286623482s | 172.16.1.219 | POST "/api/chat"

<!-- gh-comment-id:2406366291 --> @goactiongo commented on GitHub (Oct 11, 2024): ollama version is 0.3.11 I used the [FastGPT](https://github.com/labring/FastGPT) I'm certain that this issue is not related to the PDF format. If I use a WORD file with long text content , the same problem would occur. As long as the content in the document is lengthy, this error will exist. But as long as the content in the document is minimal, it can be recognized normally, whether it's a PDF or a Word. Here ,it's the same issue when I used a DOCX file [test1.docx](https://github.com/user-attachments/files/17338341/test1.docx) within 5000+ charaters. ![image](https://github.com/user-attachments/assets/a0006480-c8f9-4277-8965-943319f9f300) ### AI debug logs ![image](https://github.com/user-attachments/assets/6c7a6169-947c-42fc-9eaf-427d31a64c79) ### ollama debug logs 10月 11 13:51:37 gpu ollama[60354]: time=2024-10-11T13:51:37.930+08:00 level=INFO source=common.go:49 msg="Dynamic LLM librari es" runners="[cpu cpu_avx cpu_avx2 cuda_v11 cuda_v12 rocm_v60102]" 10月 11 13:51:37 gpu ollama[60354]: time=2024-10-11T13:51:37.931+08:00 level=INFO source=gpu.go:199 msg="looking for compatibl e GPUs" 10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="14.7 GiB" 10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="16.8 GiB" 10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="23.3 GiB" 10月 11 13:51:39 gpu ollama[60354]: time=2024-10-11T13:51:39.194+08:00 level=INFO source=types.go:107 msg="inference compute" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB " available="23.3 GiB" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.354+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8f da98120fefed5881934161ede8bd1a41 gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 parallel=4 available=24986779648 required="21.5 GiB" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.354+08:00 level=INFO source=server.go:103 msg="system memory" tot al="125.4 GiB" free="114.3 GiB" free_swap="3.7 GiB" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.356+08:00 level=INFO source=memory.go:326 msg="offload to cuda" l ayers.requested=-1 layers.model=65 layers.offload=65 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" m emory.required.full="21.5 GiB" memory.required.partial="21.5 GiB" memory.required.kv="2.0 GiB" memory.required.allocations="[2 1.5 GiB]" memory.weights.total="19.5 GiB" memory.weights.repeating="18.9 GiB" memory.weights.nonrepeating="609.1 MiB" memory.g raph.full="676.0 MiB" memory.graph.partial="916.1 MiB" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.374+08:00 level=INFO source=server.go:388 msg="starting llama ser ver" cmd="/tmp/ollama3399730686/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eab c98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 8192 --batch-size 512 --embedding --log-disable --n-g pu-layers 65 --parallel 4 --port 45366" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.375+08:00 level=INFO source=sched.go:449 msg="loaded runners" cou nt=1 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.375+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding" 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.376+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 11 13:51:40 gpu ollama[60354]: INFO [main] build info | build=10 commit="9225b05" tid="140516332331008" timestamp=1728625 900 10月 11 13:51:40 gpu ollama[60354]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " ti d="140516332331008" timestamp=1728625900 total_threads=64 10月 11 13:51:40 gpu ollama[60354]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="45366" tid="140516332331008" timestamp=1728625900 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/sha re/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (lates t)) 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output. 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 0: general.architecture str = qwen2 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 1: general.type str = model 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 2: general.name str = Qwen2.5 32B Instruct 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 3: general.finetune str = Instruct 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 4: general.basename str = Qwen2.5 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 5: general.size_label str = 32B 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 6: general.license str = apache-2.0 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 7: general.license.link str = https://huggingface.co/Qwen/Qwen2.5-3... 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 8: general.base_model.count u32 = 1 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 9: general.base_model.0.name str = Qwen2.5 32B 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 10: general.base_model.0.organization str = Qwen 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 11: general.base_model.0.repo_url str = https://huggingface.co/Qwen/Qwen2.5-32B 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 12: general.tags arr[str,2] = ["chat", "text-generation"] 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 13: general.languages arr[str,1] = ["en"] 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 14: qwen2.block_count u32 = 64 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 15: qwen2.context_length u32 = 32768 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 16: qwen2.embedding_length u32 = 5120 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 17: qwen2.feed_forward_length u32 = 27648 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 18: qwen2.attention.head_count u32 = 40 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 19: qwen2.attention.head_count_kv u32 = 8 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 20: qwen2.rope.freq_base f32 = 1000000.000000 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 21: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000001 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 22: general.file_type u32 = 15 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 23: tokenizer.ggml.model str = gpt2 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 24: tokenizer.ggml.pre str = qwen2 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 25: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 26: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 10月 11 13:51:40 gpu ollama[60354]: time=2024-10-11T13:51:40.628+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 27: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 28: tokenizer.ggml.eos_token_id u32 = 151645 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 29: tokenizer.ggml.padding_token_id u32 = 151643 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 30: tokenizer.ggml.bos_token_id u32 = 151643 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 31: tokenizer.ggml.add_bos_token bool = false 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 32: tokenizer.chat_template str = {%- if tools %}\n {{- '<|im_start|>... 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - kv 33: general.quantization_version u32 = 2 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type f32: 321 tensors 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type q4_K: 385 tensors 10月 11 13:51:40 gpu ollama[60354]: llama_model_loader: - type q6_K: 65 tensors 10月 11 13:51:40 gpu ollama[60354]: llm_load_vocab: special tokens cache size = 22 10月 11 13:51:41 gpu ollama[60354]: llm_load_vocab: token to piece cache size = 0.9310 MB 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: format = GGUF V3 (latest) 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: arch = qwen2 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: vocab type = BPE 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_vocab = 152064 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_merges = 151387 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: vocab_only = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ctx_train = 32768 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd = 5120 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_layer = 64 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_head = 40 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_head_kv = 8 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_rot = 128 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_swa = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_head_k = 128 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_head_v = 128 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_gqa = 5 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_k_gqa = 1024 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_embd_v_gqa = 1024 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_norm_eps = 0.0e+00 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_norm_rms_eps = 1.0e-06 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_clamp_kqv = 0.0e+00 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: f_logit_scale = 0.0e+00 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ff = 27648 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_expert = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_expert_used = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: causal attn = 1 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: pooling type = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope type = 2 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope scaling = linear 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: freq_base_train = 1000000.0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: freq_scale_train = 1 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: n_ctx_orig_yarn = 32768 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: rope_finetuned = unknown 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_conv = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_inner = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_d_state = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_dt_rank = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: ssm_dt_b_c_rms = 0 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model type = ?B 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model ftype = Q4_K - Medium 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model params = 32.76 B 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: model size = 18.48 GiB (4.85 BPW) 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: general.name = Qwen2.5 32B Instruct 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: BOS token = 151643 '<|endoftext|>' 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: EOS token = 151645 '<|im_end|>' 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: PAD token = 151643 '<|endoftext|>' 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: LF token = 148848 'ÄĬ' 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: EOT token = 151645 '<|im_end|>' 10月 11 13:51:41 gpu ollama[60354]: llm_load_print_meta: max token length = 256 10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no 10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 10月 11 13:51:41 gpu ollama[60354]: ggml_cuda_init: found 1 CUDA devices: 10月 11 13:51:41 gpu ollama[60354]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes 10月 11 13:51:41 gpu ollama[60354]: llm_load_tensors: ggml ctx size = 0.68 MiB 10月 11 13:51:42 gpu ollama[60354]: time=2024-10-11T13:51:42.085+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 11 13:51:43 gpu ollama[60354]: time=2024-10-11T13:51:43.741+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloading 64 repeating layers to GPU 10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloading non-repeating layers to GPU 10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: offloaded 65/65 layers to GPU 10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: CPU buffer size = 417.66 MiB 10月 11 13:51:43 gpu ollama[60354]: llm_load_tensors: CUDA0 buffer size = 18508.35 MiB 10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.453+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_ctx = 8192 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_batch = 512 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: n_ubatch = 512 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: flash_attn = 0 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: freq_base = 1000000.0 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: freq_scale = 1 10月 11 13:51:46 gpu ollama[60354]: llama_kv_cache_init: CUDA0 KV buffer size = 2048.00 MiB 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: KV self size = 2048.00 MiB, K (f16): 1024.00 MiB, V (f16): 1024.00 MiB 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA_Host output buffer size = 2.40 MiB 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA0 compute buffer size = 696.00 MiB 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: CUDA_Host compute buffer size = 26.01 MiB 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: graph nodes = 2246 10月 11 13:51:46 gpu ollama[60354]: llama_new_context_with_model: graph splits = 2 10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.705+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 11 13:51:46 gpu ollama[60354]: INFO [main] model loaded | tid="140516332331008" timestamp=1728625906 10月 11 13:51:46 gpu ollama[60354]: time=2024-10-11T13:51:46.957+08:00 level=INFO source=server.go:626 msg="llama runner start ed in 6.58 seconds" 10月 11 13:51:50 gpu ollama[60354]: [GIN] 2024/10/11 - 13:51:50 | 200 | 11.286623482s | 172.16.1.219 | POST "/api/chat"
Author
Owner

@goactiongo commented on GitHub (Oct 11, 2024):

@rick-github hi bro, any feedback,pls

<!-- gh-comment-id:2407249255 --> @goactiongo commented on GitHub (Oct 11, 2024): @rick-github hi bro, any feedback,pls
Author
Owner

@rick-github commented on GitHub (Oct 11, 2024):

I asked about the client so that I could replicate the problem as closely as possible, but it looks too time-consuming so I instead just tested ollama.

Baseline: test with a simple text file:

$ cat 1.txt 
hi
ok
hello
hi there
how are you
$ f=1.txt ; curl -s localhost:11434/api/chat -d \
  '{
    "model":"glm4:9b",
    "options":{"num_ctx":128001,"temperature":0.01,"num_predict":200},
    "messages":[
      {"role":"system","content":'"$((printf "Consider the content within as your knowledge\n\nFile: $f\n\n" ; cat $f ; printf "\n\n\n") | jq -sR .)"'},
      {"role":"user","content":"Summarize the document content"}],
    "stream":false}' | jq

Output:

{
  "model": "glm4:9b",
  "created_at": "2024-10-11T15:12:42.518522422Z",
  "message": {
    "role": "assistant",
    "content": "The document \"1.txt\" contains a series of casual greetings and inquiries. The text includes:\n\n- \"hi\"\n- \"ok\"\n- \"hello\"\n- \"hi there\"\n- \"how are you\"\n\nThese phrases suggest a friendly or informal communication context, possibly between acquaintances or in an online chat setting."
  },
  "done_reason": "stop",
  "done": true,
  "total_duration": 8984708587,
  "load_duration": 23716372,
  "prompt_eval_count": 41,
  "prompt_eval_duration": 1124868000,
  "eval_count": 64,
  "eval_duration": 7705082000
}

Un-JSON'ified:

The document "1.txt" contains a series of casual greetings and inquiries. The text includes:

- "hi"
- "ok"
- "hello"
- "hi there"
- "how are you"

These phrases suggest a friendly or informal communication context, possibly between acquaintances or in an online chat setting.

Test with 600007.pdf as per your description of the problem:

$ f=600007.pdf ; curl -s localhost:11434/api/chat -d \
  '{
    "model":"glm4:9b",
    "options":{"num_ctx":128001,"temperature":0.01,"num_predict":200},
    "messages":[
      {"role":"system","content":'"$((printf "Consider the content within as your knowledge\n\nFile: $f\n\n" ; pdftotext $f - | dd bs=1 count=20000 2>&- ; printf "\n\n\n") | jq -sR .)"'},
      {"role":"user","content":"Summarize the document content"}],
    "stream":false}' | jq

Output:

{
  "model": "glm4:9b",
  "created_at": "2024-10-11T15:19:38.49856322Z",
  "message": {
    "role": "assistant",
    "content": "The document is the 2024 half-year report of China World Trade Center Co., Ltd. (CWTCC), a real estate company in China. Here's a summary:\n\n**Company Overview**:\n* CWTCC specializes in leasing and managing investment properties such as office buildings, shopping malls, and apartments, as well as operating hotels.\n* The company owns the iconic China World Trade Center complex in Beijing's central business district.\n\n**Financial Highlights**:\n* Revenue increased by 1.4% to RMB 19.7 billion.\n* Profit before tax increased by 5.4% to RMB 920 million.\n* Net profit attributable to shareholders increased by 4.4% to RMB 680 million.\n\n**Market Analysis**:\n* The Beijing real estate market faced challenges in the first half of 2024, with weak demand and declining rents for office buildings and shopping malls.\n* Service apartments and hotels performed relatively stable.\n\n**Key Developments**:\n"
  },
  "done_reason": "length",
  "done": true,
  "total_duration": 54284674482,
  "load_duration": 17501226,
  "prompt_eval_count": 5448,
  "prompt_eval_duration": 6706188000,
  "eval_count": 200,
  "eval_duration": 47390140000
}

Un-JSON'ified:

The document is the 2024 half-year report of China World Trade Center Co., Ltd. (CWTCC), a real estate company in China. Here's a summary:

**Company Overview**:
* CWTCC specializes in leasing and managing investment properties such as office buildings, shopping malls, and apartments, as well as operating hotels.
* The company owns the iconic China World Trade Center complex in Beijing's central business district.

**Financial Highlights**:
* Revenue increased by 1.4% to RMB 19.7 billion.
* Profit before tax increased by 5.4% to RMB 920 million.
* Net profit attributable to shareholders increased by 4.4% to RMB 680 million.

**Market Analysis**:
* The Beijing real estate market faced challenges in the first half of 2024, with weak demand and declining rents for office buildings and shopping malls.
* Service apartments and hotels performed relatively stable.

**Key Developments**:

I translated the document with Google translate and while I didn't read enough to verify the facts, the summary looks relevant.

Your problem description notes that FastGPT sent 20,000 characters to ollama. I assume that's a configuration setting in FastGPT. I retried the test with 100,000 characters of the PDF file and it also worked:

This document is the 2024 semi-annual report of China World Trade Center Co., Ltd. (CWTCC), a real estate investment and hotel management company in Beijing, China.

**Key Points**:

* **Company Overview**: CWTCC owns and manages high-end commercial properties such as office buildings, shopping malls, apartments, and hotels in the central business district of Beijing.
* **Financial Performance**: 
    * Revenue increased by 1.4% to RMB 19.7 billion.
    * Profit before tax increased by 5.4% to RMB 920 million.
    * Net profit attributable to shareholders increased by 4.4% to RMB 680 million.
* **Market Analysis**:
    * The Beijing office market faced challenges with weak demand and declining rents.
    * The commercial property market showed signs of differentiation, with high-end retail facing pressure while mass-market retail and dining remained strong.
    * The serviced apartment and hotel industries

Testing with qwen2.5:32b and a context window of 30001 returned the following:

{
  "model": "qwen2.5:32b",
  "created_at": "2024-10-11T15:41:52.575555426Z",
  "message": {
    "role": "assistant",
    "content": "The document is the semi-annual report of China World Trade Center Co., Ltd (China GuoTou) for the first half of 2024. Key points include:\n\n1. **Financial Performance**:\n   - Revenue: RMB 1,965,293,521 (up 1.39% YoY)\n   - Net Profit: RMB 687,537,223 (up 5.18% YoY)\n   - Operating Cash Flow: RMB 942,423,094 (down 5.06% YoY)\n\n2. **Core Competitiveness**:\n   - The company operates in the real estate sector and owns a large-scale commercial service complex located in Beijing's Central Business District.\n   - It benefits from brand recognition, prime location, comprehensive services, resources, management expertise, and high-quality customer service.\n\n3. **"
  },
  "done_reason": "length",
  "done": true,
  "total_duration": 225857831734,
  "load_duration": 92455814842,
  "prompt_eval_count": 6318,
  "prompt_eval_duration": 25080494000,
  "eval_count": 200,
  "eval_duration": 108089871000
}

Un-JSON'ified:

The document is the semi-annual report of China World Trade Center Co., Ltd (China GuoTou) for the first half of 2024. Key points include:

1. **Financial Performance**:
   - Revenue: RMB 1,965,293,521 (up 1.39% YoY)
   - Net Profit: RMB 687,537,223 (up 5.18% YoY)
   - Operating Cash Flow: RMB 942,423,094 (down 5.06% YoY)

2. **Core Competitiveness**:
   - The company operates in the real estate sector and owns a large-scale commercial service complex located in Beijing's Central Business District.
   - It benefits from brand recognition, prime location, comprehensive services, resources, management expertise, and high-quality customer service.

3. **

So ollama appears to be working as expected. If you add OLLAMA_DEBUG=1 to your server environment and try again, the resulting logs may indicate where the problem is. My guess is that FastGPT is dumping the raw document into the prompt, but since I didn't get it working, I can't say for sure.

<!-- gh-comment-id:2407686910 --> @rick-github commented on GitHub (Oct 11, 2024): I asked about the client so that I could replicate the problem as closely as possible, but it looks too time-consuming so I instead just tested ollama. Baseline: test with a simple text file: ``` $ cat 1.txt hi ok hello hi there how are you $ f=1.txt ; curl -s localhost:11434/api/chat -d \ '{ "model":"glm4:9b", "options":{"num_ctx":128001,"temperature":0.01,"num_predict":200}, "messages":[ {"role":"system","content":'"$((printf "Consider the content within as your knowledge\n\nFile: $f\n\n" ; cat $f ; printf "\n\n\n") | jq -sR .)"'}, {"role":"user","content":"Summarize the document content"}], "stream":false}' | jq ``` Output: ```json { "model": "glm4:9b", "created_at": "2024-10-11T15:12:42.518522422Z", "message": { "role": "assistant", "content": "The document \"1.txt\" contains a series of casual greetings and inquiries. The text includes:\n\n- \"hi\"\n- \"ok\"\n- \"hello\"\n- \"hi there\"\n- \"how are you\"\n\nThese phrases suggest a friendly or informal communication context, possibly between acquaintances or in an online chat setting." }, "done_reason": "stop", "done": true, "total_duration": 8984708587, "load_duration": 23716372, "prompt_eval_count": 41, "prompt_eval_duration": 1124868000, "eval_count": 64, "eval_duration": 7705082000 } ``` Un-JSON'ified: ``` The document "1.txt" contains a series of casual greetings and inquiries. The text includes: - "hi" - "ok" - "hello" - "hi there" - "how are you" These phrases suggest a friendly or informal communication context, possibly between acquaintances or in an online chat setting. ``` Test with 600007.pdf as per your description of the problem: ``` $ f=600007.pdf ; curl -s localhost:11434/api/chat -d \ '{ "model":"glm4:9b", "options":{"num_ctx":128001,"temperature":0.01,"num_predict":200}, "messages":[ {"role":"system","content":'"$((printf "Consider the content within as your knowledge\n\nFile: $f\n\n" ; pdftotext $f - | dd bs=1 count=20000 2>&- ; printf "\n\n\n") | jq -sR .)"'}, {"role":"user","content":"Summarize the document content"}], "stream":false}' | jq ``` Output: ```json { "model": "glm4:9b", "created_at": "2024-10-11T15:19:38.49856322Z", "message": { "role": "assistant", "content": "The document is the 2024 half-year report of China World Trade Center Co., Ltd. (CWTCC), a real estate company in China. Here's a summary:\n\n**Company Overview**:\n* CWTCC specializes in leasing and managing investment properties such as office buildings, shopping malls, and apartments, as well as operating hotels.\n* The company owns the iconic China World Trade Center complex in Beijing's central business district.\n\n**Financial Highlights**:\n* Revenue increased by 1.4% to RMB 19.7 billion.\n* Profit before tax increased by 5.4% to RMB 920 million.\n* Net profit attributable to shareholders increased by 4.4% to RMB 680 million.\n\n**Market Analysis**:\n* The Beijing real estate market faced challenges in the first half of 2024, with weak demand and declining rents for office buildings and shopping malls.\n* Service apartments and hotels performed relatively stable.\n\n**Key Developments**:\n" }, "done_reason": "length", "done": true, "total_duration": 54284674482, "load_duration": 17501226, "prompt_eval_count": 5448, "prompt_eval_duration": 6706188000, "eval_count": 200, "eval_duration": 47390140000 } ``` Un-JSON'ified: ``` The document is the 2024 half-year report of China World Trade Center Co., Ltd. (CWTCC), a real estate company in China. Here's a summary: **Company Overview**: * CWTCC specializes in leasing and managing investment properties such as office buildings, shopping malls, and apartments, as well as operating hotels. * The company owns the iconic China World Trade Center complex in Beijing's central business district. **Financial Highlights**: * Revenue increased by 1.4% to RMB 19.7 billion. * Profit before tax increased by 5.4% to RMB 920 million. * Net profit attributable to shareholders increased by 4.4% to RMB 680 million. **Market Analysis**: * The Beijing real estate market faced challenges in the first half of 2024, with weak demand and declining rents for office buildings and shopping malls. * Service apartments and hotels performed relatively stable. **Key Developments**: ``` I translated the document with Google translate and while I didn't read enough to verify the facts, the summary looks relevant. Your problem description notes that FastGPT sent 20,000 characters to ollama. I assume that's a configuration setting in FastGPT. I retried the test with 100,000 characters of the PDF file and it also worked: ``` This document is the 2024 semi-annual report of China World Trade Center Co., Ltd. (CWTCC), a real estate investment and hotel management company in Beijing, China. **Key Points**: * **Company Overview**: CWTCC owns and manages high-end commercial properties such as office buildings, shopping malls, apartments, and hotels in the central business district of Beijing. * **Financial Performance**: * Revenue increased by 1.4% to RMB 19.7 billion. * Profit before tax increased by 5.4% to RMB 920 million. * Net profit attributable to shareholders increased by 4.4% to RMB 680 million. * **Market Analysis**: * The Beijing office market faced challenges with weak demand and declining rents. * The commercial property market showed signs of differentiation, with high-end retail facing pressure while mass-market retail and dining remained strong. * The serviced apartment and hotel industries ``` Testing with qwen2.5:32b and a context window of 30001 returned the following: ```json { "model": "qwen2.5:32b", "created_at": "2024-10-11T15:41:52.575555426Z", "message": { "role": "assistant", "content": "The document is the semi-annual report of China World Trade Center Co., Ltd (China GuoTou) for the first half of 2024. Key points include:\n\n1. **Financial Performance**:\n - Revenue: RMB 1,965,293,521 (up 1.39% YoY)\n - Net Profit: RMB 687,537,223 (up 5.18% YoY)\n - Operating Cash Flow: RMB 942,423,094 (down 5.06% YoY)\n\n2. **Core Competitiveness**:\n - The company operates in the real estate sector and owns a large-scale commercial service complex located in Beijing's Central Business District.\n - It benefits from brand recognition, prime location, comprehensive services, resources, management expertise, and high-quality customer service.\n\n3. **" }, "done_reason": "length", "done": true, "total_duration": 225857831734, "load_duration": 92455814842, "prompt_eval_count": 6318, "prompt_eval_duration": 25080494000, "eval_count": 200, "eval_duration": 108089871000 } ``` Un-JSON'ified: ``` The document is the semi-annual report of China World Trade Center Co., Ltd (China GuoTou) for the first half of 2024. Key points include: 1. **Financial Performance**: - Revenue: RMB 1,965,293,521 (up 1.39% YoY) - Net Profit: RMB 687,537,223 (up 5.18% YoY) - Operating Cash Flow: RMB 942,423,094 (down 5.06% YoY) 2. **Core Competitiveness**: - The company operates in the real estate sector and owns a large-scale commercial service complex located in Beijing's Central Business District. - It benefits from brand recognition, prime location, comprehensive services, resources, management expertise, and high-quality customer service. 3. ** ``` So ollama appears to be working as expected. If you add `OLLAMA_DEBUG=1` to your server environment and try again, the resulting logs may indicate where the problem is. My guess is that FastGPT is dumping the raw document into the prompt, but since I didn't get it working, I can't say for sure.
Author
Owner

@goactiongo commented on GitHub (Oct 11, 2024):

Thank you very much for your reply.

Could you please take a look at the ollama log information I sent out before?

It's strange why short texts can be recognized for file content, but long texts cannot be identified.

As AI log shown,FASTGPT first parses the attachment to extract the specific content, then places it in the SYSTEM, and then sends the SYSTEM information and USER commands to the ollama local model for processing.

Strangely,

  1. If the file content is small, the recognition will be successful. But if the file content is large, it cannot be recognized (even if the file content has been successfully recognized in the SYSTEM).
    2.If I used an online public cloud LLM to replace the ollama local model, it can be recognized normally , no matter the size of the file。

Could you please review the ollama logs I sent before to see if any issues?

Let me know if you need further assistance!
THANKS AGAIN

<!-- gh-comment-id:2407883661 --> @goactiongo commented on GitHub (Oct 11, 2024): Thank you very much for your reply. Could you please take a look at the ollama log information I sent out before? It's strange why short texts can be recognized for file content, but long texts cannot be identified. As AI log shown,FASTGPT first parses the attachment to extract the specific content, then places it in the SYSTEM, and then sends the SYSTEM information and USER commands to the ollama local model for processing. Strangely, 1. If the file content is small, the recognition will be successful. But if the file content is large, it cannot be recognized (even if the file content has been successfully recognized in the SYSTEM). 2.If I used an online public cloud LLM to replace the ollama local model, it can be recognized normally , no matter the size of the file。 Could you please review the ollama logs I sent before to see if any issues? Let me know if you need further assistance! THANKS AGAIN
Author
Owner

@rick-github commented on GitHub (Oct 11, 2024):

Your logs don't contain enough information, you removed the actual content that FastGPT is sending to ollama. If you add OLLAMA_DEBUG=1 to your server environment and try again, the resulting logs may indicate where the problem is.

<!-- gh-comment-id:2407894154 --> @rick-github commented on GitHub (Oct 11, 2024): Your logs don't contain enough information, you removed the actual content that FastGPT is sending to ollama. If you add OLLAMA_DEBUG=1 to your server environment and try again, the resulting logs may indicate where the problem is.
Author
Owner

@goactiongo commented on GitHub (Oct 12, 2024):

Thanks. pls review the information as followed (add OLLAMA_DEBUG=1 to my server environment)

image

FastGPT log (to make it easier for you to understand, I have translated some of the Chinese into English)

问题/检索词:( Question/Search Term)
Summarize document content in 20 words.

上下文总长度: Total Context Length
3

最大响应 tokens: Maximum Response Tokens
1900

记录预览(仅展示部分内容): Record Preview (Showing Partial Content)
System
将 <Reference></Reference> 中的内容作为本次对话的参考: (Use the content within <Reference></Reference> as a reference for this conversation:)
<Reference> 
File: 600007.pdf
<Content> 
中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别和连带的法律责任。 二、 公司全体董事出席董事会会议。 三、 公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅,未经审计。 四、 公司负责人黄国祥先生、主管会计工作负责人胡燕敏女士及会计机构负责人贺咏芳女士声明:保证半年度报告中财务报告的真实、准确、完整。 五、 董事会决议通过的本报告期利润分配预案或公积金转增股本预案不适用。 六、 前瞻性陈述的风险声明本报告所涉及的前瞻性陈述,不构成公司对投资者的实质承诺,请投资者注意投资风险。 七、 公司不存在被控股股东及其关联方非经营性占用资金的情况。 八、 公司不存在违反规定决策程序对外提供担保的情况。 九、 公司不存在半数以上董事无法保证公司所披露半年度报告的真实性、准确性和完整性的情况。中国国际贸易中心股份有限公司 2024 年半年度报告2十、 重大风险提示公司已在本报告中详细描述可能存在的相关风险,敬请查阅“第三节管理层讨论与分析”中“五、其他披露事项”中“(一)可能面对的风险”相关内容。中国国际贸易中心股份有限公司 2024 年半年度报告3目 录第一节 释义 .............................................................. 4第二节 公司简介和主要财务指标 ............................................ 4第三节 管理层讨论与分析 .................................................. 8第四节 公司治理 ......................................................... 19第五节 环境与社会责任..... ........................................... ...22第六节 重要事项..... ................................................. ...24第七节 股份变动及股东情况 ............................................... 29第八节 优先股相关情况 ................................................... 32第九节 债券相关情况 ..................................................... 32第十节 财务报告 ......................................................... 39备查文件目录载有���司董事长签名的 2024 年半年度报告正文及其摘要载有公司法定代表人、主管会计工作及会计机构负责人签名并盖章的财务报表载有会计师事务所盖章、注册会计师签名并盖章的审阅报告原件报告期内公开披露过的所有公司文件的正本及公告原稿中国国际贸易中心股份有限公司 2024 年半年度报告第一节 释义一、释义无。 第二节 公司简介和主要财务指标一、 公司信息公司的中文名称 中国国际贸易中心股份有限公司公司的中文简称 中国国贸公司的外文名称 China World Trade Center Co., Ltd. 公司的外文名称缩写 CWTC Co., Ltd. 公司的法定代表人 黄国祥二、 联系人和联系方式董事会秘书 证券事务代表姓名 陈峰 骆洋喆、章侃联系地址 北京市朝阳区建国门外大街 1 号 北京市朝阳区建国门外大街 1 号电话 010-65052288 010-65052288传真 010-65053862 010-65053862电子信箱 [dongmi@cwtc.com](mailto:dongmi@cwtc.com) [dongmi@cwtc.com](mailto:dongmi@cwtc.com)三、 基本情况变更简介公司注册地址 北京市朝阳区建国门外大街 1 号公司办公地址 北京市朝阳区建国门外大街 1 号公司办公地址的邮政编码 100004公司网址 http://www.cwtc.com/电子信箱 [dongmi@cwtc.com](mailto:dongmi@cwtc.com)中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司基本情况未发生变更。 四、 信息披露及备置地点变更情况简介公司选定的信息披露报纸名称 《中国证券报》、《上海证券报》登载半年度报告的网站地址 [www.sse.com.cn](http://www.sse.com.cn/)公司半年度报告备置地点 北京市朝阳区建国门外大街 1 号国贸大厦 A 座29 层董事会办公室五、 公司股票简况股票种类 股票上市交易所 股票简称 股票代码A 股 上海证券交易所 中国国贸 600007六、 公司主要会计数据和财务指标() 主要会计数据金额单位:人民币元主要会计数据 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)营业收入 1,965,293,521 1,938,364,140 1.39%归属于上市公司股东的净利润 687,537,223 653,651,170 5.18%归属于上市公司股东的扣除非经常性损益的净利润674,611,113 647,510,217 4.19%经营活动产生的现金流量净额 942,423,094 992,637,249 -5.06%本报告期末 上年度末 本报告期末比上年度末增减(%)归属于上市公司股东的净资产 9,078,228,256 9,700,158,327 -6.41%总资产 12,167,355,922 12,881,135,035 -5.54%中国国际贸易中心股份有限公司 2024 年半年度报告() 主要财务指标金额单位:人民币元主要财务指标 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)基本每股收益(元/股) 0.68 0.65 5.18%稀释每股收益(元/股) 0.68 0.65 5.18%扣除非经常性损益后的基本每股收益(元/股)0.67 0.64 4.19%加权平均净资产收益率(%) 7.16% 7.08% 0.08%扣除非经常性损益后的加权平均净资产收益率(%)7.02% 7.01% 0.01%七、 境内外会计准则下会计数据差异不适用。 八、 非经常性损益项目和金额金额单位:人民币元非经常性损益项目 金额保险理赔收入 16,272,954租户违约罚款收入 1,282,587政府补助 469,524处置非流动资产净损失 -815,142赞助捐赠支出 -88,000不需支付的应付款项 104,714除上述各项之外的其他营业外收入和支出 15,448所得税影响额 -4,310,521少数股东权益影响额(税后) -5,454合计 12,926,110中国国际贸易中心股份有限公司 2024 年半年度报告对公司将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》未列举的项目认定为的非经常性损益项目且金额重大的,以及将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》中列举的非经常性损益项目界定为经常性损益的项目,应说明原因不适用。中国国际贸易中心股���有限公司 2024 年半年度报告第三节 管理层讨论与分析一、 报告期内公司所属行业及主营业务情况说明报告期内,公司主要从事写字楼、商城、公寓等投资性物业的出租和管理以及酒店经营等。 公司除所拥有的酒店委托香格里拉国际饭店管理有限公司(以下简称“香格里拉”)进行管理和经营外,其他主营业务均由公司自行进行管理和经营。 根据原国家质量监督检验检疫总局和国家标准化管理委员会于 2017 年批准发布的国家标准《国民经济行业分类》(GB/T4754-2017),公司属于“房地产业”。公司的营业收入主要来源于写字楼、商城、公寓等投资性物业的出租和管理以及酒店的经营;公司的经营规模、硬件设施、管理和服务、市场地位等,在业内一直处于领先水平。 二、 报告期内核心竞争力分析公司和控股股东中国国际贸易中心有限公司(以下简称“国贸有限公司”)拥有的中国国际贸易中心(以下简称“国贸中心”)主体建筑群位于寸土寸金的北京中央商务区的核心地段,由写字楼、商城、酒店和公寓等高档商业建筑组成,是目前中国乃至全球规模最大、功能最齐全的高档商务服务综合体之一。 长期以来,公司凭借多年形成的品牌、区位、综合、资源、管理、服务等各方面优势,在市场上处于领先地位。 报告期内,公司的核心竞争力未发生重大变化。公司核心竞争力的有关情况除国贸大酒店原家全七福餐厅区域已于上年经调整后重新对外出租,滩万日餐厅及红馆面档已关闭并为新租户进行租区改造外,其他内容详见公司 2021 年半年度报告“第三节管理层讨论与分析”中“报告期内核心竞争力分析”。 202312 月,公司国贸大厦 A 座及国贸公寓获得 WELL 铂金级认证。至此,国贸大厦 A 座成为同时获得 LEED 铂金级和 WELL 铂金级双认证的写字楼建筑。公司将持续践行可持续发展的运营理念,不断提升租户和员工的健康、舒适及幸福感。中国国际贸易中心股份有限公司 2024 年半年度报告三、 经营情况的讨论与分析2024 年上半年,北京写字楼市场新增需求仍显疲弱,租金水平持续承压;商业物业市场分化加剧;服务式公寓市场和酒店业表现相对平稳。 上半年,写字楼市场新增供应较小,但由于需求依旧疲弱,“以价换量”成为市场主流策略,导致平均租金水平进一步下降。尽管二季度净吸纳量环比有所改善,但市场总体空置率仍处于高位。面对不确定的宏观经济环境和外部形势,不少企业保持观望态度,降本增效是其主要策略,新租扩租需求依旧不足。随着下半年预计新增供应的增加,市场去化压力较大,租金水平仍将继续承压。 商业物业市场租金总体保持平稳,空置率略有下降,但受消费复苏放缓的影响,市场分化加剧。承租需求方面,高端零售销售额同比下降,面对“消费降级”的趋势,高端品牌的扩张更趋于谨慎;定位大众市场的零售和餐饮成为短期内市场需求的主力。项目方面,出租率稳定、客群品质较高、对零售品牌吸引力较大的项目的租金相对稳定;品牌调整或升级改造较多的项目,租金灵活度加大。客流方面,“假期效应”显著,公共节假日客流同比有明显增长。 服务式公寓市场需求在经历 2023 年的集中释放后趋于平稳,出租率和租金总体较为稳定。但受宏观经济增长放缓和未来不确定性增加的影响,客户预算受限,导致行业竞争加剧,较多高端公寓采用灵活的租金和佣金政策以挖掘和吸引客户。 酒店业经营总体稳定。受益于国际需求的恢复、大型会展举办数量的增长和较低水平的新增供应,高端酒店的市场表现较为积极,入���率保持较高水平,但同时也面临着企业预算削减和消费降级现象带来的挑战。 展望下半年,我国宏观经济面临国内有效需求不足、经济运行分化以及外部环境不利影响增多的严峻形势与挑战。经济增长和消费复苏趋缓、外部需求减弱,将会对北京投资性物业租赁市场,尤其是写字楼和商业物业市场造成一定的不利影响。公司将密切关注不断变化的市场形势和政策趋势,尤其是政府关于促进消费和推进高水平对外开放的具体政策,采取更加积极开放的经营策略,对标国际先进标准,改善营商环境和服务水准,持续控本增效,争取完成全年经营目标。 报告期内,公司通过准确研判市场形势,及时把握市场机遇,采取积极灵活的经营举措并不断提升精细化管理水平,取得了良好的经营业绩。 报告期内,公司实现营业收入 19.7 亿元,比上年同期增加 0.3 亿元或 1.4%;成本费用 8.7 亿元,比上年同期减少 0.2 亿元或 2.1%;实现利润总额 9.2 亿元,比上年同期中国国际贸易中心股份有限公司 2024 年半年度报告增加 0.5 亿元或 5.4%。扣除非经常性损益后,公司实现利润总额 9.0 亿元,比上年同期增加 0.4 亿元或 4.4%。 () 报告期内公司经营情况的重大变化,以及报告期内发生的对公司经营情况有重大影响和预计未来会有重大影响的事项不适用。 四、 报告期内主要经营情况() 主营业务分析1、 财务报表相关科目变动分析表金额单位:人民币元科目 本期金额上年同期金额本期金额较上年同期增加额变动比例(%)营业收入 1,965,293,521 1,938,364,140 26,929,381 1.39%营业成本 768,803,721 770,020,879 -1,217,158 -0.16%销售费用 36,815,698 39,389,145 -2,573,447 -6.53%管理费用 60,039,827 57,774,196 2,265,631 3.92%财务费用 7,651,091 24,979,965 -17,328,874 -69.37%经营活动产生的现金流量净额 942,423,094 992,637,249 -50,214,155 -5.06%投资活动产生的现金流量净额 -24,310,132 -28,732,557 4,422,425 -15.39%筹资活动产生的现金流量净额 -1,382,395,262 -739,567,213 -642,828,049 86.92%金额单位:人民币元分行业 营业收入 营业成本 毛利率(%)营业收入比上年增减(%)营业成本比上年增减(%)毛利率比上年增减(%)物 业 租 赁及管理 1,709,030,499 533,033,970 68.81% 2.56% 2.80% -0.07%酒店经营 256,263,022 235,769,751 8.00% -5.77% -6.25% 0.47%中国国际贸易中心股份有限公司 2024 年半年度报告(1) 营业收入金额单位:人民币元收入构成项目本期金额占公司主营业务收入比例(%)上年同期金额占公司主营业务收入比例(%)本期金额较上年同期增加额写字楼 767,833,698 39.07% 782,207,780 40.35% -14,374,082商城 656,129,706 33.39% 626,735,904 32.33% 29,393,802公寓 93,980,579 4.78% 87,972,227 4.54% 6,008,352酒店 256,263,022 13.04% 271,961,862 14.03% -15,698,840其他(注) 191,086,516 9.72% 169,486,367 8.75% 21,600,149合计 1,965,293,521 100% 1,938,364,140 100% 26,929,381注:其他收入主要是停车场收入,以及财务报表合并范围内公司子公司的营业收入。 报告期内,公司主要投资性物业平均租金和出租率情况如下:金额单位:人民币元期末可出租面积(m²)平均租金(元/平方米/月)平均出租率(%)本报告期上年同期 增减 本报告期上年同期 增减A B A-B C D C-D写字楼一期 47,711 586 570 16 87.9% 91.9% -4.0%二期 33,587 575 534 41 98.7% 98.3% 0.4%三期 A 82,057 685 683 2 91.7% 97.3% -5.6%三期 B 42,733 725 736 -11 96.2% 96.6% -0.4%合计 206,088 648 637 11 93.2% 96.2% -3.0%中国国际贸易中心股份有限公司 2024 年半年度报告商城一期 15,353 2,037 1,980 57 100% 99.7% 0.3%二期 5,874 1,194 1,121 73 98.2% 100% -1.8%三期 A 18,086 712 618 94 92.7% 98.3% -5.6%三期 B 26,142 798 736 62 98.1% 98.4% -0.3%东楼 13,675 2,481 2,359 122 95.7% 98.0% -2.3%合计 79,130 1,341 1,257 84 96.9% 98.8% -1.9%公寓 46,734 368 371 -3 88.8% 82.1% 6.7%注:1、平均租金中包含租金和物业管理费。 2、一期写字楼、三期 A 写字楼出租率同比下降,主要是因有租户租约到期,相关区域正在招租。 3、三期 A 商城出租率同比下降,主要是因有租户租约到期及提前解约,相关区域正在招租。 4、三期 A 商城平均租金同比上升,主要是去年二季度的平均租金基数较低。 (2) 营业成本报告期内,公司营业成本 7.7 亿元,比上年同期减少 0.01 亿元或 0.16%,具体构成情况如下:金额单位:人民币元成本构成项目本期金额本期金额占总成本比例(%)上年同期金额上年同期金额占总成本比例(%)本期金额较上年同期变动比例(%)折旧摊销 224,694,464 29.23% 231,406,613 30.05% -2.90%员工成本 189,323,955 24.63% 194,499,187 25.26% -2.66%能源费 55,875,548 7.27% 52,512,615 6.82% 6.40%维修保养 52,877,982 6.88% 52,779,624 6.85% 0.19%其他(注) 246,031,772 31.99% 238,822,840 31.02% 3.02%合计 768,803,721 100% 770,020,879 100% -0.16%中国国际贸易中心股份有限公司 2024 年半年度报告注:其他费用包括劳务费、清洁费、酒店营业成本及保安费等。 (3) 费用报告期内,公司的管理费用和销售费用与上年同期相比变动幅度低于 30%;财务费用与上年同期相比减少 69.37%,主要是银行存款利息收入增加,以及因长期借款本金减少,利息费用相应降低。 (4) 现金流公司现金流量的构成情况详见本报告所附财务报表。 经营活动产生的现金流量中收到其他与经营活动有关的现金增加,主要是收到 2022年度营业中断保险赔偿 1,619 万元。 投资活动产生的现金流量中取得投资收益所收到的现金增加,主要是收到联营企业派发的现金股利。 筹资活动产生的现金流量中偿还债务支付的现金增加,主要是偿还了银行长期借款本金 5,000 万元。 筹资活动产生的现金流量中分配股利、利润或偿付利息支付的现金增加,主要是分配股利支付的现金增加。 2、 本期公司业务类型、利润构成或利润来源发生重大变动的详细说明不适用。 () 非主营业务导致利润重大变化的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告() 资产、负债情况分析1、资产及负债状况金额单位:人民币元项目名称 本期期末数本期期末数占总资产的比例(%)上年年末数上年年末数占总资产的比例(%)本 期 期 末金 额 较 上年 年 末 变动比例(%)货币资金 3,612,151,002 29.69% 4,088,660,385 31.74% -11.65%应收账款 250,165,292 2.06% 258,206,405 2.00% -3.11%预付款项(注①) 22,439,141 0.18% 34,928,835 0.27% -35.76%存货 31,960,550 0.26% 32,289,866 0.25% -1.02%长期股权投资 26,719,203 0.22% 29,422,110 0.23% -9.19%投资性房地产 6,125,467,772 50.34% 6,276,416,500 48.73% -2.41%固定资产 1,428,924,156 11.74% 1,473,897,131 11.44% -3.05%使用权资产 36,842,123 0.30% 38,643,777 0.30% -4.66%其他流动资产(注②) 190,053 0.002% 287,762 0.002% -33.95%合同负债 62,454,004 0.51% 57,757,548 0.45% 8.13%应付职工薪酬(注③) 69,082,880 0.57% 130,561,942 1.01% -47.09%长期借款 1,085,000,000 8.92% 1,085,000,000 8.42% 0租赁负债 37,891,647 0.31% 37,795,541 0.29% 0.25%注:① 预付款项减少,主要是预付的供暖季采暖费摊销计入当期费用。 ② 其他流动资产减少,主要是增值税待抵扣进项税减少。 ③ 应付职工薪酬减少,主要是期初数中包含的应付 2023 年度员工花红已于 2024年一季度支付。中国国际贸易中心股份有限公司 2024 年半年度报告2、 境外资产情况不适用。 3、 截至报告期末主要资产受限情况(1) 资产抵押和质押情况根据公司经营及发展需要,公司于 2020619 日召开的 2019 年年度股东大会,同意公司以国贸三期 A 阶段项目部分房产及相应的土地使用权作为抵押担保,向中国建设银行股份有限公司北京华贸支行申请 21.6 亿元人民币商用物业抵押借款,借款期限为 15 年,用于置换 13.8 亿元人民币国贸三期 A 阶段项目建设借款余额和 7.8 亿元人民币国贸三期 B 阶段项目建设借款余额(详见公司 2020 年半年度报告“第四节经营情况的讨论与分析”中“资产抵押和质押情况”)。 202085 日,公司就此与中国建设银行股份有限公司北京华贸支行签署《人民币资金借款合同》及《抵押合同》,借款合同金额 21.55 亿元人民币(上述 21.6 亿元人民币减去签署该借款合同前归还 500 万元人民币),借款期限为 202085 日至 2035年 84 日。 公司已取得商用物业抵押借款 21.55 亿元人民币,全部偿还了原国贸三期 A 阶段和国贸三期 B 阶段项目建设借款,注销了原有的此两个项目借款的资产抵押担保,完成了商用物业抵押借款的相关资产抵押登记工作,抵押物清单如下:抵押物名称 权属证书 座落 抵押面积(m2)朝 阳 区 建 国门 外 大 街 1号院 1 号楼X 京房权证朝字第 982670 号朝阳区建国门外大街1 号院 1 号楼 189,176.39京朝国用(2014 出)第 00225 号 - -截至报告期末,上述银行长期借款余额减少为 10.85 亿元。 (2) 受限资金截至报告期末,公司银行存款中受限资金余额为 1.3 亿元,为物业管理项目代管资金(见本报告所附财务报表附注)。中国国际贸易中心股份有限公司 2024 年半年度报告() 房地产行业经营性信息分析1、 报告期内房地产储备情况不适用。 2、 报告期内房地产开发投资情况不适用。 3、 报告期内房地产销售情况不适用。 4、 报告期内房地产出租情况金额单位:人民币元地区 项目 经营业态出租房地产的建筑面积(平方米)出租房地产的租金收入权益比例(%)是否采用公允价值计量模式租金收入/房地产公允价值(%)北京中国国际贸易中心写字楼 356,248 750,385,115100% 否 -商城 180,460 622,245,713公寓 80,124 93,296,8525、 报告期内公司财务融资情况报告期末,公司各类融资途径的融资余额、融资成本如下:金额单位:人民币元期末融资余额 利率(1)长期借款中国建设银行股份有限公司北京华贸支行 1,085,000,000 3.90%(2)公司债券“19 国贸 01”公司债券 440,000,000 2.90%中国国际贸易中心股份有限公司 2024 年半年度报告金额单位:人民币元期末融资总额 整体平 ...[hide 64197 chars]... 产种类2024 年 16 月确认的租赁收入2023 年 16 月确认的租赁收入国贸有限公司 办公用房 2,266,221 2,444,709国贸有限公司 商铺 541,000 534,710香格里拉北京 办公用房 1,685,332 1,274,428本集团作为承租方:出租方名称 租赁资产种类2024 年 16 月确认的租赁费2023 年 16 月确认的租赁费国贸有限公司 公寓 794,109 941,775国贸有限公司 办公用房 152,163 152,163中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易()5 关联交易()(2) 租赁()202416 月,本集团作为承租方不存在新增的使用权资产。 本集团作为承租方当年承担的租赁负债利息支出:2024 年 16202316 月国贸有限公司 787,784 854,089(3) 根据本公司与国贸有限公司于 199892 日所签订的《商标使用许可协议》,国贸有限公司允许本公司无偿使用其拥有的商标,许可期限为 6 年,从协议生效日起至 200491 日止。根据协议条款,协议届满前由于双方对该协议条款和条件没有异议,该协议将自动延续。 (4) 关键管理人员薪酬2024 年 16202316 月关键管理人员薪酬 16,539,572 15,120,357中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易()6 关联方应付款项余额其他应付款 202463020231231 日国贸有限公司 4,902,588 262,588香格里拉 3,129,279 3,002,170香格里拉北京 830,844 830,844合计 8,862,711 4,095,602租赁负债(附注四.24)(含一年内到期的非流动负债) 202463020231231 日国贸有限公司 40,487,291 40,903,391八 承诺事项1 资本性支出承诺事项以下为本集团于资产负债表日,已签约而尚不必在资产负债表上列示的资本性支出承诺:2024 年 63020231231 日房屋、建筑物及机器设备的购建 27,953,795 28,812,961中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)九 资产负债表日后经营租赁收款额本集团作为出租人,资产负债表日后应收的租赁收款额的未折现金额汇总如下:2024 年 63020231231 日一年以内 2,205,063,708 2,108,504,018一到二年 1,422,131,426 1,417,492,014二到三年 845,519,655 909,124,526三年以上 1,966,886,403 2,112,166,147合计 6,439,601,192 6,547,286,705十 金融风险本集团经营活动中面临的金融风险包括:市场风险(主要为外汇风险和利率风险)、信用风险和流动性风险。本集团整体的风险管理计划针对金融市场的不可预见性,力求减少对本集团财务业绩的潜在不利影响。 1 市场风险(1) 外汇风险本集团的经营位于中国境内,业务主要以人民币结算。本集团已确认的外币资产和负债及未来的外币交易(外币资产和负债及外币交易的计价货币主要为美元)存在外汇风险。本集团总部财务部门负责监控集团外币交易和外币资产及负债的规模,以最大程度降低面临的外汇风险。截至 20246306 个月期间及截至 20236306 个月期间,本集团未签署任何远期外汇合约或货币互换合约。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十 金融风险()1 市场风险()(1) 外汇风险()2024630 日及 20231231 日,本集团内记账本位币为人民币的公司持有的外币金融资产和外币金融负债折算成人民币的金额列示如下:2024 年 630 日美元项目 其他外币项目 合计外币金融资产-货币资金 5,154,316 2,467 5,156,783外币金融负债 -其他应付款 5,718,808 750,197 6,469,0052023 年 1231 日美元项目 其他外币项目 合计外币金融资产-货币资金 4,773,527 2,531 4,776,058外币金融负债 -其他应付款 5,772,153 755,935 6,528,0882024 年 630 日,对于本集团各类美元金融资产和美元金融负债,如果人民币对美元升值或贬值 10%,其他因素保持不变,则本集团将增加或减少净利润约42,337 元(20231231 日:增加或减少净利润约 74,897 元)(2) 利率风险本集团的利率风险主要产生于长期银行借款及应付债券等长期带息债务。浮动利率的金融负债使本集团面临现金流量支出增加的利率风险,固定利率的金融负债使本集团面临公允价值降低的利率风险。本集团一般根据市场环境决定固定利率及浮动利率合同的相对比例。2024 年 630 日,本集团长期带息债务主要为人民币计价挂钩的 LPR 的浮动利率借款,金额为 1,085,000,000 元以及以人民币计价的固定利率债券,金额为 440,000,000 元(20231231 日:分别为1,135,000,000 元及 440,000,000 元)(附注四.23、22)。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十 金融风险()1 市场风险()(2) 利率风险()由于利率上升会增加新增带息债务的成本以及本集团尚未付清的以浮动利率计息的带息债务的利息支出,并对本集团的财务业绩产生重大的不利影响,本集团会持续监控集团利率水平,并依据最新的市场状况及时做出调整,这些调整可能是进行利率互换的安排来降低利率风险。截至 20246306 个月期间及截至 20236306 个月期间本集团无利率互换安排。 2024630 日,如果以浮动利率计算的借款利率上升或下降 50 个基点,而其他因素保持不变,本集团的净利润会减少或增加约 4,068,750 元(2023 年 12月 31 日:约 4,256,250 元)2 信用风险本集团信用风险主要产生于货币资金、应收账款及其他应收款等。于资产负债表日,本集团金融资产的账面价值已代表其最大信用风险敞口。 本集团银行存款主要存放于国有银行和其他大中型商业银行,本集团认为其不存在重大的信用风险,不会产生因对方单位违约而导致的任何重大损失。 此外,对于应收账款及其他应收款等,本集团设定相关政策以控制信用风险敞口。本集团基于对客户的财务状况、从第三方获取担保的可能性、信用记录及其他因素诸如目前市场状况等评估客户的信用资质并设置相应信用期。本集团会定期对客户信用记录进行监控,对于信用记录不良的客户,本集团会采用书面催款、缩短信用期或取消信用期等方式,以确保本集团的整体信用风险在可控的范围内。 2024630 日,本集团无重大的因债务人抵押而持有的担保物和其他信用增级(20231231 日:无)3 流动性风险本集团内子公司负责其自身的现金流量预测。总部财务部门在汇总子公司现金流量预测的基础上,在集团层面持续监控短期和长期的资金需求,以确保维持充裕的现金储备和可供随时变现的有价证券;同时持续监控是否符合借款协议的规定,并从主要金融机构获得提供足够备用资金的承诺,以满足短期和长期的资金需求。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十 金融风险()3 流动性风险()资产负债表日,本集团的金融负债以未折现的合同现金流量按到期日列示如下:2024 年 630 日一年以内 一到二年 二到五年 五年以上 合计应付账款 92,747,360 - - - 92,747,360其他应付款 1,112,682,011 - - - 1,112,682,011长期借款 42,315,000 42,315,000 126,945,000 1,342,416,250 1,553,991,250应付债券 452,760,000 - - - 452,760,000租赁负债 4,127,787 3,572,154 10,716,462 32,744,745 51,161,148合计 1,704,632,158 45,887,154 137,661,462 1,375,160,995 3,263,341,7692023 年 1231 日一年以内 一到二年 二到五年 五年以上 合计应付账款 96,988,767 - - - 96,988,767其他应付款 1,130,882,781 - - - 1,130,882,781长期借款 94,265,000 44,265,000 132,795,000 1,376,411,250 1,647,736,250应付债券 452,760,003 - - - 452,760,003租赁负债 4,683,419 3,572,154 10,716,462 34,530,822 53,502,857合计 1,779,579,970 47,837,154 143,511,462 1,410,942,072 3,381,870,6584 公允价值估计本集团不以公允价值计量的金融资产和金融负债主要包括应收款项、其他应收款、应付款项、租赁负债、长期借款及应付债券。上述不以公允价值计量的金融资产和负债的账面价值与公允价值相差不大。 本集团发行的不存在活跃市场的应付债券,以合同规定的未来现金流量按照市场上具有可比信用等级并在相同条件下提供几乎相同现金流量的利率进行折现后的现值确定其公允价值。 十一 资本管理本集团资本管理政策的目标是为了保障本集团能够持续经营,从而为股东提供回报,并使其他利益相关者获益,同时维持最佳的资本结构以降低资本成本。 本集团的总资本为合并资产负债表中所列示的股东权益。本集团不受制于外部强制性资本要求,利用资产负债率监控资本。 2024630 日及 20231231 日,本集团的资产负债率列示如下﹕2024 年 63020231231 日资产负债率 25% 25%中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注1 应收账款2024 年 63020231231 日应收账款 176,484,064 191,180,966减:坏账准备 (941,049) (941,049)净额 175,543,015 190,239,917(1) 应收账款账龄分析如下:2024 年 63020231231 日一年以内 175,543,015 190,239,917一到二年 - -二到三年 - -三年以上 941,049 941,049合计 176,484,064 191,180,966(2) 2024630 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额 坏账准备金额占应收账款总额比例余额前五名的应收账款总额 6,774,614 - 3.84%(3) 坏账准备本公司对于应收账款,无论是否存在重大融资成分,均按照整个存续期的预期信用损失计量损失准备。 应收账款的坏账准备按类别分析如下:2024 年 63020231231 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 941,049 0.53% (941,049) 100.00% 941,049 0.49% (941,049) 100.00%按组合计提坏账准备(b) 175,543,015 99.47% - - 190,239,917 99.51% - -176,484,064 100.00% (941,049) 0.53% 191,180,966 100.00% (941,049) 0.49%中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()1 应收账款()(3) 坏账准备()(a) 2024630 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100% (941,049)(i) 2024630 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(20231231 日:941,049 元)(b) 2024630 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 63020231231 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,313,622 - - 17,126,232 - -逾期 90-180 日 640,991 - - 680,303 - -逾期 180-365 天 147,429 - - - - -合计 160,351,161 - 172,497,625 -组合 —应收酒店服务款:2024 年 63020231231 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -(4) 本期间无计提、收回或转回的坏账准备。 (5) 本期间本公司无实际核销的应收账款(202316 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()2 其他应收款2024 年 63020231231 日应收代垫款项 2,048,578 4,312,402应收备用金 806,282 -应收押金和保证金 687,580 761,880应收其他款项 925,074 918,948合计 4,467,514 5,993,230减:坏账准备 - -净额 4,467,514 5,993,230本公司不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。 (1) 其他应收款账龄分析如下:2024 年 63020231231 日一年以内 3,323,427 4,776,054一到二年 4,911 278,000二到三年 200,000 14,652三年以上(附注四 4(1)) 939,176 924,524合计 4,467,514 5,993,230(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 63020231231 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 4,467,514 100% - - 5,993,230 100% - -中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()2 其他应收款()(2) 损失准备及其账面余额变动表()2024630 日及 20231231 日,本公司不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 63020231231 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例代垫款:一年以内 2,048,578 - - 4,312,402 - -备用金:一年以内 806,282 - - - - -押金和保证金:一年以内 687,580 - - 761,880 - -其他款项:一年以内 925,074 - - 918,948 - -合计 4,467,514 - - 5,993,230 - -(3) 2024630 日,按欠款方归集的余额前五名的其他应收款汇总分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 15.39% -第二名 应收其他款 622,224 三年以上 13.93% -第三名 应收代垫款 434,569 一年以内 9.73% -第四名 应收押金 399,642 一年以内 8.94% -第五名 应收代垫款 389,156 一年以内 8.71% -合计 2,533,146 56.70% -(4) 本期间无计提、收回或转回的坏账准备。 (5) 本期间本公司无实际核销的其他应收账款(202316 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()3 长期股权投资2024 年 63020231231 日子公司(1) 9,500,000 9,500,000联营企业(附注五.2) 20,891,146 26,045,395减:长期股权投资减值准备 - -净额 30,391,146 35,545,395本公司不存在长期投资变现的重大限制。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)- 77 -十二 公司财务报表附注()3 长期股权投资()(1) 子公司2023 年12 月 31 日 追加或减少投资2024 年6 月 30 日持股比例表决权比例 减值准备本期计提减值准备本期宣告分派的现金股利国贸物业酒店管理有限公司 9,500,000 - 9,500,000 95% 95% - - -中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()4 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 16202316 月主营业务收入 1,809,562,667 1,804,419,444主营业务成本 623,801,568 642,110,612本公司主要业务为对外提供物业租赁服务及酒店经营,与上述业务相关的收入均来自北京。因此本公司无需按产品或按地区对于主营业务收入和主营业务成本进行分析。 (2) 按收入类型分析如下:2024 年 16202316 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,553,056,071 388,026,407 1,532,157,678 390,612,610酒店经营 256,506,596 235,775,161 272,261,766 251,498,002合计 1,809,562,667 623,801,568 1,804,419,444 642,110,612本公司营业收入分解如下:2024 年 16202316 月主营业务收入租赁业务 1,357,967,900 1,339,088,484按时点确认其中:酒店餐饮业务 97,252,896 115,775,980按时段内确认其中:物业管理服务 195,088,171 193,069,194酒店客房及其他配套服务 159,253,700 156,485,7861,809,562,667 1,804,419,444包括在 20231231 日账面价值中的 28,260,639 元合同负债已于 2024 年 1至 6 月转入营业收入(202316 月:49,743,804 元)。中国国际贸易中心股份有限公司财务报表附注截至 20246306 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注()5 投资收益2024 年 16202316 月权益法核算的长期股权投资收益 725,751 1,549,010处置长期股权投资产生的投资损失 - (9,684,300)合计 725,751 (8,135,290)本公司不存在投资收益汇回的重大限制。中国国际贸易中心股份有限公司财务报表补充资料截至 20246306 个月期间(除特别注明外,金额单位为人民币元)202416 月非经常性损益明细表2024 年 16202316 月保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749不需支付的应付款项 104,714 1,630,126处置非流动资产净损失 (815,142) (1,438,618)赞助捐赠支出 (88,000) (273,000)除上述各项之外的其他营业外收入和支出 15,448 (32,119)非经常性损益合计 17,242,085 8,192,199所得税影响额 (4,310,521) (2,048,050)少数股东权益影响额(税后) (5,454) (3,196)非经常性损益净额 12,926,110 6,140,953(1) 202416 月非经常性损益明细表编制基础:中国证券监督管理委员会于 2023 年颁布了《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益(2023 年修订)(以下简称“2023 版 1 号解释性公告”),该规定自公布之日起施行。本集团按照 20231 号解释性公告的规定编制2024 年 16 月非经常性损益明细表。 根据 20231 号解释性公告的规定,非经常性损益是指与公司正常经营业务无直接关系,以及虽与正常经营业务相关,但由于其性质特殊和偶发性,影响报表使用人对公司经营业绩和盈利能力作出正确判断的各项交易和事项产生的损益。 二 净资产收益率及每股收益加权平均 每股收益净资产收益率(%) 基本每股收益 稀释每股收益2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64 
</Content> 
</Reference>
Human
Summarize document content in 20 words.
AI
Please provide the document for me to summarize its content in 20 words.

ollama log


(base) [root@gpu ~]# export OLLAMA_DEBUG=1
(base) [root@gpu ~]# echo $OLLAMA_DEBUG
1
(base) [root@gpu ~]# journalctl -u ollama -f
-- Logs begin at 一 2024-09-02 03:24:01 CST. --
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model:      CUDA0 compute buffer size =  2659.51 MiB
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model:      CUDA1 compute buffer size =  2659.51 MiB
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model:      CUDA2 compute buffer size =  2659.51 MiB
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model:      CUDA3 compute buffer size =  2659.52 MiB
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model:  CUDA_Host compute buffer size =   244.52 MiB
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: graph nodes  = 2246
10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: graph splits = 5
10月 12 10:44:17 gpu ollama[63910]: INFO [main] model loaded | tid="140178949206016" timestamp=1728701057
10月 12 10:44:17 gpu ollama[63910]: time=2024-10-12T10:44:17.881+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.63 seconds"
10月 12 10:44:19 gpu ollama[63910]: [GIN] 2024/10/12 - 10:44:19 | 200 | 10.384866476s |     172.22.1.39 | POST     "/api/chat"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.329+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 library=cuda parallel=1 required="40.6 GiB"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.330+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="110.4 GiB" free_swap="3.7 GiB"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.334+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=65 layers.offload=65 layers.split=17,17,16,15 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="40.6 GiB" memory.required.partial="40.6 GiB" memory.required.kv="7.3 GiB" memory.required.allocations="[10.4 GiB 10.6 GiB 10.0 GiB 9.6 GiB]" memory.weights.total="24.8 GiB" memory.weights.repeating="24.2 GiB" memory.weights.nonrepeating="609.1 MiB" memory.graph.full="2.9 GiB" memory.graph.partial="2.9 GiB"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.345+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama737504217/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,17,16,15 --port 46810"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding"
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 12 10:50:36 gpu ollama[63910]: INFO [main] build info | build=10 commit="9225b05" tid="139894521270272" timestamp=1728701436
10月 12 10:50:36 gpu ollama[63910]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="139894521270272" timestamp=1728701436 total_threads=64
10月 12 10:50:36 gpu ollama[63910]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="46810" tid="139894521270272" timestamp=1728701436
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (latest))
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   0:                       general.architecture str              = qwen2
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   1:                               general.type str              = model
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   2:                               general.name str              = Qwen2.5 32B Instruct
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   3:                           general.finetune str              = Instruct
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   4:                           general.basename str              = Qwen2.5
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   5:                         general.size_label str              = 32B
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   6:                            general.license str              = apache-2.0
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   7:                       general.license.link str              = https://huggingface.co/Qwen/Qwen2.5-3...
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   8:                   general.base_model.count u32              = 1
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv   9:                  general.base_model.0.name str              = Qwen2.5 32B
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  10:          general.base_model.0.organization str              = Qwen
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  11:              general.base_model.0.repo_url str              = https://huggingface.co/Qwen/Qwen2.5-32B
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  12:                               general.tags arr[str,2]       = ["chat", "text-generation"]
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  13:                          general.languages arr[str,1]       = ["en"]
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  14:                          qwen2.block_count u32              = 64
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  15:                       qwen2.context_length u32              = 32768
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  16:                     qwen2.embedding_length u32              = 5120
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  17:                  qwen2.feed_forward_length u32              = 27648
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  18:                 qwen2.attention.head_count u32              = 40
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  19:              qwen2.attention.head_count_kv u32              = 8
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  20:                       qwen2.rope.freq_base f32              = 1000000.000000
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  21:     qwen2.attention.layer_norm_rms_epsilon f32              = 0.000001
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  22:                          general.file_type u32              = 15
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  23:                       tokenizer.ggml.model str              = gpt2
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  24:                         tokenizer.ggml.pre str              = qwen2
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  25:                      tokenizer.ggml.tokens arr[str,152064]  = ["!", "\"", "#", "$", "%", "&", "'", ...
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  26:                  tokenizer.ggml.token_type arr[i32,152064]  = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ...
10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.598+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  27:                      tokenizer.ggml.merges arr[str,151387]  = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",...
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  28:                tokenizer.ggml.eos_token_id u32              = 151645
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  29:            tokenizer.ggml.padding_token_id u32              = 151643
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  30:                tokenizer.ggml.bos_token_id u32              = 151643
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  31:               tokenizer.ggml.add_bos_token bool             = false
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  32:                    tokenizer.chat_template str              = {%- if tools %}\n    {{- '<|im_start|>...
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv  33:               general.quantization_version u32              = 2
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type  f32:  321 tensors
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type q4_K:  385 tensors
10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type q6_K:   65 tensors
10月 12 10:50:36 gpu ollama[63910]: llm_load_vocab: special tokens cache size = 22
10月 12 10:50:37 gpu ollama[63910]: llm_load_vocab: token to piece cache size = 0.9310 MB
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: format           = GGUF V3 (latest)
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: arch             = qwen2
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: vocab type       = BPE
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_vocab          = 152064
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_merges         = 151387
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: vocab_only       = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ctx_train      = 32768
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd           = 5120
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_layer          = 64
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_head           = 40
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_head_kv        = 8
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_rot            = 128
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_swa            = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_head_k    = 128
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_head_v    = 128
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_gqa            = 5
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_k_gqa     = 1024
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_v_gqa     = 1024
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_norm_eps       = 0.0e+00
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_norm_rms_eps   = 1.0e-06
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_clamp_kqv      = 0.0e+00
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_logit_scale    = 0.0e+00
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ff             = 27648
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_expert         = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_expert_used    = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: causal attn      = 1
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: pooling type     = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope type        = 2
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope scaling     = linear
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: freq_base_train  = 1000000.0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: freq_scale_train = 1
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ctx_orig_yarn  = 32768
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope_finetuned   = unknown
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_conv       = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_inner      = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_state      = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_dt_rank      = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_dt_b_c_rms   = 0
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model type       = ?B
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model ftype      = Q4_K - Medium
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model params     = 32.76 B
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model size       = 18.48 GiB (4.85 BPW)
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: general.name     = Qwen2.5 32B Instruct
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: BOS token        = 151643 '<|endoftext|>'
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: EOS token        = 151645 '<|im_end|>'
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: PAD token        = 151643 '<|endoftext|>'
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: LF token         = 148848 'ÄĬ'
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: EOT token        = 151645 '<|im_end|>'
10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: max token length = 256
10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ:    no
10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no
10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: found 4 CUDA devices:
10月 12 10:50:37 gpu ollama[63910]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes
10月 12 10:50:37 gpu ollama[63910]: Device 1: NVIDIA A30, compute capability 8.0, VMM: yes
10月 12 10:50:37 gpu ollama[63910]: Device 2: NVIDIA A30, compute capability 8.0, VMM: yes
10月 12 10:50:37 gpu ollama[63910]: Device 3: NVIDIA A30, compute capability 8.0, VMM: yes
10月 12 10:50:37 gpu ollama[63910]: llm_load_tensors: ggml ctx size =    1.69 MiB
10月 12 10:50:38 gpu ollama[63910]: time=2024-10-12T10:50:38.054+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding"
10月 12 10:50:40 gpu ollama[63910]: time=2024-10-12T10:50:40.115+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model"
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloading 64 repeating layers to GPU
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloading non-repeating layers to GPU
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloaded 65/65 layers to GPU
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors:        CPU buffer size =   417.66 MiB
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors:      CUDA0 buffer size =  4844.72 MiB
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors:      CUDA1 buffer size =  4628.16 MiB
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors:      CUDA2 buffer size =  4402.62 MiB
10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors:      CUDA3 buffer size =  4632.84 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_ctx      = 30016
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_batch    = 512
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_ubatch   = 512
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: flash_attn = 0
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: freq_base  = 1000000.0
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: freq_scale = 1
10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init:      CUDA0 KV buffer size =  1993.25 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init:      CUDA1 KV buffer size =  1993.25 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init:      CUDA2 KV buffer size =  1876.00 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init:      CUDA3 KV buffer size =  1641.50 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: KV self size  = 7504.00 MiB, K (f16): 3752.00 MiB, V (f16): 3752.00 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:  CUDA_Host  output buffer size =     0.60 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4)
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:      CUDA0 compute buffer size =  2659.51 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:      CUDA1 compute buffer size =  2659.51 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:      CUDA2 compute buffer size =  2659.51 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:      CUDA3 compute buffer size =  2659.52 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model:  CUDA_Host compute buffer size =   244.52 MiB
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: graph nodes  = 2246
10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: graph splits = 5
10月 12 10:50:44 gpu ollama[63910]: INFO [main] model loaded | tid="139894521270272" timestamp=1728701444
10月 12 10:50:44 gpu ollama[63910]: time=2024-10-12T10:50:44.140+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.79 seconds"
10月 12 10:50:45 gpu ollama[63910]: [GIN] 2024/10/12 - 10:50:45 | 200 | 10.648363851s |     172.22.1.39 | POST     "/api/chat"


Additional Note

If I place the content of the document in the HUMAN prompt (previously placed in the SYSTEM prompt as default), ollama can recognize and summarize the document content,However, with this approach, the LLM does not follow instructions well and often provides irrelevant responses..

May I ask if there is a character limit for the prompts in the SYSTEM context for the ollama model?

Due to certain functional limitations, I have to continue placing it in the SYSTEM prompt. Do you have any related suggestions?

<!-- gh-comment-id:2408325047 --> @goactiongo commented on GitHub (Oct 12, 2024): Thanks. pls review the information as followed (add OLLAMA_DEBUG=1 to my server environment) ![image](https://github.com/user-attachments/assets/986f4e5d-bbcb-45a1-88cb-6b9ef466074c) ### FastGPT log (to make it easier for you to understand, I have translated some of the Chinese into English) ```sh 问题/检索词:( Question/Search Term) Summarize document content in 20 words. 上下文总长度: Total Context Length 3 最大响应 tokens: Maximum Response Tokens 1900 记录预览(仅展示部分内容): Record Preview (Showing Partial Content) System 将 <Reference></Reference> 中的内容作为本次对话的参考: (Use the content within <Reference></Reference> as a reference for this conversation:) <Reference> File: 600007.pdf <Content> 中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别和连带的法律责任。 二、 公司全体董事出席董事会会议。 三、 公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅,未经审计。 四、 公司负责人黄国祥先生、主管会计工作负责人胡燕敏女士及会计机构负责人贺咏芳女士声明:保证半年度报告中财务报告的真实、准确、完整。 五、 董事会决议通过的本报告期利润分配预案或公积金转增股本预案不适用。 六、 前瞻性陈述的风险声明本报告所涉及的前瞻性陈述,不构成公司对投资者的实质承诺,请投资者注意投资风险。 七、 公司不存在被控股股东及其关联方非经营性占用资金的情况。 八、 公司不存在违反规定决策程序对外提供担保的情况。 九、 公司不存在半数以上董事无法保证公司所披露半年度报告的真实性、准确性和完整性的情况。中国国际贸易中心股份有限公司 2024 年半年度报告2十、 重大风险提示公司已在本报告中详细描述可能存在的相关风险,敬请查阅“第三节管理层讨论与分析”中“五、其他披露事项”中“(一)可能面对的风险”相关内容。中国国际贸易中心股份有限公司 2024 年半年度报告3目 录第一节 释义 .............................................................. 4第二节 公司简介和主要财务指标 ............................................ 4第三节 管理层讨论与分析 .................................................. 8第四节 公司治理 ......................................................... 19第五节 环境与社会责任..... ........................................... ...22第六节 重要事项..... ................................................. ...24第七节 股份变动及股东情况 ............................................... 29第八节 优先股相关情况 ................................................... 32第九节 债券相关情况 ..................................................... 32第十节 财务报告 ......................................................... 39备查文件目录载有���司董事长签名的 2024 年半年度报告正文及其摘要载有公司法定代表人、主管会计工作及会计机构负责人签名并盖章的财务报表载有会计师事务所盖章、注册会计师签名并盖章的审阅报告原件报告期内公开披露过的所有公司文件的正本及公告原稿中国国际贸易中心股份有限公司 2024 年半年度报告第一节 释义一、释义无。 第二节 公司简介和主要财务指标一、 公司信息公司的中文名称 中国国际贸易中心股份有限公司公司的中文简称 中国国贸公司的外文名称 China World Trade Center Co., Ltd. 公司的外文名称缩写 CWTC Co., Ltd. 公司的法定代表人 黄国祥二、 联系人和联系方式董事会秘书 证券事务代表姓名 陈峰 骆洋喆、章侃联系地址 北京市朝阳区建国门外大街 1 号 北京市朝阳区建国门外大街 1 号电话 010-65052288 010-65052288传真 010-65053862 010-65053862电子信箱 [dongmi@cwtc.com](mailto:dongmi@cwtc.com) [dongmi@cwtc.com](mailto:dongmi@cwtc.com)三、 基本情况变更简介公司注册地址 北京市朝阳区建国门外大街 1 号公司办公地址 北京市朝阳区建国门外大街 1 号公司办公地址的邮政编码 100004公司网址 http://www.cwtc.com/电子信箱 [dongmi@cwtc.com](mailto:dongmi@cwtc.com)中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司基本情况未发生变更。 四、 信息披露及备置地点变更情况简介公司选定的信息披露报纸名称 《中国证券报》、《上海证券报》登载半年度报告的网站地址 [www.sse.com.cn](http://www.sse.com.cn/)公司半年度报告备置地点 北京市朝阳区建国门外大街 1 号国贸大厦 A 座29 层董事会办公室五、 公司股票简况股票种类 股票上市交易所 股票简称 股票代码A 股 上海证券交易所 中国国贸 600007六、 公司主要会计数据和财务指标(一) 主要会计数据金额单位:人民币元主要会计数据 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)营业收入 1,965,293,521 1,938,364,140 1.39%归属于上市公司股东的净利润 687,537,223 653,651,170 5.18%归属于上市公司股东的扣除非经常性损益的净利润674,611,113 647,510,217 4.19%经营活动产生的现金流量净额 942,423,094 992,637,249 -5.06%本报告期末 上年度末 本报告期末比上年度末增减(%)归属于上市公司股东的净资产 9,078,228,256 9,700,158,327 -6.41%总资产 12,167,355,922 12,881,135,035 -5.54%中国国际贸易中心股份有限公司 2024 年半年度报告(二) 主要财务指标金额单位:人民币元主要财务指标 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)基本每股收益(元/股) 0.68 0.65 5.18%稀释每股收益(元/股) 0.68 0.65 5.18%扣除非经常性损益后的基本每股收益(元/股)0.67 0.64 4.19%加权平均净资产收益率(%) 7.16% 7.08% 0.08%扣除非经常性损益后的加权平均净资产收益率(%)7.02% 7.01% 0.01%七、 境内外会计准则下会计数据差异不适用。 八、 非经常性损益项目和金额金额单位:人民币元非经常性损益项目 金额保险理赔收入 16,272,954租户违约罚款收入 1,282,587政府补助 469,524处置非流动资产净损失 -815,142赞助捐赠支出 -88,000不需支付的应付款项 104,714除上述各项之外的其他营业外收入和支出 15,448所得税影响额 -4,310,521少数股东权益影响额(税后) -5,454合计 12,926,110中国国际贸易中心股份有限公司 2024 年半年度报告对公司将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》未列举的项目认定为的非经常性损益项目且金额重大的,以及将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》中列举的非经常性损益项目界定为经常性损益的项目,应说明原因不适用。中国国际贸易中心股���有限公司 2024 年半年度报告第三节 管理层讨论与分析一、 报告期内公司所属行业及主营业务情况说明报告期内,公司主要从事写字楼、商城、公寓等投资性物业的出租和管理以及酒店经营等。 公司除所拥有的酒店委托香格里拉国际饭店管理有限公司(以下简称“香格里拉”)进行管理和经营外,其他主营业务均由公司自行进行管理和经营。 根据原国家质量监督检验检疫总局和国家标准化管理委员会于 2017 年批准发布的国家标准《国民经济行业分类》(GB/T4754-2017),公司属于“房地产业”。公司的营业收入主要来源于写字楼、商城、公寓等投资性物业的出租和管理以及酒店的经营;公司的经营规模、硬件设施、管理和服务、市场地位等,在业内一直处于领先水平。 二、 报告期内核心竞争力分析公司和控股股东中国国际贸易中心有限公司(以下简称“国贸有限公司”)拥有的中国国际贸易中心(以下简称“国贸中心”)主体建筑群位于寸土寸金的北京中央商务区的核心地段,由写字楼、商城、酒店和公寓等高档商业建筑组成,是目前中国乃至全球规模最大、功能最齐全的高档商务服务综合体之一。 长期以来,公司凭借多年形成的品牌、区位、综合、资源、管理、服务等各方面优势,在市场上处于领先地位。 报告期内,公司的核心竞争力未发生重大变化。公司核心竞争力的有关情况除国贸大酒店原家全七福餐厅区域已于上年经调整后重新对外出租,滩万日餐厅及红馆面档已关闭并为新租户进行租区改造外,其他内容详见公司 2021 年半年度报告“第三节管理层讨论与分析”中“报告期内核心竞争力分析”。 2023 年 12 月,公司国贸大厦 A 座及国贸公寓获得 WELL 铂金级认证。至此,国贸大厦 A 座成为同时获得 LEED 铂金级和 WELL 铂金级双认证的写字楼建筑。公司将持续践行可持续发展的运营理念,不断提升租户和员工的健康、舒适及幸福感。中国国际贸易中心股份有限公司 2024 年半年度报告三、 经营情况的讨论与分析2024 年上半年,北京写字楼市场新增需求仍显疲弱,租金水平持续承压;商业物业市场分化加剧;服务式公寓市场和酒店业表现相对平稳。 上半年,写字楼市场新增供应较小,但由于需求依旧疲弱,“以价换量”成为市场主流策略,导致平均租金水平进一步下降。尽管二季度净吸纳量环比有所改善,但市场总体空置率仍处于高位。面对不确定的宏观经济环境和外部形势,不少企业保持观望态度,降本增效是其主要策略,新租扩租需求依旧不足。随着下半年预计新增供应的增加,市场去化压力较大,租金水平仍将继续承压。 商业物业市场租金总体保持平稳,空置率略有下降,但受消费复苏放缓的影响,市场分化加剧。承租需求方面,高端零售销售额同比下降,面对“消费降级”的趋势,高端品牌的扩张更趋于谨慎;定位大众市场的零售和餐饮成为短期内市场需求的主力。项目方面,出租率稳定、客群品质较高、对零售品牌吸引力较大的项目的租金相对稳定;品牌调整或升级改造较多的项目,租金灵活度加大。客流方面,“假期效应”显著,公共节假日客流同比有明显增长。 服务式公寓市场需求在经历 2023 年的集中释放后趋于平稳,出租率和租金总体较为稳定。但受宏观经济增长放缓和未来不确定性增加的影响,客户预算受限,导致行业竞争加剧,较多高端公寓采用灵活的租金和佣金政策以挖掘和吸引客户。 酒店业经营总体稳定。受益于国际需求的恢复、大型会展举办数量的增长和较低水平的新增供应,高端酒店的市场表现较为积极,入���率保持较高水平,但同时也面临着企业预算削减和消费降级现象带来的挑战。 展望下半年,我国宏观经济面临国内有效需求不足、经济运行分化以及外部环境不利影响增多的严峻形势与挑战。经济增长和消费复苏趋缓、外部需求减弱,将会对北京投资性物业租赁市场,尤其是写字楼和商业物业市场造成一定的不利影响。公司将密切关注不断变化的市场形势和政策趋势,尤其是政府关于促进消费和推进高水平对外开放的具体政策,采取更加积极开放的经营策略,对标国际先进标准,改善营商环境和服务水准,持续控本增效,争取完成全年经营目标。 报告期内,公司通过准确研判市场形势,及时把握市场机遇,采取积极灵活的经营举措并不断提升精细化管理水平,取得了良好的经营业绩。 报告期内,公司实现营业收入 19.7 亿元,比上年同期增加 0.3 亿元或 1.4%;成本费用 8.7 亿元,比上年同期减少 0.2 亿元或 2.1%;实现利润总额 9.2 亿元,比上年同期中国国际贸易中心股份有限公司 2024 年半年度报告增加 0.5 亿元或 5.4%。扣除非经常性损益后,公司实现利润总额 9.0 亿元,比上年同期增加 0.4 亿元或 4.4%。 (一) 报告期内公司经营情况的重大变化,以及报告期内发生的对公司经营情况有重大影响和预计未来会有重大影响的事项不适用。 四、 报告期内主要经营情况(一) 主营业务分析1、 财务报表相关科目变动分析表金额单位:人民币元科目 本期金额上年同期金额本期金额较上年同期增加额变动比例(%)营业收入 1,965,293,521 1,938,364,140 26,929,381 1.39%营业成本 768,803,721 770,020,879 -1,217,158 -0.16%销售费用 36,815,698 39,389,145 -2,573,447 -6.53%管理费用 60,039,827 57,774,196 2,265,631 3.92%财务费用 7,651,091 24,979,965 -17,328,874 -69.37%经营活动产生的现金流量净额 942,423,094 992,637,249 -50,214,155 -5.06%投资活动产生的现金流量净额 -24,310,132 -28,732,557 4,422,425 -15.39%筹资活动产生的现金流量净额 -1,382,395,262 -739,567,213 -642,828,049 86.92%金额单位:人民币元分行业 营业收入 营业成本 毛利率(%)营业收入比上年增减(%)营业成本比上年增减(%)毛利率比上年增减(%)物 业 租 赁及管理 1,709,030,499 533,033,970 68.81% 2.56% 2.80% -0.07%酒店经营 256,263,022 235,769,751 8.00% -5.77% -6.25% 0.47%中国国际贸易中心股份有限公司 2024 年半年度报告(1) 营业收入金额单位:人民币元收入构成项目本期金额占公司主营业务收入比例(%)上年同期金额占公司主营业务收入比例(%)本期金额较上年同期增加额写字楼 767,833,698 39.07% 782,207,780 40.35% -14,374,082商城 656,129,706 33.39% 626,735,904 32.33% 29,393,802公寓 93,980,579 4.78% 87,972,227 4.54% 6,008,352酒店 256,263,022 13.04% 271,961,862 14.03% -15,698,840其他(注) 191,086,516 9.72% 169,486,367 8.75% 21,600,149合计 1,965,293,521 100% 1,938,364,140 100% 26,929,381注:其他收入主要是停车场收入,以及财务报表合并范围内公司子公司的营业收入。 报告期内,公司主要投资性物业平均租金和出租率情况如下:金额单位:人民币元期末可出租面积(m²)平均租金(元/平方米/月)平均出租率(%)本报告期上年同期 增减 本报告期上年同期 增减A B A-B C D C-D写字楼一期 47,711 586 570 16 87.9% 91.9% -4.0%二期 33,587 575 534 41 98.7% 98.3% 0.4%三期 A 82,057 685 683 2 91.7% 97.3% -5.6%三期 B 42,733 725 736 -11 96.2% 96.6% -0.4%合计 206,088 648 637 11 93.2% 96.2% -3.0%中国国际贸易中心股份有限公司 2024 年半年度报告商城一期 15,353 2,037 1,980 57 100% 99.7% 0.3%二期 5,874 1,194 1,121 73 98.2% 100% -1.8%三期 A 18,086 712 618 94 92.7% 98.3% -5.6%三期 B 26,142 798 736 62 98.1% 98.4% -0.3%东楼 13,675 2,481 2,359 122 95.7% 98.0% -2.3%合计 79,130 1,341 1,257 84 96.9% 98.8% -1.9%公寓 46,734 368 371 -3 88.8% 82.1% 6.7%注:1、平均租金中包含租金和物业管理费。 2、一期写字楼、三期 A 写字楼出租率同比下降,主要是因有租户租约到期,相关区域正在招租。 3、三期 A 商城出租率同比下降,主要是因有租户租约到期及提前解约,相关区域正在招租。 4、三期 A 商城平均租金同比上升,主要是去年二季度的平均租金基数较低。 (2) 营业成本报告期内,公司营业成本 7.7 亿元,比上年同期减少 0.01 亿元或 0.16%,具体构成情况如下:金额单位:人民币元成本构成项目本期金额本期金额占总成本比例(%)上年同期金额上年同期金额占总成本比例(%)本期金额较上年同期变动比例(%)折旧摊销 224,694,464 29.23% 231,406,613 30.05% -2.90%员工成本 189,323,955 24.63% 194,499,187 25.26% -2.66%能源费 55,875,548 7.27% 52,512,615 6.82% 6.40%维修保养 52,877,982 6.88% 52,779,624 6.85% 0.19%其他(注) 246,031,772 31.99% 238,822,840 31.02% 3.02%合计 768,803,721 100% 770,020,879 100% -0.16%中国国际贸易中心股份有限公司 2024 年半年度报告注:其他费用包括劳务费、清洁费、酒店营业成本及保安费等。 (3) 费用报告期内,公司的管理费用和销售费用与上年同期相比变动幅度低于 30%;财务费用与上年同期相比减少 69.37%,主要是银行存款利息收入增加,以及因长期借款本金减少,利息费用相应降低。 (4) 现金流公司现金流量的构成情况详见本报告所附财务报表。 经营活动产生的现金流量中收到其他与经营活动有关的现金增加,主要是收到 2022年度营业中断保险赔偿 1,619 万元。 投资活动产生的现金流量中取得投资收益所收到的现金增加,主要是收到联营企业派发的现金股利。 筹资活动产生的现金流量中偿还债务支付的现金增加,主要是偿还了银行长期借款本金 5,000 万元。 筹资活动产生的现金流量中分配股利、利润或偿付利息支付的现金增加,主要是分配股利支付的现金增加。 2、 本期公司业务类型、利润构成或利润来源发生重大变动的详细说明不适用。 (二) 非主营业务导致利润重大变化的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(三) 资产、负债情况分析1、资产及负债状况金额单位:人民币元项目名称 本期期末数本期期末数占总资产的比例(%)上年年末数上年年末数占总资产的比例(%)本 期 期 末金 额 较 上年 年 末 变动比例(%)货币资金 3,612,151,002 29.69% 4,088,660,385 31.74% -11.65%应收账款 250,165,292 2.06% 258,206,405 2.00% -3.11%预付款项(注①) 22,439,141 0.18% 34,928,835 0.27% -35.76%存货 31,960,550 0.26% 32,289,866 0.25% -1.02%长期股权投资 26,719,203 0.22% 29,422,110 0.23% -9.19%投资性房地产 6,125,467,772 50.34% 6,276,416,500 48.73% -2.41%固定资产 1,428,924,156 11.74% 1,473,897,131 11.44% -3.05%使用权资产 36,842,123 0.30% 38,643,777 0.30% -4.66%其他流动资产(注②) 190,053 0.002% 287,762 0.002% -33.95%合同负债 62,454,004 0.51% 57,757,548 0.45% 8.13%应付职工薪酬(注③) 69,082,880 0.57% 130,561,942 1.01% -47.09%长期借款 1,085,000,000 8.92% 1,085,000,000 8.42% 0租赁负债 37,891,647 0.31% 37,795,541 0.29% 0.25%注:① 预付款项减少,主要是预付的供暖季采暖费摊销计入当期费用。 ② 其他流动资产减少,主要是增值税待抵扣进项税减少。 ③ 应付职工薪酬减少,主要是期初数中包含的应付 2023 年度员工花红已于 2024年一季度支付。中国国际贸易中心股份有限公司 2024 年半年度报告2、 境外资产情况不适用。 3、 截至报告期末主要资产受限情况(1) 资产抵押和质押情况根据公司经营及发展需要,公司于 2020 年 6 月 19 日召开的 2019 年年度股东大会,同意公司以国贸三期 A 阶段项目部分房产及相应的土地使用权作为抵押担保,向中国建设银行股份有限公司北京华贸支行申请 21.6 亿元人民币商用物业抵押借款,借款期限为 15 年,用于置换 13.8 亿元人民币国贸三期 A 阶段项目建设借款余额和 7.8 亿元人民币国贸三期 B 阶段项目建设借款余额(详见公司 2020 年半年度报告“第四节经营情况的讨论与分析”中“资产抵押和质押情况”)。 2020 年 8 月 5 日,公司就此与中国建设银行股份有限公司北京华贸支行签署《人民币资金借款合同》及《抵押合同》,借款合同金额 21.55 亿元人民币(上述 21.6 亿元人民币减去签署该借款合同前归还 500 万元人民币),借款期限为 2020 年 8 月 5 日至 2035年 8 月 4 日。 公司已取得商用物业抵押借款 21.55 亿元人民币,全部偿还了原国贸三期 A 阶段和国贸三期 B 阶段项目建设借款,注销了原有的此两个项目借款的资产抵押担保,完成了商用物业抵押借款的相关资产抵押登记工作,抵押物清单如下:抵押物名称 权属证书 座落 抵押面积(m2)朝 阳 区 建 国门 外 大 街 1号院 1 号楼X 京房权证朝字第 982670 号朝阳区建国门外大街1 号院 1 号楼 189,176.39京朝国用(2014 出)第 00225 号 - -截至报告期末,上述银行长期借款余额减少为 10.85 亿元。 (2) 受限资金截至报告期末,公司银行存款中受限资金余额为 1.3 亿元,为物业管理项目代管资金(见本报告所附财务报表附注)。中国国际贸易中心股份有限公司 2024 年半年度报告(四) 房地产行业经营性信息分析1、 报告期内房地产储备情况不适用。 2、 报告期内房地产开发投资情况不适用。 3、 报告期内房地产销售情况不适用。 4、 报告期内房地产出租情况金额单位:人民币元地区 项目 经营业态出租房地产的建筑面积(平方米)出租房地产的租金收入权益比例(%)是否采用公允价值计量模式租金收入/房地产公允价值(%)北京中国国际贸易中心写字楼 356,248 750,385,115100% 否 -商城 180,460 622,245,713公寓 80,124 93,296,8525、 报告期内公司财务融资情况报告期末,公司各类融资途径的融资余额、融资成本如下:金额单位:人民币元期末融资余额 利率(1)长期借款中国建设银行股份有限公司北京华贸支行 1,085,000,000 3.90%(2)公司债券“19 国贸 01”公司债券 440,000,000 2.90%中国国际贸易中心股份有限公司 2024 年半年度报告金额单位:人民币元期末融资总额 整体平 ...[hide 64197 chars]... 产种类2024 年 1 至 6 月确认的租赁收入2023 年 1 至 6 月确认的租赁收入国贸有限公司 办公用房 2,266,221 2,444,709国贸有限公司 商铺 541,000 534,710香格里拉北京 办公用房 1,685,332 1,274,428本集团作为承租方:出租方名称 租赁资产种类2024 年 1 至 6 月确认的租赁费2023 年 1 至 6 月确认的租赁费国贸有限公司 公寓 794,109 941,775国贸有限公司 办公用房 152,163 152,163中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)5 关联交易(续)(2) 租赁(续)2024 年 1 至 6 月,本集团作为承租方不存在新增的使用权资产。 本集团作为承租方当年承担的租赁负债利息支出:2024 年 1 至 6 月 2023 年 1 至 6 月国贸有限公司 787,784 854,089(3) 根据本公司与国贸有限公司于 1998 年 9 月 2 日所签订的《商标使用许可协议》,国贸有限公司允许本公司无偿使用其拥有的商标,许可期限为 6 年,从协议生效日起至 2004 年 9 月 1 日止。根据协议条款,协议届满前由于双方对该协议条款和条件没有异议,该协议将自动延续。 (4) 关键管理人员薪酬2024 年 1 至 6 月 2023 年 1 至 6 月关键管理人员薪酬 16,539,572 15,120,357中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)6 关联方应付款项余额其他应付款 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 4,902,588 262,588香格里拉 3,129,279 3,002,170香格里拉北京 830,844 830,844合计 8,862,711 4,095,602租赁负债(附注四.24)(含一年内到期的非流动负债) 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 40,487,291 40,903,391八 承诺事项1 资本性支出承诺事项以下为本集团于资产负债表日,已签约而尚不必在资产负债表上列示的资本性支出承诺:2024 年 6 月 30 日 2023 年 12 月 31 日房屋、建筑物及机器设备的购建 27,953,795 28,812,961中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)九 资产负债表日后经营租赁收款额本集团作为出租人,资产负债表日后应收的租赁收款额的未折现金额汇总如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 2,205,063,708 2,108,504,018一到二年 1,422,131,426 1,417,492,014二到三年 845,519,655 909,124,526三年以上 1,966,886,403 2,112,166,147合计 6,439,601,192 6,547,286,705十 金融风险本集团经营活动中面临的金融风险包括:市场风险(主要为外汇风险和利率风险)、信用风险和流动性风险。本集团整体的风险管理计划针对金融市场的不可预见性,力求减少对本集团财务业绩的潜在不利影响。 1 市场风险(1) 外汇风险本集团的经营位于中国境内,业务主要以人民币结算。本集团已确认的外币资产和负债及未来的外币交易(外币资产和负债及外币交易的计价货币主要为美元)存在外汇风险。本集团总部财务部门负责监控集团外币交易和外币资产及负债的规模,以最大程度降低面临的外汇风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间,本集团未签署任何远期外汇合约或货币互换合约。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(1) 外汇风险(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团内记账本位币为人民币的公司持有的外币金融资产和外币金融负债折算成人民币的金额列示如下:2024 年 6 月 30 日美元项目 其他外币项目 合计外币金融资产-货币资金 5,154,316 2,467 5,156,783外币金融负债 -其他应付款 5,718,808 750,197 6,469,0052023 年 12 月 31 日美元项目 其他外币项目 合计外币金融资产-货币资金 4,773,527 2,531 4,776,058外币金融负债 -其他应付款 5,772,153 755,935 6,528,0882024 年 6 月 30 日,对于本集团各类美元金融资产和美元金融负债,如果人民币对美元升值或贬值 10%,其他因素保持不变,则本集团将增加或减少净利润约42,337 元(2023 年 12 月 31 日:增加或减少净利润约 74,897 元) 。 (2) 利率风险本集团的利率风险主要产生于长期银行借款及应付债券等长期带息债务。浮动利率的金融负债使本集团面临现金流量支出增加的利率风险,固定利率的金融负债使本集团面临公允价值降低的利率风险。本集团一般根据市场环境决定固定利率及浮动利率合同的相对比例。2024 年 6 月 30 日,本集团长期带息债务主要为人民币计价挂钩的 LPR 的浮动利率借款,金额为 1,085,000,000 元以及以人民币计价的固定利率债券,金额为 440,000,000 元(2023 年 12 月 31 日:分别为1,135,000,000 元及 440,000,000 元)(附注四.23、22)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(2) 利率风险(续)由于利率上升会增加新增带息债务的成本以及本集团尚未付清的以浮动利率计息的带息债务的利息支出,并对本集团的财务业绩产生重大的不利影响,本集团会持续监控集团利率水平,并依据最新的市场状况及时做出调整,这些调整可能是进行利率互换的安排来降低利率风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间本集团无利率互换安排。 2024 年 6 月 30 日,如果以浮动利率计算的借款利率上升或下降 50 个基点,而其他因素保持不变,本集团的净利润会减少或增加约 4,068,750 元(2023 年 12月 31 日:约 4,256,250 元)。 2 信用风险本集团信用风险主要产生于货币资金、应收账款及其他应收款等。于资产负债表日,本集团金融资产的账面价值已代表其最大信用风险敞口。 本集团银行存款主要存放于国有银行和其他大中型商业银行,本集团认为其不存在重大的信用风险,不会产生因对方单位违约而导致的任何重大损失。 此外,对于应收账款及其他应收款等,本集团设定相关政策以控制信用风险敞口。本集团基于对客户的财务状况、从第三方获取担保的可能性、信用记录及其他因素诸如目前市场状况等评估客户的信用资质并设置相应信用期。本集团会定期对客户信用记录进行监控,对于信用记录不良的客户,本集团会采用书面催款、缩短信用期或取消信用期等方式,以确保本集团的整体信用风险在可控的范围内。 2024 年 6 月 30 日,本集团无重大的因债务人抵押而持有的担保物和其他信用增级(2023 年 12 月 31 日:无)。 3 流动性风险本集团内子公司负责其自身的现金流量预测。总部财务部门在汇总子公司现金流量预测的基础上,在集团层面持续监控短期和长期的资金需求,以确保维持充裕的现金储备和可供随时变现的有价证券;同时持续监控是否符合借款协议的规定,并从主要金融机构获得提供足够备用资金的承诺,以满足短期和长期的资金需求。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)3 流动性风险(续)资产负债表日,本集团的金融负债以未折现的合同现金流量按到期日列示如下:2024 年 6 月 30 日一年以内 一到二年 二到五年 五年以上 合计应付账款 92,747,360 - - - 92,747,360其他应付款 1,112,682,011 - - - 1,112,682,011长期借款 42,315,000 42,315,000 126,945,000 1,342,416,250 1,553,991,250应付债券 452,760,000 - - - 452,760,000租赁负债 4,127,787 3,572,154 10,716,462 32,744,745 51,161,148合计 1,704,632,158 45,887,154 137,661,462 1,375,160,995 3,263,341,7692023 年 12 月 31 日一年以内 一到二年 二到五年 五年以上 合计应付账款 96,988,767 - - - 96,988,767其他应付款 1,130,882,781 - - - 1,130,882,781长期借款 94,265,000 44,265,000 132,795,000 1,376,411,250 1,647,736,250应付债券 452,760,003 - - - 452,760,003租赁负债 4,683,419 3,572,154 10,716,462 34,530,822 53,502,857合计 1,779,579,970 47,837,154 143,511,462 1,410,942,072 3,381,870,6584 公允价值估计本集团不以公允价值计量的金融资产和金融负债主要包括应收款项、其他应收款、应付款项、租赁负债、长期借款及应付债券。上述不以公允价值计量的金融资产和负债的账面价值与公允价值相差不大。 本集团发行的不存在活跃市场的应付债券,以合同规定的未来现金流量按照市场上具有可比信用等级并在相同条件下提供几乎相同现金流量的利率进行折现后的现值确定其公允价值。 十一 资本管理本集团资本管理政策的目标是为了保障本集团能够持续经营,从而为股东提供回报,并使其他利益相关者获益,同时维持最佳的资本结构以降低资本成本。 本集团的总资本为合并资产负债表中所列示的股东权益。本集团不受制于外部强制性资本要求,利用资产负债率监控资本。 2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团的资产负债率列示如下﹕2024 年 6 月 30 日 2023 年 12 月 31 日资产负债率 25% 25%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注1 应收账款2024 年 6 月 30 日 2023 年 12 月 31 日应收账款 176,484,064 191,180,966减:坏账准备 (941,049) (941,049)净额 175,543,015 190,239,917(1) 应收账款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 175,543,015 190,239,917一到二年 - -二到三年 - -三年以上 941,049 941,049合计 176,484,064 191,180,966(2) 2024 年 6 月 30 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额 坏账准备金额占应收账款总额比例余额前五名的应收账款总额 6,774,614 - 3.84%(3) 坏账准备本公司对于应收账款,无论是否存在重大融资成分,均按照整个存续期的预期信用损失计量损失准备。 应收账款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 941,049 0.53% (941,049) 100.00% 941,049 0.49% (941,049) 100.00%按组合计提坏账准备(b) 175,543,015 99.47% - - 190,239,917 99.51% - -176,484,064 100.00% (941,049) 0.53% 191,180,966 100.00% (941,049) 0.49%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)1 应收账款(续)(3) 坏账准备(续)(a) 2024 年 6 月 30 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100% (941,049)(i) 2024 年 6 月 30 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:941,049 元)。 (b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,313,622 - - 17,126,232 - -逾期 90-180 日 640,991 - - 680,303 - -逾期 180-365 天 147,429 - - - - -合计 160,351,161 - 172,497,625 -组合 —应收酒店服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -(4) 本期间无计提、收回或转回的坏账准备。 (5) 本期间本公司无实际核销的应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款2024 年 6 月 30 日 2023 年 12 月 31 日应收代垫款项 2,048,578 4,312,402应收备用金 806,282 -应收押金和保证金 687,580 761,880应收其他款项 925,074 918,948合计 4,467,514 5,993,230减:坏账准备 - -净额 4,467,514 5,993,230本公司不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。 (1) 其他应收款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 3,323,427 4,776,054一到二年 4,911 278,000二到三年 200,000 14,652三年以上(附注四 4(1)) 939,176 924,524合计 4,467,514 5,993,230(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 4,467,514 100% - - 5,993,230 100% - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款(续)(2) 损失准备及其账面余额变动表(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本公司不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例代垫款:一年以内 2,048,578 - - 4,312,402 - -备用金:一年以内 806,282 - - - - -押金和保证金:一年以内 687,580 - - 761,880 - -其他款项:一年以内 925,074 - - 918,948 - -合计 4,467,514 - - 5,993,230 - -(3) 2024 年 6 月 30 日,按欠款方归集的余额前五名的其他应收款汇总分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 15.39% -第二名 应收其他款 622,224 三年以上 13.93% -第三名 应收代垫款 434,569 一年以内 9.73% -第四名 应收押金 399,642 一年以内 8.94% -第五名 应收代垫款 389,156 一年以内 8.71% -合计 2,533,146 56.70% -(4) 本期间无计提、收回或转回的坏账准备。 (5) 本期间本公司无实际核销的其他应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)3 长期股权投资2024 年 6 月 30 日 2023 年 12 月 31 日子公司(1) 9,500,000 9,500,000联营企业(附注五.2) 20,891,146 26,045,395减:长期股权投资减值准备 - -净额 30,391,146 35,545,395本公司不存在长期投资变现的重大限制。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 77 -十二 公司财务报表附注(续)3 长期股权投资(续)(1) 子公司2023 年12 月 31 日 追加或减少投资2024 年6 月 30 日持股比例表决权比例 减值准备本期计提减值准备本期宣告分派的现金股利国贸物业酒店管理有限公司 9,500,000 - 9,500,000 95% 95% - - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)4 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 1,809,562,667 1,804,419,444主营业务成本 623,801,568 642,110,612本公司主要业务为对外提供物业租赁服务及酒店经营,与上述业务相关的收入均来自北京。因此本公司无需按产品或按地区对于主营业务收入和主营业务成本进行分析。 (2) 按收入类型分析如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,553,056,071 388,026,407 1,532,157,678 390,612,610酒店经营 256,506,596 235,775,161 272,261,766 251,498,002合计 1,809,562,667 623,801,568 1,804,419,444 642,110,612本公司营业收入分解如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入租赁业务 1,357,967,900 1,339,088,484按时点确认其中:酒店餐饮业务 97,252,896 115,775,980按时段内确认其中:物业管理服务 195,088,171 193,069,194酒店客房及其他配套服务 159,253,700 156,485,7861,809,562,667 1,804,419,444包括在 2023 年 12 月 31 日账面价值中的 28,260,639 元合同负债已于 2024 年 1至 6 月转入营业收入(2023 年 1 至 6 月:49,743,804 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)5 投资收益2024 年 1 至 6 月 2023 年 1 至 6 月权益法核算的长期股权投资收益 725,751 1,549,010处置长期股权投资产生的投资损失 - (9,684,300)合计 725,751 (8,135,290)本公司不存在投资收益汇回的重大限制。中国国际贸易中心股份有限公司财务报表补充资料截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)一 2024 年 1 至 6 月非经常性损益明细表2024 年 1 至 6 月 2023 年 1 至 6 月保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749不需支付的应付款项 104,714 1,630,126处置非流动资产净损失 (815,142) (1,438,618)赞助捐赠支出 (88,000) (273,000)除上述各项之外的其他营业外收入和支出 15,448 (32,119)非经常性损益合计 17,242,085 8,192,199所得税影响额 (4,310,521) (2,048,050)少数股东权益影响额(税后) (5,454) (3,196)非经常性损益净额 12,926,110 6,140,953(1) 2024 年 1 至 6 月非经常性损益明细表编制基础:中国证券监督管理委员会于 2023 年颁布了《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益(2023 年修订)》(以下简称“2023 版 1 号解释性公告”),该规定自公布之日起施行。本集团按照 2023 版 1 号解释性公告的规定编制2024 年 1 至 6 月非经常性损益明细表。 根据 2023 版 1 号解释性公告的规定,非经常性损益是指与公司正常经营业务无直接关系,以及虽与正常经营业务相关,但由于其性质特殊和偶发性,影响报表使用人对公司经营业绩和盈利能力作出正确判断的各项交易和事项产生的损益。 二 净资产收益率及每股收益加权平均 每股收益净资产收益率(%) 基本每股收益 稀释每股收益2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64 </Content> </Reference> Human Summarize document content in 20 words. AI Please provide the document for me to summarize its content in 20 words. ``` ### ollama log ```sh (base) [root@gpu ~]# export OLLAMA_DEBUG=1 (base) [root@gpu ~]# echo $OLLAMA_DEBUG 1 (base) [root@gpu ~]# journalctl -u ollama -f -- Logs begin at 一 2024-09-02 03:24:01 CST. -- 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: CUDA0 compute buffer size = 2659.51 MiB 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: CUDA1 compute buffer size = 2659.51 MiB 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: CUDA2 compute buffer size = 2659.51 MiB 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: CUDA3 compute buffer size = 2659.52 MiB 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: CUDA_Host compute buffer size = 244.52 MiB 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: graph nodes = 2246 10月 12 10:44:17 gpu ollama[63910]: llama_new_context_with_model: graph splits = 5 10月 12 10:44:17 gpu ollama[63910]: INFO [main] model loaded | tid="140178949206016" timestamp=1728701057 10月 12 10:44:17 gpu ollama[63910]: time=2024-10-12T10:44:17.881+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.63 seconds" 10月 12 10:44:19 gpu ollama[63910]: [GIN] 2024/10/12 - 10:44:19 | 200 | 10.384866476s | 172.22.1.39 | POST "/api/chat" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.329+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 library=cuda parallel=1 required="40.6 GiB" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.330+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="110.4 GiB" free_swap="3.7 GiB" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.334+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=65 layers.offload=65 layers.split=17,17,16,15 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="40.6 GiB" memory.required.partial="40.6 GiB" memory.required.kv="7.3 GiB" memory.required.allocations="[10.4 GiB 10.6 GiB 10.0 GiB 9.6 GiB]" memory.weights.total="24.8 GiB" memory.weights.repeating="24.2 GiB" memory.weights.nonrepeating="609.1 MiB" memory.graph.full="2.9 GiB" memory.graph.partial="2.9 GiB" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.345+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama737504217/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 --parallel 1 --tensor-split 17,17,16,15 --port 46810" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=sched.go:449 msg="loaded runners" count=1 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=server.go:587 msg="waiting for llama runner to start responding" 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.346+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 12 10:50:36 gpu ollama[63910]: INFO [main] build info | build=10 commit="9225b05" tid="139894521270272" timestamp=1728701436 10月 12 10:50:36 gpu ollama[63910]: INFO [main] system info | n_threads=32 n_threads_batch=32 system_info="AVX = 1 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | AVX512_BF16 = 0 | FMA = 0 | NEON = 0 | SVE = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | SSSE3 = 1 | VSX = 0 | MATMUL_INT8 = 0 | LLAMAFILE = 1 | " tid="139894521270272" timestamp=1728701436 total_threads=64 10月 12 10:50:36 gpu ollama[63910]: INFO [main] HTTP server listening | hostname="127.0.0.1" n_threads_http="63" port="46810" tid="139894521270272" timestamp=1728701436 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: loaded meta data with 34 key-value pairs and 771 tensors from /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 (version GGUF V3 (latest)) 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output. 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 0: general.architecture str = qwen2 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 1: general.type str = model 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 2: general.name str = Qwen2.5 32B Instruct 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 3: general.finetune str = Instruct 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 4: general.basename str = Qwen2.5 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 5: general.size_label str = 32B 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 6: general.license str = apache-2.0 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 7: general.license.link str = https://huggingface.co/Qwen/Qwen2.5-3... 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 8: general.base_model.count u32 = 1 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 9: general.base_model.0.name str = Qwen2.5 32B 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 10: general.base_model.0.organization str = Qwen 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 11: general.base_model.0.repo_url str = https://huggingface.co/Qwen/Qwen2.5-32B 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 12: general.tags arr[str,2] = ["chat", "text-generation"] 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 13: general.languages arr[str,1] = ["en"] 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 14: qwen2.block_count u32 = 64 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 15: qwen2.context_length u32 = 32768 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 16: qwen2.embedding_length u32 = 5120 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 17: qwen2.feed_forward_length u32 = 27648 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 18: qwen2.attention.head_count u32 = 40 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 19: qwen2.attention.head_count_kv u32 = 8 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 20: qwen2.rope.freq_base f32 = 1000000.000000 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 21: qwen2.attention.layer_norm_rms_epsilon f32 = 0.000001 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 22: general.file_type u32 = 15 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 23: tokenizer.ggml.model str = gpt2 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 24: tokenizer.ggml.pre str = qwen2 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 25: tokenizer.ggml.tokens arr[str,152064] = ["!", "\"", "#", "$", "%", "&", "'", ... 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 26: tokenizer.ggml.token_type arr[i32,152064] = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, ... 10月 12 10:50:36 gpu ollama[63910]: time=2024-10-12T10:50:36.598+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 27: tokenizer.ggml.merges arr[str,151387] = ["Ġ Ġ", "ĠĠ ĠĠ", "i n", "Ġ t",... 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 28: tokenizer.ggml.eos_token_id u32 = 151645 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 29: tokenizer.ggml.padding_token_id u32 = 151643 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 30: tokenizer.ggml.bos_token_id u32 = 151643 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 31: tokenizer.ggml.add_bos_token bool = false 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 32: tokenizer.chat_template str = {%- if tools %}\n {{- '<|im_start|>... 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - kv 33: general.quantization_version u32 = 2 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type f32: 321 tensors 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type q4_K: 385 tensors 10月 12 10:50:36 gpu ollama[63910]: llama_model_loader: - type q6_K: 65 tensors 10月 12 10:50:36 gpu ollama[63910]: llm_load_vocab: special tokens cache size = 22 10月 12 10:50:37 gpu ollama[63910]: llm_load_vocab: token to piece cache size = 0.9310 MB 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: format = GGUF V3 (latest) 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: arch = qwen2 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: vocab type = BPE 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_vocab = 152064 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_merges = 151387 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: vocab_only = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ctx_train = 32768 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd = 5120 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_layer = 64 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_head = 40 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_head_kv = 8 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_rot = 128 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_swa = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_head_k = 128 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_head_v = 128 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_gqa = 5 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_k_gqa = 1024 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_embd_v_gqa = 1024 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_norm_eps = 0.0e+00 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_norm_rms_eps = 1.0e-06 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_clamp_kqv = 0.0e+00 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_max_alibi_bias = 0.0e+00 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: f_logit_scale = 0.0e+00 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ff = 27648 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_expert = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_expert_used = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: causal attn = 1 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: pooling type = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope type = 2 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope scaling = linear 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: freq_base_train = 1000000.0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: freq_scale_train = 1 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: n_ctx_orig_yarn = 32768 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: rope_finetuned = unknown 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_conv = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_inner = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_d_state = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_dt_rank = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: ssm_dt_b_c_rms = 0 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model type = ?B 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model ftype = Q4_K - Medium 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model params = 32.76 B 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: model size = 18.48 GiB (4.85 BPW) 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: general.name = Qwen2.5 32B Instruct 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: BOS token = 151643 '<|endoftext|>' 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: EOS token = 151645 '<|im_end|>' 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: PAD token = 151643 '<|endoftext|>' 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: LF token = 148848 'ÄĬ' 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: EOT token = 151645 '<|im_end|>' 10月 12 10:50:37 gpu ollama[63910]: llm_load_print_meta: max token length = 256 10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no 10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 10月 12 10:50:37 gpu ollama[63910]: ggml_cuda_init: found 4 CUDA devices: 10月 12 10:50:37 gpu ollama[63910]: Device 0: NVIDIA A30, compute capability 8.0, VMM: yes 10月 12 10:50:37 gpu ollama[63910]: Device 1: NVIDIA A30, compute capability 8.0, VMM: yes 10月 12 10:50:37 gpu ollama[63910]: Device 2: NVIDIA A30, compute capability 8.0, VMM: yes 10月 12 10:50:37 gpu ollama[63910]: Device 3: NVIDIA A30, compute capability 8.0, VMM: yes 10月 12 10:50:37 gpu ollama[63910]: llm_load_tensors: ggml ctx size = 1.69 MiB 10月 12 10:50:38 gpu ollama[63910]: time=2024-10-12T10:50:38.054+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server not responding" 10月 12 10:50:40 gpu ollama[63910]: time=2024-10-12T10:50:40.115+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server loading model" 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloading 64 repeating layers to GPU 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloading non-repeating layers to GPU 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: offloaded 65/65 layers to GPU 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: CPU buffer size = 417.66 MiB 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: CUDA0 buffer size = 4844.72 MiB 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: CUDA1 buffer size = 4628.16 MiB 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: CUDA2 buffer size = 4402.62 MiB 10月 12 10:50:40 gpu ollama[63910]: llm_load_tensors: CUDA3 buffer size = 4632.84 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_ctx = 30016 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_batch = 512 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: n_ubatch = 512 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: flash_attn = 0 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: freq_base = 1000000.0 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: freq_scale = 1 10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init: CUDA0 KV buffer size = 1993.25 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init: CUDA1 KV buffer size = 1993.25 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init: CUDA2 KV buffer size = 1876.00 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_kv_cache_init: CUDA3 KV buffer size = 1641.50 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: KV self size = 7504.00 MiB, K (f16): 3752.00 MiB, V (f16): 3752.00 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA_Host output buffer size = 0.60 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4) 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA0 compute buffer size = 2659.51 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA1 compute buffer size = 2659.51 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA2 compute buffer size = 2659.51 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA3 compute buffer size = 2659.52 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: CUDA_Host compute buffer size = 244.52 MiB 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: graph nodes = 2246 10月 12 10:50:43 gpu ollama[63910]: llama_new_context_with_model: graph splits = 5 10月 12 10:50:44 gpu ollama[63910]: INFO [main] model loaded | tid="139894521270272" timestamp=1728701444 10月 12 10:50:44 gpu ollama[63910]: time=2024-10-12T10:50:44.140+08:00 level=INFO source=server.go:626 msg="llama runner started in 7.79 seconds" 10月 12 10:50:45 gpu ollama[63910]: [GIN] 2024/10/12 - 10:50:45 | 200 | 10.648363851s | 172.22.1.39 | POST "/api/chat" ``` ### Additional Note If I place the content of the document in the HUMAN prompt (previously placed in the SYSTEM prompt as default), ollama can recognize and summarize the document content,However, with this approach, the LLM does not follow instructions well and often provides irrelevant responses.. May I ask if there is a character limit for the prompts in the SYSTEM context for the ollama model? Due to certain functional limitations, I have to continue placing it in the SYSTEM prompt. Do you have any related suggestions?
Author
Owner

@rick-github commented on GitHub (Oct 12, 2024):

You need to set OLLAMA_DEBUG=1 in the server environment. Run this command:

sudo systemctl edit ollama

Add these lines:

[Service]
Environment="OLLAMA_DEBUG=1"

Save and exit, then run

sudo systemctl restart ollama

Run your test. Then run

journalctl -u ollama --since -1d > /tmp/ollama.log

Attach ollama.log to this issue.

There shouldn't be any character limits other than the overall context window size. The system prompt is usually used for just setting the style or purpose of a model, and context is usually added to the user role. But that really depends on the model. Some may be fine with context in the system role, others have been trained to expect it in the user role. In my experiments so far, both qwen2.5 and glm4 work fine with context in the system role. We just need to figure out why it doesn't seem to work in your case.

<!-- gh-comment-id:2408436765 --> @rick-github commented on GitHub (Oct 12, 2024): You need to set `OLLAMA_DEBUG=1` in the server environment. Run this command: ``` sudo systemctl edit ollama ``` Add these lines: ``` [Service] Environment="OLLAMA_DEBUG=1" ``` Save and exit, then run ``` sudo systemctl restart ollama ``` Run your test. Then run ``` journalctl -u ollama --since -1d > /tmp/ollama.log ``` Attach `ollama.log` to this issue. There shouldn't be any character limits other than the overall context window size. The `system` prompt is usually used for just setting the style or purpose of a model, and context is usually added to the `user` role. But that really depends on the model. Some may be fine with context in the `system` role, others have been trained to expect it in the `user` role. In my experiments so far, both qwen2.5 and glm4 work fine with context in the `system` role. We just need to figure out why it doesn't seem to work in your case.
Author
Owner

@goactiongo commented on GitHub (Oct 13, 2024):

Thanks for your replay. ollama log file attached,pls. Fell free to let me know if more information needed...
ollama.log
You can start by reviewing the following conten:
10月 13 10:50:10 gpu systemd[1]: Started Ollama Service.

OR
ollama-1.log
You can start by reviewing the following conten: 10月 13 11:20:51

OR
ollama-2.log
You can start from:10月 13 15:43:53 g

AND
ollama-3.log
This log file is : I put the PDF contents into USER prompt other than into SYSTEM prompts, and success to summarize the content.
pls start from "10月 13 16:11:02 gpu systemd[1]: Started Ollama Service."

AND
ollama-4.log
This log file is : testing with a short content file named test.docx,and it succeed to summarize the content
pls start from 10月 13 16:22:40 gpu systemd[1]: Started Ollama Service.

MORE INFORMATION

(base) [root@gpu ~]# lscpu
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                64
On-line CPU(s) list:   0-63
Thread(s) per core:    2
Core(s) per socket:    16
座:                 2
NUMA 节点:         2
厂商 ID:           GenuineIntel
CPU 系列:          6
型号:              106
型号名称:        Intel(R) Xeon(R) Silver 4314 CPU @ 2.40GHz
步进:              6
CPU MHz:             2400.000
BogoMIPS:            4800.00
虚拟化:           VT-x
L1d 缓存:          48K
L1i 缓存:          32K
L2 缓存:           1280K
L3 缓存:           24576K
NUMA 节点0 CPU:    0-15,32-47
NUMA 节点1 CPU:    16-31,48-63
Flags:                 fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch epb cat_l3 invpcid_single intel_pt ssbd mba ibrs ibpb stibp ibrs_enhanced tpr_shadow vnmi flexpriority ept vpid fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm cqm rdt_a avx512f avx512dq rdseed adx smap avx512ifma clflushopt clwb avx512cd sha_ni avx512bw avx512vl xsaveopt xsavec xgetbv1 cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local dtherm ida arat pln pts hwp_epp avx512vbmi umip pku ospke avx512_vbmi2 gfni vaes vpclmulqdq avx512_vnni avx512_bitalg avx512_vpopcntdq md_clear pconfig spec_ctrl intel_stibp flush_l1d arch_capabilities
(base) [root@gpu ~]#

AI debug log

问题/检索词:
Summarize the content

上下文总长度:
3

最大响应 tokens:
1000

记录预览(仅展示部分内容):
System
将 <Reference></Reference> 中的内容作为本次对话的参考:
<Reference>
File: 600007.pdf
<Content>
中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别
......
1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64
</Content>
</Reference>
Human
Summarize the content
AI
I'm unable to summarize content without knowing what specific text, article, or piece of work you're referring to. Could you please provide more details?
<!-- gh-comment-id:2408799387 --> @goactiongo commented on GitHub (Oct 13, 2024): Thanks for your replay. ollama log file attached,pls. Fell free to let me know if more information needed... [ollama.log](https://github.com/user-attachments/files/17352852/ollama.log) You can start by reviewing the following conten: 10月 13 10:50:10 gpu systemd[1]: Started Ollama Service. OR [ollama-1.log](https://github.com/user-attachments/files/17352950/ollama-1.log) You can start by reviewing the following conten: 10月 13 11:20:51 OR [ollama-2.log](https://github.com/user-attachments/files/17354798/ollama-2.log) You can start from:10月 13 15:43:53 g AND [ollama-3.log](https://github.com/user-attachments/files/17354901/ollama-3.log) This log file is : I put the PDF contents into USER prompt other than into SYSTEM prompts, and success to summarize the content. pls start from "10月 13 16:11:02 gpu systemd[1]: Started Ollama Service." AND [ollama-4.log](https://github.com/user-attachments/files/17354914/ollama-4.log) This log file is : testing with a short content file named test.docx,and it succeed to summarize the content pls start from 10月 13 16:22:40 gpu systemd[1]: Started Ollama Service. ### MORE INFORMATION ``` (base) [root@gpu ~]# lscpu Architecture: x86_64 CPU op-mode(s): 32-bit, 64-bit Byte Order: Little Endian CPU(s): 64 On-line CPU(s) list: 0-63 Thread(s) per core: 2 Core(s) per socket: 16 座: 2 NUMA 节点: 2 厂商 ID: GenuineIntel CPU 系列: 6 型号: 106 型号名称: Intel(R) Xeon(R) Silver 4314 CPU @ 2.40GHz 步进: 6 CPU MHz: 2400.000 BogoMIPS: 4800.00 虚拟化: VT-x L1d 缓存: 48K L1i 缓存: 32K L2 缓存: 1280K L3 缓存: 24576K NUMA 节点0 CPU: 0-15,32-47 NUMA 节点1 CPU: 16-31,48-63 Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch epb cat_l3 invpcid_single intel_pt ssbd mba ibrs ibpb stibp ibrs_enhanced tpr_shadow vnmi flexpriority ept vpid fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm cqm rdt_a avx512f avx512dq rdseed adx smap avx512ifma clflushopt clwb avx512cd sha_ni avx512bw avx512vl xsaveopt xsavec xgetbv1 cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local dtherm ida arat pln pts hwp_epp avx512vbmi umip pku ospke avx512_vbmi2 gfni vaes vpclmulqdq avx512_vnni avx512_bitalg avx512_vpopcntdq md_clear pconfig spec_ctrl intel_stibp flush_l1d arch_capabilities (base) [root@gpu ~]# ``` ### AI debug log ``` 问题/检索词: Summarize the content 上下文总长度: 3 最大响应 tokens: 1000 记录预览(仅展示部分内容): System 将 <Reference></Reference> 中的内容作为本次对话的参考: <Reference> File: 600007.pdf <Content> 中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别 ...... 1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64 </Content> </Reference> Human Summarize the content AI I'm unable to summarize content without knowing what specific text, article, or piece of work you're referring to. Could you please provide more details? ```
Author
Owner

@rick-github commented on GitHub (Oct 13, 2024):

Your context size is too small for the size of the document you are attempting to summarize. For most of the tests, you used qwen2.5:32b with a context of 30001:

10月 13 10:32:03 gpu ollama[7707]: time=2024-10-13T10:32:03.516+08:00 level=INFO source=server.go:388
  msg="starting llama server" cmd="/tmp/ollama2673268380/runners/cuda_v12/ollama_llama_server 
  --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 
  --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 

When you submit a test, ollama computes the size of the payload and when it exceeds the context window, it drops messages:

10月 13 10:32:18 gpu ollama[7707]: time=2024-10-13T10:32:18.257+08:00 level=DEBUG source=prompt.go:51
  msg="truncating input messages which exceed context length" truncated=2

This results in a prompt with no context:

10月 13 10:32:18 gpu ollama[7707]: time=2024-10-13T10:32:18.258+08:00 level=DEBUG source=routes.go:1417 
  msg="chat request" images=0
  prompt="<|im_start|>system\n1、你是文档内容总结、内容比对专家\n<|im_end|>\n<|im_start|>user\nSummarize the content<|im_end|>\n<|im_start|>assistant\n"

On the last test you switched to glm4:9b with a context of 128001:

10月 13 16:23:58 gpu ollama[26133]: time=2024-10-13T16:23:58.644+08:00 level=INFO source=server.go:388 
  msg="starting llama server" cmd="/tmp/ollama3620682557/runners/cuda_v12/ollama_llama_server 
  --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 
  --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41

Ollama was able to process this test:

10月 13 16:24:02 gpu ollama[26133]: time=2024-10-13T16:24:02.272+08:00 level=DEBUG source=routes.go:1417 
  msg="chat request" images=0 
  prompt="[gMASK]<sop><|system|>\n将 <Reference></Reference> 中的内容作为本次对话的参考:\n<Reference>\nFile: test.docx\n<Content>\nHi\n\nHello\n\n你好\n\n喂\n\nHow are you\n\nHow do you do\n</Content>\n</Reference>\n<|user|>\nsummarize the content<|assistant|>\n"

For the test in ollama-3.log where you put the text in the USER prompt, the middle of the text has this:

...[hide 64197 chars]...

so not all of the text is being passed in, allowing the remaining text to fix in the context window.

60007.pdf has 91017 characters according to wc -m, so it should fit in the 128001 token window of glm4:9b. Try that and add the logs if it doesn't work.

<!-- gh-comment-id:2409088151 --> @rick-github commented on GitHub (Oct 13, 2024): Your context size is too small for the size of the document you are attempting to summarize. For most of the tests, you used qwen2.5:32b with a context of 30001: ``` 10月 13 10:32:03 gpu ollama[7707]: time=2024-10-13T10:32:03.516+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama2673268380/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-eabc98a9bcbfce7fd70f3e07de599f8fda98120fefed5881934161ede8bd1a41 --ctx-size 30001 --batch-size 512 --embedding --log-disable --n-gpu-layers 65 ``` When you submit a test, ollama computes the size of the payload and when it exceeds the context window, it drops messages: ``` 10月 13 10:32:18 gpu ollama[7707]: time=2024-10-13T10:32:18.257+08:00 level=DEBUG source=prompt.go:51 msg="truncating input messages which exceed context length" truncated=2 ``` This results in a prompt with no context: ``` 10月 13 10:32:18 gpu ollama[7707]: time=2024-10-13T10:32:18.258+08:00 level=DEBUG source=routes.go:1417 msg="chat request" images=0 prompt="<|im_start|>system\n1、你是文档内容总结、内容比对专家\n<|im_end|>\n<|im_start|>user\nSummarize the content<|im_end|>\n<|im_start|>assistant\n" ``` On the last test you switched to glm4:9b with a context of 128001: ``` 10月 13 16:23:58 gpu ollama[26133]: time=2024-10-13T16:23:58.644+08:00 level=INFO source=server.go:388 msg="starting llama server" cmd="/tmp/ollama3620682557/runners/cuda_v12/ollama_llama_server --model /usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 --ctx-size 128001 --batch-size 512 --embedding --log-disable --n-gpu-layers 41 ``` Ollama was able to process this test: ``` 10月 13 16:24:02 gpu ollama[26133]: time=2024-10-13T16:24:02.272+08:00 level=DEBUG source=routes.go:1417 msg="chat request" images=0 prompt="[gMASK]<sop><|system|>\n将 <Reference></Reference> 中的内容作为本次对话的参考:\n<Reference>\nFile: test.docx\n<Content>\nHi\n\nHello\n\n你好\n\n喂\n\nHow are you\n\nHow do you do\n</Content>\n</Reference>\n<|user|>\nsummarize the content<|assistant|>\n" ``` For the test in ollama-3.log where you put the text in the USER prompt, the middle of the text has this: ``` ...[hide 64197 chars]... ``` so not all of the text is being passed in, allowing the remaining text to fix in the context window. 60007.pdf has 91017 characters according to `wc -m`, so it should fit in the 128001 token window of glm4:9b. Try that and add the logs if it doesn't work.
Author
Owner

@goactiongo commented on GitHub (Oct 14, 2024):

Thanks for your information, I almost understand the root cause--- the token qty. which LLM can supported.

The following was testing with glm4:9b, which context length 131072.

Whatever setting --ctx-size 128001 or --ctx-size 96001, The ollama log shown many information as followed

ollama-5.log

It seemd that available memory is enough, why shown "gpu has too little memory to allocate any layers" and "minimum_memory=479199232"

10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.994+08:00 level=DEBUG source=sched.go:224 msg="loading first model" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449
10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.994+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.995+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="484.5 MiB" gpu_zer_overhead="0 B" partial_offload="24.6 GiB" full_offload="24.2 GiB"
10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.995+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"

and the logs shown Ollama had received the PDF content successful ,but FastGPT received “network error”

10月 14 12:47:34 gpu ollama[24746]: time=2024-10-14T12:47:34.755+08:00 level=DEBUG source=routes.go:1417 msg="chat request" images=0 prompt="[gMASK]<sop><|system|>\n将 <Reference></Reference> 中的内容作为本次对话的参考:\n<Reference>\nFile: 600007.pdf\n<Content>\n中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别和连带的法律责任。\n二、 公司全体董事出席董事会会议。\n三、 公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅,未经审计。\n四、 公司负责人黄国祥先生、主管会计工作负责人胡燕敏女士及会计机构负责人贺咏芳女士声明:保证半年度报告中财务报告的真实、准确、完整。\n五、 董事会决议通过的本报告期利润分配预案或公积金转增股本预案不适用。\n六、 前瞻性陈述的风险声明本报告所涉及的前瞻性陈述,不构成公司对投资者的实质承诺,请投资者注意投资风险。\n七、 公司不存在被控股股东及其关联方非经营性占用资金的情况。\n八、 公司不存在违反规定决策程序对外提供担保的情况。\n九、 公司不存在半数以上董事无法保证公司所披露半年度报告的真实性、准确性和完整性的情况。中国国际贸易中心股份有限公司 2024 年半年度报告2十、 重大风险提示公司已在本报告中详细描述可能存在的相关风险,敬请查阅“第三节管理层讨论与分析”中“五、其他披露事项”中“(一)可能面对的风险”相关内容。中国国际贸易中心股份有限公司 2024 年半年度报告3目 录第一节 释义 .............................................................. 4第二节 公司简介和主要财务指标 ............................................ 4第三节 管理层讨论与分析 .................................................. 8第四节 公司治理 ......................................................... 19第五节 环境与社会责任..... ........................................... ...22第六节 重要事项..... ................................................. ...24第七节 股份变动及股东情况 ............................................... 29第八节 优先股相关情况 ................................................... 32第九节 债券相关情况 ..................................................... 32第十节 财务报告 ......................................................... 39备查文件目录载有公司董事长签名的 2024 年半年度报告正文及其摘要载有公司法定代表人、主管会计工作及会计机构负责人签名并盖章的财务报表载有会计师事务所盖章、注册会计师签名并盖章的审阅报告原件报告期内公开披露过的所有公司文件的正本及公告原稿中国国际贸易中心股份有限公司 2024 年半年度报告第一节 释义一、释义无。\n第二节 公司简介和主要财务指标一、 公司信息公司的中文名称 中国国际贸易中心股份有限公司公司的中文简称 中国国贸公司的外文名称 China World Trade Center Co., Ltd.\n公司的外文名称缩写 CWTC Co., Ltd.\n公司的法定代表人 黄国祥二、 联系人和联系方式董事会秘书 证券事务代表姓名 陈峰 骆洋喆、章侃联系地址 北京市朝阳区建国门外大街 1 号 北京市朝阳区建国门外大街 1 号电话 010-65052288 010-65052288传真 010-65053862 010-65053862电子信箱 dongmi@cwtc.com dongmi@cwtc.com三、 基本情况变更简介公司注册地址 北京市朝阳区建国门外大街 1 号公司办公地址 北京市朝阳区建国门外大街 1 号公司办公地址的邮政编码 100004公司网址 http://www.cwtc.com电子信箱 dongmi@cwtc.com中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司基本情况未发生变更。\n四、 信息披露及备置地点变更情况简介公司选定的信息披露报纸名称 《中国证券报》、《上海证券报》登载半年度报告的网站地址 www.sse.com.cn公司半年度报告备置地点 北京市朝阳区建国门外大街 1 号国贸大厦 A 座29 层董事会办公室五、 公司股票简况股票种类 股票上市交易所 股票简称 股票代码A 股 上海证券交易所 中国国贸 600007六、 公司主要会计数据和财务指标(一) 主要会计数据金额单位:人民币元主要会计数据 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)营业收入 1,965,293,521 1,938,364,140 1.39%归属于上市公司股东的净利润 687,537,223 653,651,170 5.18%归属于上市公司股东的扣除非经常性损益的净利润674,611,113 647,510,217 4.19%经营活动产生的现金流量净额 942,423,094 992,637,249 -5.06%本报告期末 上年度末 本报告期末比上年度末增减(%)归属于上市公司股东的净资产 9,078,228,256 9,700,158,327 -6.41%总资产 12,167,355,922 12,881,135,035 -5.54%中国国际贸易中心股份有限公司 2024 年半年度报告(二) 主要财务指标金额单位:人民币元主要财务指标 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)基本每股收益(元/股) 0.68 0.65 5.18%稀释每股收益(元/股) 0.68 0.65 5.18%扣除非经常性损益后的基本每股收益(元/股)0.67 0.64 4.19%加权平均净资产收益率���%) 7.16% 7.08% 0.08%扣除非经常性损益后的加权平均净资产收益率(%)7.02% 7.01% 0.01%七、 境内外会计准则下会计数据差异不适用。\n八、 非经常性损益项目和金额金额单位:人民币元非经常性损益项目 金额保险理赔收入 16,272,954租户违约罚款收入 1,282,587政府补助 469,524处置非流动资产净损失 -815,142赞助捐赠支出 -88,000不需支付的应付款项 104,714除上述各项之外的其他营业外收入和支出 15,448所得税影响额 -4,310,521少数股东权益影响额(税后) -5,454合计 12,926,110中国国际贸易中心股份有限公司 2024 年半年度报告对公司将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》未列举的项目认定为的非经常性损益项目且金额重大的,以及将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》中列举的非经常性损益项目界定为经常性损益的项目,应说明原因不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第三节 管理层讨论与分析一、 报告期内公司所属行业及主营业务情况说明报告期内,公司主要从事写字楼、商城、公寓等投资性物业的出租和管理以及酒店经营等。\n公司除所拥有的酒店委托香格里拉国际饭店管理有限公司(以下简称“香格里拉”)进行管理和经营外,其他主营业务均由公司自行进行管理和经营。\n根据原国家质量监督检验检疫总局和国家标准化管理委员会于 2017 年批准发布的国家标准《国民经济行业分类》(GB/T4754-2017),公司属于“房地产业”。公司的营业收入主要来源于写字楼、商城、公寓等投资性物业的出租和管理以及酒店的经营;公司的经营规模、硬件设施、管理和服务、市场地位等,在业内一直处于领先水平。\n二、 报告期内核心竞争力分析公司和控股股东中国国际贸易中心有限公司(以下简称“国贸有限公司”)拥有的中国国际贸易中心(以下简称“国贸中心”)主体建筑群位于寸土寸金的北京中央商务区的核心地段,由写字楼、商城、酒店和公寓等高档商业建筑组成,是目前中国乃至全球规模最大、功能最齐全的高档商务服务综合体之一。\n长期以来,公司凭借多年形成的品牌、区位、综合、资源、管理、服务等各方面优势,在市场上处于领先地位。\n报告期内,公司的核心竞争力未发生重大变化。公司核心竞争力的有关情况除国贸大酒店原家全七福餐厅区域已于上年经调整后重新对外出租,滩万日餐厅及红馆面档已关闭并为新租户进行租区改造外,其他内容详见公司 2021 年半年度报告“第三节管理层讨论与分析”中“报告期内核心竞争力分析”。\n2023 年 12 月,公司国贸大厦 A 座及国贸公寓获得 WELL 铂金级认证。至此,国贸大厦 A 座成为同时获得 LEED 铂金级和 WELL 铂金级双认证的写字楼建筑。公司将持续践行可持续发展的运营理念,不断提升租户和员工的健康、舒适及幸福感。中国国际贸易中心股份有限公司 2024 年半年度报告三、 经营情况的讨论与分析2024 年上半年,北京写字楼市场新增需求仍显疲弱,租金水平持续承压;商业物业市场分化加剧;服务式公寓市场和酒店业表现相对平稳。\n上半年,写字楼市场新增供应较小,但由于需求依旧疲弱,“以价换量”成为市场主流策略,导致平均租金水平进一步下降。尽管二季度净吸纳量环比有所改善,但市场总体空置率仍处于高位。面对不确定的宏观经济环境和外部形势,不少企业保持观望态度,降本增效是其主要策略,新租扩租需求依旧不足。随着下半年预计新增供应的增加,市场去化压力较大,租金水平仍将继续承压。\n商业物业市场租金总体保持平稳,空置率略有下降,但受消费复苏放缓的影响,市场分化加剧。承租需求方面,高端零售销售额同比下降,面对“消费降级”的趋势,高端品牌的扩张更趋于谨慎;定位大众市场的零售和餐饮成为短期内市场需求的主力。项目方面,出租率稳定、客群品质较高、对零售品牌吸引力较大的项目的租金相对稳定;品牌调整或升级改造较多的项目,租金灵活度加大。客流方面,“假期效应”显著,公共节假日客流同比有明显增长。\n服务式公寓市场需求在经历 2023 年的集中释放后趋于平稳,出租率和租金总体较为稳定。但受宏观经济增长放缓和未来不确定性增加的影响,客户预算受限,导致行业竞争加剧,较多高端公寓采用灵活的租金和佣金政策以挖掘和吸引客户。\n酒店业经营总体稳定。受益于国际需求的恢复、大型会展举办数量的增长和较低水平的新增供应,高端酒店的市场表现较为积极,入住率保持较高水平,但同时也面临着企业预算削减和消费降级现象带来的挑战。\n展望下半年,我国宏观经济面临国内有效需求不足、经济运行分化以及外部环境不利影响增多的严峻形势与挑战。经济增长和消费复苏趋缓、外部需求减弱,将会对北京投资性物业租赁市场,尤其是写字楼和商业物业市场造成一定的不利影响。公司将密切关注不断变化的市场形势和政策趋势,尤其是政府关于促进消费和推进高水平对外开放的具体政策,采取更加积极开放的经营策略,对标国际先进标准,改善营商环境和服务水准,持续控本增效,争取完成全年经营目标。\n报告期内,公司通过准确研判市场形势,及时把握市场机遇,采取积极灵活的经营举措并不断提升精细化管理水平,取得了良好的经营业绩。\n报告期内,公司实现营业收入 19.7 亿元,比上年同期增加 0.3 亿元或 1.4%;成本费用 8.7 亿元,比上年同期减少 0.2 亿元或 2.1%;实现利润总额 9.2 亿元,比上年同期中国国际贸易中心股份有限公司 2024 年半年度报告增加 0.5 亿元或 5.4%。扣除非经常性损益后,公司实现利润总额 9.0 亿元,比上年同期增加 0.4 亿元或 4.4%。\n(一) 报告期内公司经营情况的重大变化,以及报告期内发生的对公司经营情况有重大影响和预计未来会有重大影响的事项不适用。\n四、 报告期内主要经营情况(一) 主营业务分析1、 财务报表相关科目变动分析表金额单位:人民币元科目 本期金额上年同期金额本期金额较上年同期增加额变动比例(%)营业收入 1,965,293,521 1,938,364,140 26,929,381 1.39%营业成本 768,803,721 770,020,879 -1,217,158 -0.16%销售费用 36,815,698 39,389,145 -2,573,447 -6.53%管理费用 60,039,827 57,774,196 2,265,631 3.92%财务费用 7,651,091 24,979,965 -17,328,874 -69.37%经营活动产生的现金流量净额 942,423,094 992,637,249 -50,214,155 -5.06%投资活动产生的现金流量净额 -24,310,132 -28,732,557 4,422,425 -15.39%筹资活动产生的现金流量净额 -1,382,395,262 -739,567,213 -642,828,049 86.92%金额单位:人民币元分行业 营业收入 营业成本 毛利率(%)营业收入比上年增减(%)营业成本比上年增减(%)毛利率比上年增减(%)物 业 租 赁及管理 1,709,030,499 533,033,970 68.81% 2.56% 2.80% -0.07%酒店经营 256,263,022 235,769,751 8.00% -5.77% -6.25% 0.47%中国国际贸易中心股份有限公司 2024 年半年度报告(1) 营业收入金额单位:人民币元收入构成项目本期金额占公司主营业务收入比例(%)上年同期金额占公司主营业务收入比例(%)本期金额较上年同期增加额写字楼 767,833,698 39.07% 782,207,780 40.35% -14,374,082商城 656,129,706 33.39% 626,735,904 32.33% 29,393,802公寓 93,980,579 4.78% 87,972,227 4.54% 6,008,352酒店 256,263,022 13.04% 271,961,862 14.03% -15,698,840其他(注) 191,086,516 9.72% 169,486,367 8.75% 21,600,149合计 1,965,293,521 100% 1,938,364,140 100% 26,929,381注:其他收入主要是停车场收入,以及财务报表合并范围内公司子公司的营业收入。\n报告期内,公司主要投资性物业平均租金和出租率情况如下:金额单位:人民币元期末可出租面积(m²)平均租金(元/平方米/月)平均出租率(%)本报告期上年同期 增减 本报告期上年同期 增减A B A-B C D C-D写字楼一期 47,711 586 570 16 87.9% 91.9% -4.0%二期 33,587 575 534 41 98.7% 98.3% 0.4%三期 A 82,057 685 683 2 91.7% 97.3% -5.6%三期 B 42,733 725 736 -11 96.2% 96.6% -0.4%合计 206,088 648 637 11 93.2% 96.2% -3.0%中国国际贸易中心股份有限公司 2024 年半年度报告商城一期 15,353 2,037 1,980 57 100% 99.7% 0.3%二期 5,874 1,194 1,121 73 98.2% 100% -1.8%三期 A 18,086 712 618 94 92.7% 98.3% -5.6%三期 B 26,142 798 736 62 98.1% 98.4% -0.3%东楼 13,675 2,481 2,359 122 95.7% 98.0% -2.3%合计 79,130 1,341 1,257 84 96.9% 98.8% -1.9%公寓 46,734 368 371 -3 88.8% 82.1% 6.7%注:1、平均租金中包含租金和物业管理费。\n2、一期写字楼、三期 A 写字楼出租率同比下降,主要是因有租户租约到期,相关区域正在招租。\n3、三期 A 商城出租率同比下降,主要是因有租户租约到期及提前解约,相关区域正在招租。\n4、三期 A 商城平均租金同比上升,主要是去年二季度的平均租金基数较低。\n(2) 营业成本报告期内,公司营业成本 7.7 亿元,比上年同期减少 0.01 亿元或 0.16%,具体构成情况如下:金额单位:人民币元成本构成项目本期金额本期金额占总成本比例(%)上年同期金额上年同期金额占总成本比例(%)本期金额较上年同期变动比例(%)折旧摊销 224,694,464 29.23% 231,406,613 30.05% -2.90%员工成本 189,323,955 24.63% 194,499,187 25.26% -2.66%能源费 55,875,548 7.27% 52,512,615 6.82% 6.40%维修保养 52,877,982 6.88% 52,779,624 6.85% 0.19%其他(注) 246,031,772 31.99% 238,822,840 31.02% 3.02%合计 768,803,721 100% 770,020,879 100% -0.16%中国国际贸易中心股份有限公司 2024 年半年度报告注:其他费用包括劳务费、清洁费、酒店营业成本及保安费等。\n(3) 费用报告期内,公司的管理费用和销售费用与上年同期相比变动幅度低于 30%;财务费用与上年同期相比减少 69.37%,主要是银行存款利息收入增加,以及因长期借款本金减少,利息费用相应降低。\n(4) 现金流公司现金流量的构成情况详见本报告所附财务报表。\n经营活动产生的现金流量中收到其他与经营活动有关的现金增加,主要是收到 2022年度营业中断保险赔偿 1,619 万元。\n投资活动产生的现金流量中取得投资收益所收到的现金增加,主要是收到联营企业派发的现金股利。\n筹资活动产生的现金流量中偿还债务支付的现金增加,主要是偿还了银行长期借款本金 5,000 万元。\n筹资活动产生的现金流量中分配股利、利润或偿付利息支付的现金增加,主要是分配股利支付的现金增加。\n2、 本期公司业务类型、利润构成或利润来源发生重大变动的详细说明不适用。\n(二) 非主营业务导致利润重大变化的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(三) 资产、负债情况分析1、资产及负债状况金额单位:人民币元项目名称 本期期末数本期期末数占总资产的比例(%)上年年末数上年年末数占总资产的比例(%)本 期 期 末金 额 较 上年 年 末 变动比例(%)货币资金 3,612,151,002 29.69% 4,088,660,385 31.74% -11.65%应收账款 250,165,292 2.06% 258,206,405 2.00% -3.11%预付款项(注①) 22,439,141 0.18% 34,928,835 0.27% -35.76%存货 31,960,550 0.26% 32,289,866 0.25% -1.02%长期股权投资 26,719,203 0.22% 29,422,110 0.23% -9.19%投资性房地产 6,125,467,772 50.34% 6,276,416,500 48.73% -2.41%固定资产 1,428,924,156 11.74% 1,473,897,131 11.44% -3.05%使用权资产 36,842,123 0.30% 38,643,777 0.30% -4.66%其他流动资产(注②) 190,053 0.002% 287,762 0.002% -33.95%合同负债 62,454,004 0.51% 57,757,548 0.45% 8.13%应付职工薪酬(注③) 69,082,880 0.57% 130,561,942 1.01% -47.09%长期借款 1,085,000,000 8.92% 1,085,000,000 8.42% 0租赁负债 37,891,647 0.31% 37,795,541 0.29% 0.25%注:① 预付款项减少,主要是预付的供暖季采暖费摊销计入当期费用。\n② 其他流动资产减少,主要是增值税待抵扣进项税减少。\n③ 应付职工薪酬减少,主要是期初数中包含的应付 2023 年度员工花红已于 2024年一季度支付。中国国际贸易中心股份有限公司 2024 年半年度报告2、 境外资产情况不适用。\n3、 截至报告期末主要资产受限情况(1) 资产抵押和质押情况根据公司经营及发展需要,公司于 2020 年 6 月 19 日召开的 2019 年年度股东大会,同意公司以国贸三期 A 阶段项目部分房产及相应的土地使用权作为抵押担保,向中国建设银行股份有限公司北京华贸支行申请 21.6 亿元人民币商用物业抵押借款,借款期限为 15 年,用于置换 13.8 亿元人民币国贸三期 A 阶段项目建设借款余额和 7.8 亿元人民币国贸三期 B 阶段项目建设借款余额(详见公司 2020 年半年度报告“第四节经营情况的讨论与分析”中“资产抵押和质押情况”)。\n2020 年 8 月 5 日,公司就此与中国建设银行股份有限公司北京华贸支行签署《人民币资金借款合同》及《抵押合同》,借款合同金额 21.55 亿元人民币(上述 21.6 亿元人民币减去签署该借款合同前归还 500 万元人民币),借款期限为 2020 年 8 月 5 日至 2035年 8 月 4 日。\n公司已取得商用物业抵押借款 21.55 亿元人民币,全部偿还了原国贸三期 A 阶段和国贸三期 B 阶段项目建设借款,注销了原有的此两个项目借款的资产抵押担保,完成了商用物业抵押借款的相关资产抵押登记工作,抵押物清单如下:抵押物名称 权属证书 座落 抵押面积(m2)朝 阳 区 建 国门 外 大 街 1号院 1 号楼X 京房权证朝字第 982670 号朝阳区建国门外大街1 号院 1 号楼 189,176.39京朝国用(2014 出)第 00225 号 - -截至报告期末,上述银行长期借款余额减少为 10.85 亿元。\n(2) 受限资金截至报告期末,公司银行存款中受限资金余额为 1.3 亿元,为物业管理项目代管资金(见本报告所附财务报表附注)。中国国际贸易中心股份有限公司 2024 年半年度报告(四) 房地产行业经营性信息分析1、 报告期内房地产储备情况不适用。\n2、 报告期内房地产开发投资情况不适用。\n3、 报告期内房地产销售情况不适用。\n4、 报告期内房地产出租情况金额单位:人民币元地区 项目 经营业态出租房地产的建筑面积(平方米)出租房地产的租金收入权益比例(%)是否采用公允价值计量模式租金收入/房地产公允价值(%)北京中国国际贸易中心写字楼 356,248 750,385,115100% 否 -商城 180,460 622,245,713公寓 80,124 93,296,8525、 报告期内公司财务融资情况报告期末,公司各类融资途径的融资余额、融资成本如下:金额单位:人民币元期末融资余额 利率(1)长期借款中国建设银行股份有限公司北京华贸支行 1,085,000,000 3.90%(2)公司债券“19 国贸 01”公司债券 440,000,000 2.90%中国国际贸易中心股份有限公司 2024 年半年度报告金额单位:人民币元期末融资总额 整体平均融资成本(%) 利息资本化金额1,525,000,000 3.61% -整体平均融资成本=∑(期末单笔融资余额*对应融资利率)/期末融资总额。\n6、其他说明公司所属国贸中心一期、二期建筑物对应的土地使用权全部归属于公司控股股东国贸有限公司,公司以租赁方式获得上述土地的使用权(详细情况见本报告“第六节重要事项”中“承诺事项履行情况”);国贸中心三期建筑物及其对应的土地使用权全部归属于本公司。\n(五) 投资状况分析报告期内,公司无重大股权投资及非股权投资。\n1、 重大的股权投资不适用。\n2、 重大的非股权投资不适用。\n3、 以公允价值计量的金融资产不适用。\n(六) 重大资产和股权出售不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(七) 主要控股参股公司分析公司现主要有一家子公司国贸物业酒店管理有限公司,以及一家联营公司北京时代网星科技有限公司。来源于子公司的净利润或参股公司的投资收益,对公司净利润的影响均在 10%以下。有关情况见本报告所附财务报表附注。\n(八) 公司控制的结构化主体情况不适用。\n五、 其他披露事项(一) 可能面对的风险1、当前国内有效需求不足,经济运行出现分化,外部环境带来的不利影响增多。面对市场低迷、消费不振,行业下行压力加大的形势,公司经营面临更多的困难和挑战,公司营业收入可能不及预期。\n2、公司目前有多栋高层建筑,建筑物本身的特点决定了其火灾危险性远大于一般建筑物;同时,国贸中心为北京的地标性建筑,建筑面积超过 110 万平方米,人员相对密集,公司在治安、反恐等多方面面临更大压力。\n针对上述风险因素,公司将采取的应对措施,见公司 2023 年年度报告中“第三节管理层讨论与分析”中“经营计划”的相关内容。另外,针对公司在消防、治安和反恐等方面存在的潜在风险,公司除采取相应的防范措施外,同时购买了相关商业保险,以在意外发生时从一定程度上减轻相关方利益受到的损害。\n(二) 其他披露事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第四节 公司治理一、 股东大会情况简介会议届次召开日期决议刊登披露日期决议刊登的指定网址的查询索引会议决议2023 年 年度股东大会 2024-4-26 2024-4-27 www.sse.com.cn1、审议通过公司 2023 年度董事会工作报告。\n2、审议通过公司 2023 年度财务决算。\n3、审议通过公司 2023 年年度利润分配及特别分红方案。\n4、审议通过支付普华永道中天会计师事务所(特殊普通合伙)2023年度审计报酬的议案。\n5、审议通过公司 2023 年年度报告。\n6、审议通过公司董事长及副董事长 2024 年度薪酬计划的议案。\n7、审议通过续聘会计师事务所的议案。\n8、审议通过公司 2023 年度监事会工作报告。\n9、审议通过关于修改《中国国际贸易中心股份有限公司章程》的议案。\n10、审议通过关于修改《中国国际贸易中心股份有限公司董事会议事规则》的议案。\n11、审议通过胡燕敏女士不再担任公司第九届监事会监事的议案。\n12、审议通过选举江咏仪女士为公司第九届监事会监事的议案。中国国际贸易中心股份有限公司 2024 年半年度报告2024 年 第一次临时股东大会2024-6-28 2024-6-29 www.sse.com.cn1、审议通过林明志先生自 2024 年7 月 1 日起不再担任公司第九届董事会董事的议案。\n2、审议通过黄国祥先生自 2024 年7 月 1 日起为公司第九届董事会董事的议案。\n(一) 表决权恢复的优先股股东请求召开临时股东大会不适用。\n二、 公司董事、监事、高级管理人员变动情况(一)2024 年 4 月 26 日,公司召开 2023 年年度股东大会,会议审议通过了胡燕敏女士不再担任公司第九届监事会监事及选举江咏仪女士为公司第九届监事会监事的议案。\n上述事项详见公司于 2024 年 4 月 27 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n(二)2024 年 4 月 28 日,公司召开九届八次董事会会议,会议同意自 2024 年 5 月1 日起林南春先生不再担任公司副总经理、财务负责人及自 2024 年 5 月 1 日起聘任胡燕敏女士担任公司副总经理、财务负责人的议案。\n上述事项详见公司于 2024 年 4 月 30 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n(三)2024 年 6 月 28 日,公司召开 2024 年第一次临时股东大会,审议通过林明志先生自 2024 年 7 月 1 日起不再担任公司第九届董事会董事及黄国祥先生自 2024 年 7 月1 日起为公司第九届董事会董事的议案。\n2024 年 7 月 1 日,公司召开九届十次董事会会议,选举黄国祥先生为公司第九届董事会董事长、执行董事及薪酬委员会委员,并同意黄国祥先生接替林明志先生担任饭店政策执行委员会委员。\n上述事项详见公司分别于 2024 年 6 月 29 日及 7 月 2 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。中国国际贸易中心股份有限公司 2024 年半年度报告三、 利润分配或资本公积金转增预案(一) 半年度拟定的利润分配预案、公积金转增股本预案不适用。\n四、 公司股权激励计划、员工持股计划或其他员工激励措施的情况及其影响不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第五节 环境与社会责任一、 环境信息情况(一) 属于环境保护部门公布的重点排污单位的公司及其主要子公司的环保情况说明不适用。\n(二) 重点排污单位之外的公司环保情况说明报告期内,公司未因环境问题受到行政处罚。\n(三) 报告期内披露环境信息内容的后续进展或变化情况的说明不适用。\n(四) 有利于保护生态、防治污染、履行环境责任的相关信息报告期内,公司完成了国贸一期(南区)、二期(中区)地下停车场、国贸大厦 A 座首层及 32 层大堂客梯厅装饰灯,以及国贸商城北区后勤区及机房等区域的智慧照明改造项目。通过将光源升级为智能控制的照明灯管,实现智慧照明节能控制全自动化,按需照明、无感节能。据测算,通过智慧照明改造可年节电 85 万千瓦时,节能 114.75 吨标准煤。\n(五) 在报告期内为减少其碳排放所采取的措施及效果公司积极贯彻落实国家节能减排政策,报告期内对部分设备设施进行了节能改造,得益于节能技改工作的有效实施,能源消耗总量和碳排放量增长均低于业务增长水平。\n另外,公司作为北京市重点排放单位,积极支持国家的双碳目标实现,参与市场化绿电交易,助力全市可再生能源电力消纳工作。\n二、 巩固拓展脱贫攻坚成果、乡村振兴等工作具体情况(一) “中国国贸小学”2019 年 6 月,四川省宜宾市长宁县发生 6.0 级地震。地震共造成 13 人死亡,226中国国际贸易中心股份有限公司 2024 年半年度报告人受伤。公司通过中国扶贫基金会了解到位于震中地区的长宁县硐底镇石垭小学的全部建筑已经被鉴定为危房,在校 300 余名学生面临无校舍学习的情况,会同国贸有限公司投资 800 万元(其中,公司出资 450 万元),资助学校的震后重建计划,该所小学也因此命名为“中国国贸小学”。\n目前,中国国贸小学已建成并投入使用,成为长宁县基础设施最好的乡村小学校。\n学校占地面积 1,030 平方米,包括新建 3 层教学楼及食堂,建筑面积为 2,265 平方米,配备停车位 6 个,可同时容纳 300 名学生就读。\n报告期内,公司根据国贸小学的实际情况,为学校统一购置了夏季校服、零食、文具和文体用品,以进一步改善学校的教学条件、丰富学生的课余生活。6 月,公司总经理支陆逊先生带队前往学校捐赠校服和体育用品、看望和慰问师生、开展公益课堂活动;7 月,公司组织学校 16 名优秀学生和 4 名老师赴北京开展夏令营活动,使学生们开阔视野、增长见闻、培养爱国主义情怀和民族自豪感。中国国际贸易中心股份有限公司 2024 年半年度报告第六节 重要事项一、 承诺事项履行情况(一) 公司实际控制人、股东、关联方、收购人以及公司等承诺相关方在报告期内或持续到报告期内的承诺事项1、 与首次公开发行相关的承诺(1)1998 年 9 月 2 日,公司与国贸有限公司签订《土地使用权租赁合同》。2008 年7 月 28 日,双方签署了该合同的补充协议。根据协议,国贸有限公司租赁国贸写字楼、国贸商场、国贸公寓、国贸展厅及多层停车场等所对应的 13,936.5 平方米土地使用权给公司使用,租赁期限自 1998 年 10 月 1 日起至 2038 年 8 月 29 日止,每年的土地租赁费为 1,393,650 元。另外,国贸有限公司还向公司收取其缴纳的该土地的使用税及营业税等。2011 年 12 月 30 日,公司与国贸有限公司签订《增加国贸一期土地租赁费协议》,鉴于根据国家有关规定,自 2011 年 1 月 1 日起,国贸有限公司应为上述公司租赁和使用的国贸一期土地缴纳房产税,因此,相应地向公司增加收取国贸一期的土地租赁费。\n根据 1999 年 10 月 1 日起实施的《合同法》及相关司法解释,租赁合同的租赁期限不得超过二十年,超过二十年的,超过部分无效。因此,上述公司与国贸有限公司签订的国贸一期《土地使用权租赁合同》及补充协议已于 2019 年 9 月 30 日到期。\n为了保证公司的正常经营,公司于 2020 年 4 月 24 日召开的七届十八次董事会会议,审议同意公司与国贸有限公司续签国贸一期《土地使用权租赁合同》,租用期限自2019 年 10 月 1 日起至 2038 年 8 月 29 日止,租金单价和总价、租赁地块面积和违约责任等重要条款和条件与原合同及补充协议一致。\n该事项内容详见公司于 2020 年 4 月 28 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)上披露的“关于公司与控股股东续签国贸一期《土地使用权租赁合同》关联交易的公告”。\n(2)1998 年 9 月 2 日,公司与国贸有限公司签订《合作建设国贸二期工程协议书》,由于国贸二期工程占用土地的使用权由国贸有限公司以出让方式取得,公司和国贸有限公司将按照投资比例分摊土地使用权费。从 2000 年起至 2038 年 8 月 29 日,国贸有限公司每年向公司收取土地使用权费 882,000 元。2009 年 3 月 24 日,公司与国贸有限公司签订《国贸二期土地使用税分摊协议》,根据协议,国贸有限公司向公司收取其缴纳的国贸二期土地的部分使用税及营业税等。2011 年 12 月 30 日,公司与国贸有限公司签订中国国际贸易中心股份有限公司 2024 年半年度报告《增加国贸二期土地租赁费协议》,鉴于根据国家有关规定,自 2011 年 1 月 1 日起,国贸有限公司应为公司租赁和使用的国贸二期土地缴纳房产税,因此,相应地向公司增加收取国贸二期的部分土地使用权费。截至 2024 年 8 月 30 日,上述承诺仍在履行中。\n二、 报告期内控股股东及其他关联方非经营性占用资金情况不适用。\n三、 违规担保情况不适用。\n四、 半年报审计情况(一) 聘任、解聘会计师事务所情况经公司 2023 年年度股东大会审议批准,公司续聘普华永道中天会计师事务所(特殊普通合伙)对公司 2024 年度财务报告及其内部控制进行审计,以及对公司 2024 年半年度财务报告进行审阅。\n(二) 公司对会计师事务所“非标准意见审计报告”的说明不适用。\n五、 上年年度报告非标准审计意见涉及事项的变化及处理情况不适用。\n六、 破产重整相关事项不适用。\n七、 重大诉讼、仲裁事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告八、 上市公司及其董事、监事、高级管理人员、控股股东、实际控制人涉嫌违法违规、受到处罚及整改情况不适用。\n九、 报告期内公司及其控股股东、实际控制人诚信状况的说明不适用。\n十、 重大关联交易(一) 与日常经营相关的关联交易1、 已在临时公告披露且后续实施无进展或变化的事项不适用。\n2、 已在临时公告披露,但有后续实施的进展或变化的事项见本报告所附财务报表附注“关联方关系及其交易”。\n3、 临时公告未披露的事项不适用。\n(二) 资产收购或股权收购、出售发生的关联交易不适用。\n(三) 共同对外投资的重大关联交易不适用。\n(四) 关联债权债务往来1、 已在临时公告披露且后续实施无进展或变化的事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告2、 已在临时公告披露,但有后续实施的进展或变化的事项不适用。\n3、 临时公告未披露的事项金额单位:人民币元关联方 关联关系向关联方提供资金 关联方向上市公司提供资金期初余额 发生额 期末余额期初余额 发生额 期末余额中 国 国 际贸 易 中 心有限公司母公司 0 14,621,646 0 262,588 37,070,518 4,902,588关联债权债务形成原因 能源费、业务往来款、租金押金等。\n关联债权债务对公司经营成果及财务状况的影响 对公司经营成果及财务状况无重大影响。\n(五) 公司与存在关联关系的财务公司、公司控股财务公司与关联方之间的金融业务不适用。\n(六) 其他重大关联交易不适用。\n十一、 重大合同及其履行情况(一) 托管、承包、租赁事项不适用。\n(二) 报告期内履行的及尚未履行完毕的重大担保情况不适用。\n(三) 其他重大合同不适用。中国国际贸易中心股份有限公司 2024 年半年度报告十二、 募集资金使用进展不适用。\n十三、 其他重大事项的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第七节 股份变动及股东情况一、 股本变动情况(一) 股份变动情况表报告期内,公司股份总数及股本结构未发生变化。\n(二) 限售股份变动情况不适用。\n二、 股东情况(一) 截至报告期末前十名股东、前十名流通股东(或无限售条件股东)持股情况表单位:股截至报告期末普通股股东总数(户) 12,357前十名股东持股情况(不含通过转融通出借股份)股东名称 股东性质期末持股数量持股比例(%)持有有限售条件股份数量质押、标记或冻结情况中国国际贸易中心有限公司 其他 812,360,241 80.65% 0 无易方达基金管理有限公司-社保基金 1104 组合 未知 24,141,400 2.40% 未知 未知香港中央结算有限公司 未知 13,058,260 1.30% 未知 未知中国银行股份有限公司-易方达蓝筹精选混合型证券投资基金未知 12,700,085 1.26% 未知 未知易方达泰利增长股票型养老金产品-中国工商银行股份有限公司未知 10,650,000 1.06% 未知 未知顾青 未知 7,440,000 0.74% 未知 未知中国银行股份有限公司-易方达优质精选混合型证券投资基金未知 7,200,021 0.71% 未知 未知吴宝珍 未知 5,839,300 0.58% 未知 未知吴悦 未知 5,008,200 0.50% 未知 未知徐鹏达 未知 4,953,310 0.49% 未知 未知中国国际贸易中心股份有限公司 2024 年半年度报告前十名股东中回购专户情况说明 不适用。\n上述股东委托表决权、受托表决权、放弃表决权的说明 不适用。\n上述股东关联关系或一致行动的说明中国国际贸易中心有限公司与其他股东之间不存在关联关系,也不属于一致行动人;未知其他股东之间是否存在关联关系或属于一致行动人。\n表决权恢复的优先股股东及持股数量的说明 不适用。\n截至报告期末持有公司 5%以上股份的股东只有中国国际贸易中心有限公司,其在报告期内持有公司股份数量未发生变动。\n持股 5%以上股东、前十名股东及前十名无限售流通股股东参与转融通业务出借股份情况单位:股持股 5%以上股东、前十名股东及前十名无限售流通股股东参与转融通业务出借股份情况股东名称期初普通账户、信用账户持股期初转融通出借股份且尚未归还期末普通账户、信用账户持股期末转融通出借股份且尚未归还数量合计 比例(%) 数量合计 比例(%) 数量合计 比例(%) 数量合计 比例(%)易方达基金管理有限公司-社保基金 1104组合25,335,635 2.52% 864,500 0.086% 24,141,400 2.40% 58,600 0.006%前十名股东及前十名无限售流通股股东因转融通出借/归还原因导致较上期发生变化不适用。\n(二) 战略投资者或一般法人因配售新股成为前十名股东不适用。中国国际贸易中心股份有限公司 2024 年半年度报告三、 董事、监事和高级管理人员情况(一) 现任及报告期内离任董事、监事和高级管理人员持股变动情况不适用。\n(二) 董事、监事、高级管理人员报告期内被授予的股权激励情况不适用。\n四、 控股股东或实际控制人变更情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第八节 优先股相关情况不适用。\n第九节 债券相关情况一、 公司债券(含企业债券)和非金融企业债务融资工具(一)公司债券(含企业债券)1、 公司债券基本情况金额单位:人民币元债券名称 简称 代码 发行及起息日 到期日 债券余额 利率 还本付息方式交易场所主承销商及受托管理人中国国际贸易中心股份有限公司 2019年公司债券(面向合格投资者)(第一期)19国贸01155735 2019-9-26 2024-9-26 440,000,000 2.90%每 年 付息一次,到 期 一次还本,最 后 一期 利 息随 本 金一 起 支付上 海证 券交 易所华泰联合证券有限责任公司“19 国贸 01”公司债券在上海证券交易所公开发行并上市交易,不存在终止上市交易的风险。“19 国贸 01”公司债券期限为 5 年期,附第 3 年末发行人调整票面利率选择权和投资者回售选择权。具体情况详情见以下“发行人或投资者选择权条款、投资者保护条款的触发和执行情况”的相关内容。\n2、 发行人或投资者选择权条款、投资者保护条款的触发和执行情况根据公开披露的《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)募集说明书》,“19 国贸 01”公司债券附发行人调整票面利率选择权和投资者回售选择权。公司有权决定是否在本期债券存续期的第 3 年末调整本期债券后 2 年的票面利率;债券持有人有权在公司发出关于是否调整本期债券的票面利率及调整幅度的公告后,选择在公告的投资者回售登记期内进行登记,将持有的本期债券按面值全部或部分回售给公司。中国国际贸易中心股份有限公司 2024 年半年度报告2022 年 8 月 12 日,公司发布了《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)2022 年票面利率调整公告》,决定下调“19 国贸01”后 2 年的票面利率为 2.9%;同时,发布了《中国国际贸易中心股份有限公司 2019年公开发行公司债券(面向合格投资者)(第一期)2022 年债券回售实施公告》,“19 国贸 01”公司债券部分持有人在回售登记期内(2022 年 8 月 12 日至 2022 年 8 月 16 日)对其持有的“19 国贸 01”公司债券登记回售,回售价格为债券面值(100 元/张)。\n2022 年 9 月 20 日,公司发布了《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)2022 年债券回售实施结果公告》,回售有效登记数量为 60,000 手,回售金额为 60,000,000 元,回售资金兑付日为 2022 年 9 月 26 日。\n本次回售实施完毕后,“19 国贸 01”债券在上海证券交易所上市并交易的数量为 440,000手,债券余额为 440,000,000 元。\n上述内容详见公司在上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n3、 信用评级结果调整情况不适用。\n4、 担保情况、偿债计划及其他偿债保障措施在报告期内的执行和变化情况及其影响(1) 担保情况报告期内,“19 国贸 01”公司债券的担保方式为无担保,未发生变更。\n(2) 偿债计划公司为“19 国贸 01”公司债券制定了偿债计划:“19 国贸 01”公司债券发行后,公司将根据债务结构进一步加强资产负债管理、流动性管理和募集资金运用管理,保证资金按计划使用,及时、足额准备资金用于每年的利息支付和到期的本金兑付,以充分保障投资者的利益。“19 国贸 01”公司债券的偿债资金主要来源于公司日常经营产生的现金流,此外公司还为“19 国贸 01”公司债券制定了偿债应急保障方案,在现金流量不足的情况下公司将通过流动资产变现获得必要的偿债资金。中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司制定的偿债计划执行情况良好,未发生变更,与“19 国贸 01”公司债券募集说明书的相关承诺一致。\n(3) 偿债保障措施公司为“19 国贸 01”公司债券制定了偿债保障措施。为了充分、有效地维护债券持有人的利益,公司为本期债券的按时、足额偿付制定了一系列工作计划,包括确定专门部门与人员、安排偿债资金、制定并严格执行资金管理计划、充分发挥债券受托管理人的作用和严格履行信息披露义务等,努力形成一套确保债券安全兑付的保障措施。\n在出现预计不能按期偿付债券本息或者到期未能按期偿付债券本息时,公司将制定至少采取如下措施的方案并提请公司股东大会批准:1、不向股东分配利润;2、暂缓重大对外投资、收购兼并等资本性支出项目的实施;3、调减或停发董事和高级管理人员的工资和奖金;4、主要责任人不得调离。\n报告期内,公司制定的上述偿债计划执行情况良好,未发生变更,与“19 国贸 01”公司债券募集说明书的相关承诺一致。\n(二) 银行间债券市场非金融企业债务融资工具不适用。\n(三) 公司债券募集资金情况本公司所有公司债券在报告期内均不涉及募集资金使用或者整改。\n(四) 专项品种债券应当披露的其他事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(五) 报告期内公司债券相关重要事项1、 非经营性往来占款和资金拆借不适用。\n2、 负债情况(1) 有息债务及其变动情况1.1 公司债务结构情况报告期初和报告期末,公司(非公司合并范围口径)有息债务余额分别为 15.75 亿元和 15.25 亿元,报告期内有息债务余额同比下降 3.17 %。\n金额单位:人民币元有息债务类别到期时间金额合计金额占有息债务的占比(%)已逾期 6 个月以内(含) 6 个月以上公司信用类债券 440,000,000 440,000,000 28.85%银行贷款 1,085,000,000 1,085,000,000 71.15%非银行金融机构贷款其他有息债务合计 440,000,000 1,085,000,000 1,525,000,000 100%报告期末,公司存续的公司信用类债券中,公司债券余额 4.4 亿元,无企业债券和非金融企业债务融资工具,4.4 亿元公司信用类债券在 2024 年 9 月到期偿付。\n1.2 公司合并口径有息债务结构情况公司合并口径有息债务结构情况与公司(非公司合并范围口径)有息债务结构情况相同。详见前述“公司债务结构情况”。\n1.3 境外债券情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(2) 报告期末公司及其子公司存在逾期金额超过 1000 万元的有息债务或者公司信用类债券逾期情况不适用。\n(3) 主要负债情况及其变动原因金额单位:人民币元负债项目 本期末余额 2023 年余额 变动比例(%)变动比例超过 30%的,说明原因应付账款 92,747,360 96,988,767 -4.37% -预收款项 43,172,273 35,677,643 21.01% -合同负债 62,454,004 57,757,548 8.13% -应付职工薪酬 69,082,880 130,561,942 -47.09%主要是期初数中包含的应付 2023 年度员工花红已于 2024 年一季度支付。\n应交税费 128,507,556 104,948,555 22.45% -其他应付款 1,112,682,011 1,130,882,781 -1.61% -一 年 内 到 期 的非流动负债 453,341,061 497,538,270 -8.88%主要是偿还了银行长期借款本金 5,000 万元。\n长期借款 1,085,000,000 1,085,000,000 0 -租赁负债 37,891,647 37,795,541 0.25% -(4) 可对抗第三人的优先偿付负债情况不适用。\n(六) 公司报告期内合并报表范围亏损超过上年末净资产 10%不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(七) 主要会计数据和财务指标金额单位:人民币元主要指标 本报告期末 上年度末本报告期末比上年度末增减(%)变动原因流动比率 2.00 2.15 -6.98% -速动比率 1.98 2.14 -7.48% -资产负债率 25.35% 24.67% 0.68% -本报告期(1-6 月) 上年同期本报告期比上年同期增减(%)变动原因扣除非经常性损益后净利润 674,611,113 647,510,217 4.19% -EBITDA 全部债务比 0.75 0.54 38.89%主要为长期借款本金减少,利息费用相应降低。\n利息保障倍数 32.81 22.48 45.95% 同上现金利息保障倍数 53.97 36.94 46.10% 同上EBITDA 利息保障倍数 40.84 28.37 43.95% 同上贷款偿还率 100% 100% 0 -利息偿付率 100% 100% 0 -注:①流动比率=流动资产÷流动负债;②速动比率=(流动资产-存货)÷流动负债;③资产负债率=负债总额÷资产总额×100%;④扣除非经常性损益后净利润=净利润-非经常性损益;⑤EBITDA 全部债务比
10月 14 12:47:34 gpu ollama[24746]: =(息税折旧摊销前利润/全部债务),全部债务=长期借款+应付债券+短期借款+交易性金融负债+应付票据+应付短期债券+一年内到期的非流动负债+租赁负债+其他有息债务;⑥利息保障倍数=息税前利润/(计入财务费用的利息支出+资本化的利息支出);⑦现金利息保障倍数=(经营活动产生的现金流量净额+现金利息支出+所得税付现)/现金利息支出;中国国际贸易中心股份有限公司 2024 年半年度报告⑧EBITDA 利息保障倍数=息税折旧摊销前利润/(计入财务费用的利息支出+资本化的利息支出);⑨贷款偿还率=实际贷款偿还额/应偿还贷款额;⑩利息偿付率=实际支付利息/应付利息。\n二、 可转换公司债券情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第十节 财务报告一、 审计报告公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅(审阅报告如附件),未经审计。\n二、 财务报表如附件。\n附件:中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告中国国际贸易中心股份有限公司董事长: 黄国祥2024 年 8 月 30 日中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告页码审阅报告 1截至 2024 年 6 月 30 日 6 个月期间财务报表合并及公司资产负债表 1合并及公司利润表 2合并及公司现金流量表 3合并股东权益变动表 4公司股东权益变动表 5财务报表附注 6 - 79补充资料 1审阅报告普华永道中天阅字(2024)第 0028 号中国国际贸易中心股份有限公司全体股东:我们审阅了后附的中国国际贸易中心股份有限公司(以下简称“国贸股份公司”)的中期财务报表,包括 2024 年 6 月 30 日的合并及公司资产负债表,截至 2024年 6 月 30 日止六个月期间的合并及公司利润表、合并及公司现金流量表、合并及公司股东权益变动表以及中期财务报表附注。按照企业会计准则的规定编制中期财务报表是国贸股份公司管理层的责任,我们的责任是在实施审阅工作的基础上对中期财务报表出具审阅报告。\n我们按照《中国注册会计师审阅准则第 2101 号—财务报表审阅》的规定执行了审阅业务。该准则要求我们计划和实施审阅工作,以对中期财务报表是否不存在重大错报获取有限保证。审阅主要限于询问公司有关人员和对财务数据实施分析程序,提供的保证程度低于审计。我们没有实施审计,因而不发表审计意见。\n根据我们的审阅,我们没有注意到任何事项使我们相信上述中期财务报表没有按照企业会计准则的规定编制,未能在所有重大方面公允反映国贸股份公司 2024年 6 月 30 日的合并及公司财务状况以及截至 2024 年 6 月 30 日止六个月期间的合并及公司经营成果和现金流量。\n普华永道中天会计师事务所(特殊普通合伙)中国•上海市2024年 8 月30日注册会计师注册会计师———————王 蕾———————赵 欢中国国际贸易中心股份有限公司2024年6月30日合并及公司资产负债表(除特别注明外,金额单位为人民币元)资 产 附注 2024年6月30日合并2023年12月31日合并2024年6月30日公司2023年12月31日公司流动资产货币资金 四.1 3,612,151,002 4,088,660,385 3,353,563,638 3,810,663,602应收账款 四.2, 四.15, 十二.1 250,165,292 258,206,405 175,543,015 190,239,917预付款项 四.3 22,439,141 34,928,835 8,372,090 21,781,078其他应收款 四.4, 十二.2 6,879,463 9,782,516 4,467,514 5,993,230存货 四.5 31,960,550 32,289,866 30,998,223 31,324,515其他流动资产 四.6 190,053 287,762 - -流动资产合计 3,923,785,501 4,424,155,769 3,572,944,480 4,060,002,342非流动资产长期股权投资 四.7, 十二.3 26,719,203 29,422,110 30,391,146 35,545,395投资性房地产 四.8 6,125,467,772 6,276,416,500 6,125,467,772 6,276,416,500固定资产 四.9 1,428,924,156 1,473,897,131 1,426,286,206 1,470,949,828使用权资产 四.10 36,842,123 38,643,777 36,842,123 38,643,777无形资产 四.11 440,578,881 448,308,338 440,578,881 448,308,338长期待摊费用 四.12 82,933,631 86,583,575 82,877,737 85,833,756递延所得税资产 四.13 66,319,049 66,716,127 66,145,350 66,549,511其他非流动资产 四.14 35,785,606 36,991,708 35,785,606 36,991,708非流动资产合计 8,243,570,421 8,456,979,266 8,244,374,821 8,459,238,813资产总计 12,167,355,922 12,881,135,035 11,817,319,301 12,519,241,155流动负债应付账款 四.16 92,747,360 96,988,767 21,155,831 24,254,342预收款项 四.17 43,172,273 35,677,643 43,172,273 35,677,643合同负债 四.18 62,454,004 57,757,548 48,378,609 48,212,006应付职工薪酬 四.19 69,082,880 130,561,942 61,724,676 111,289,172应交税费 四.20 128,507,556 104,948,555 125,344,471 98,360,595其他应付款 四.21 1,112,682,011 1,130,882,781 933,995,382 943,827,118一年内到期的非流动负债 四.22 453,341,061 497,538,270 453,341,061 497,538,270流动负债合计 1,961,987,145 2,054,355,506 1,687,112,303 1,759,159,146非流动负债长期借款 四.23 1,085,000,000 1,085,000,000 1,085,000,000 1,085,000,000租赁负债 四.24 37,891,647 37,795,541 37,891,647 37,795,541非流动负债合计 1,122,891,647 1,122,795,541 1,122,891,647 1,122,795,541负债合计 3,084,878,792 3,177,151,047 2,810,003,950 2,881,954,687股东权益股本 四.25 1,007,282,534 1,007,282,534 1,007,282,534 1,007,282,534资本公积 四.26 1,873,587,184 1,873,587,184 1,872,501,925 1,872,501,925盈余公积 四.27 503,641,267 503,641,267 503,641,267 503,641,267未分配利润 四.28 5,693,717,271 6,315,647,342 5,623,889,625 6,253,860,742归属于母公司股东权益合计 9,078,228,256 9,700,158,327 9,007,315,351 9,637,286,468少数股东权益 4,248,874 3,825,661 —— ——股东权益合计 9,082,477,130 9,703,983,988 9,007,315,351 9,637,286,468负债和股东权益总计 12,167,355,922 12,881,135,035 11,817,319,301 12,519,241,155后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并及公司利润表(除特别注明外,金额单位为人民币元)2024年1至6月 2023年1至6月 2024年1至6月 2023年1至6月合并 合并 公司 公司四.29, 十二.4 1,965,293,521 1,938,364,140 1,809,562,667 1,804,419,444减: 营业成本 四.29, 十二.4 (768,803,721) (770,020,879) (623,801,568) (642,110,612)税金及附加 四.30 (193,397,506) (188,800,718) (192,867,785) (188,428,915)销售费用 四.31 (36,815,698) (39,389,145) (36,496,378) (38,758,305)管理费用 四.32 (60,039,827) (57,774,196) (60,382,662) (58,040,046)财务费用 四.33 (7,651,091) (24,979,965) (8,083,676) (25,287,526)其中:利息费用 28,826,865 40,499,642 28,826,865 40,499,642利息收入 22,575,706 17,074,023 22,113,208 16,753,743加: 其他收益 四.36 593,107 3,283,091 403,768 2,604,991投资收益/(损失) 四.37, 十二.5 1,177,093 1,767,975 725,751 (8,135,290)其中:对联营企业的投资收益 1,177,093 1,767,975 725,751 1,549,010信用减值(损失)/转回 四.35 (28,332) 149,374 - -900,327,546 862,599,677 889,060,117 846,263,741加: 营业外收入 四.38 17,896,806 9,237,099 17,810,752 9,237,099减: 营业外支出 四.39 (1,124,245) (1,939,649) (1,117,883) (1,939,649)917,100,107 869,897,127 905,752,986 853,561,191减: 所得税费用 四.40 (229,139,671) (215,874,488) (226,256,809) (212,806,468)687,960,436 654,022,639 679,496,177 640,754,723按经营持续性分类持续经营净利润 687,960,436 654,022,639 679,496,177 640,754,723按所有权归属分类归属于母公司股东的净利润 687,537,223 653,651,170 679,496,177 640,754,723少数股东损益 423,213 371,469 —— ——基本和稀释每股收益 四.41 0.68 0.65 —— ——- - - -687,960,436 654,022,639 679,496,177 640,754,723归属于母公司股东的综合收益总额 687,537,223 653,651,170 679,496,177 640,754,723归属于少数股东的综合收益总额 423,213 371,469 —— ——后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳六、其他综合收益七、综合收益总额五、每股收益附注项 目四、净利润三、利润总额二、营业利润一、营业收入中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并及公司现金流量表(除特别注明外,金额单位为人民币元)2024年1至6月 2023年1至6月 2024年1至6月 2023年1至6月合并 合并 公司 公司一、经营活动产生的现金流量销售商品、提供劳务收到的现金 2,108,988,672 2,108,595,081 1,939,212,905 1,971,577,995收到其他与经营活动有关的现金 四.42(1) 45,091,814 20,897,287 42,810,976 23,584,649经营活动现金流入小计 2,154,080,486 2,129,492,368 1,982,023,881 1,995,162,644购买商品、接受劳务支付的现金 (320,160,677) (282,839,226) (232,065,483) (223,045,359)支付给职工以及为职工支付的现金 (289,542,953) (266,036,145) (218,875,852) (198,501,514)支付的各项税费 (487,672,363) (466,817,279) (471,313,701) (455,326,556)支付其他与经营活动有关的现金 四.42(2) (114,281,399) (121,162,469) (114,234,285) (120,376,645)经营活动现金流出小计 (1,211,657,392) (1,136,855,119) (1,036,489,321) (997,250,074)经营活动产生的现金流量净额 四.43(1) 942,423,094 992,637,249 945,534,560 997,912,570二、投资活动产生的现金流量取得投资收益所收到的现金 5,880,000 900,000 5,880,000 -处置固定资产、无形资产和其他长期资产 收回的现金净额 209,611 194,912 209,611 194,912处置子公司及其他营业单位收到的现金净额 - - - 315,700投资活动现金流入小计 6,089,611 1,094,912 6,089,611 510,612购建固定资产、无形资产和其他长期资产支付的现金 (28,399,743) (29,827,469) (28,172,955) (29,493,368)投资支付的现金 (2,000,000) - - -投资活动现金流出小计 (30,399,743) (29,827,469) (28,172,955) (29,493,368)投资活动产生的现金流量净额 (24,310,132) (28,732,557) (22,083,344) (28,982,756)三、筹资活动产生的现金流量偿还债务支付的现金 (50,000,000) - (50,000,000) -分配股利、利润或偿付利息支付的现金 (1,331,191,378) (738,363,329) (1,331,191,378) (738,363,329)其中:子公司支付给少数股东的股利、利润 - - - -支付的其他与筹资活动有关的现金 四.42(3) (1,203,884) (1,203,884) (1,203,884) (1,203,884)筹资活动现金流出小计 四.43(3) (1,382,395,262) (739,567,213) (1,382,395,262) (739,567,213)筹资活动产生的现金流量净额 四.43(3) (1,382,395,262) (739,567,213) (1,382,395,262) (739,567,213)四、汇率变动对现金及现金等价物的影响 1,655 (405,143) 1,655 (405,143)五、现金及现金等价物净增加额 (464,280,645) 223,932,336 (458,942,391) 228,957,458加:期初现金及现金等价物余额 四.43(2) 3,890,169,116 3,326,552,300 3,756,387,330 3,204,663,519六、期末现金及现金等价物余额 四.43(4) 3,425,888,471 3,550,484,636 3,297,444,939 3,433,620,977后附财务报表附注为财务报表的组成部分。\n项 目 附注企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并股东权益变动表(除特别注明外,金额单位为人民币元)2023年1月1日余额 1,007,282,534 1,872,984,978 503,641,267 5,761,543,789 3,525,797 9,148,978,3652023年度增减变动额净利润 - - - 1,259,201,327 902,070 1,260,103,397股东投入和减少资本向少数股东处置子公司部分股权 - 602,206 - - (602,206) -利润分配对股东的分配 四.28 - - - (705,097,774) - (705,097,774)2023年12月31日余额 1,007,282,534 1,873,587,184 503,641,267 6,315,647,342 3,825,661 9,703,983,9882024年1月1日余额 1,007,282,534 1,873,587,184 503,641,267 6,315,647,342 3,825,661 9,703,983,9882024年1至6月增减变动额净利润 - - - 687,537,223 423,213 687,960,436利润分配对股东的分配 四.28 - - - (1,309,467,294) - (1,309,467,294)2024年6月30日余额 1,007,282,534 1,873,587,184 503,641,267 5,693,717,271 4,248,874 9,082,477,130后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳股东权益合计归属于母公司股东权益项目 附注 股本 资本公积 盈余公积 未分配利润 少数股东权益中国国际贸易中心股份有限公司截至2024年6月30日6个月期间公司股东权益变动表(除特别注明外,金额单位为人民币元)2023年1月1日余额 1,007,282,534 1,872,501,925 503,641,267 5,722,735,059 9,106,160,7852023年度增减变动额净利润 - - - 1,236,223,457 1,236,223,457利润分配对股东的分配 四.28 - - - (705,097,774) (705,097,774)2023年12月31日余额 1,007,282,534 1,872,501,925 503,641,267 6,253,860,742 9,637,286,4682024年1月1日余额 1,007,282,534 1,872,501,925 503,641,267 6,253,860,742 9,637,286,4682024年1至6月增减变动额净利润 - - - 679,496,177 679,496,177利润分配对股东的分配 四.28 - - - (1,309,467,294) (1,309,467,294)2024年6月30日余额 1,007,282,534 1,872,501,925 503,641,267 5,623,889,625 9,007,315,351后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳项目 附注 股本 股东权益合计资本公积 盈余公积 未分配利润中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)一 公司基本情况中国国际贸易中心股份有限公司(以下称“本公司”)是经原国家体改委体改生【1997】第 161 号文批准,由中国国际贸易中心有限公司(以下称“国贸有限公司”)于 1997 年 10 月 15 日独家发起设立的股份有限公司。本公司设立时总股本为 640,000,000 股,每股面值为 1 元。\n国贸有限公司是于 1985 年 2 月 12 日成立的中外合资经营企业,中外合资双方分别为中国世贸投资有限公司和嘉里兴业有限公司(一家于香港注册的公司),双方权益各占 50%。\n本公司于 1999 年向社会公开发售人民币普通股(A 股)160,000,000 股,并收到募集资金净额 854,240,000 元,其中股本为 160,000,000 元,计入资本公积的股本溢价为 694,240,000 元。收到募集资金后,本公司的总股本为800,000,000 元。\n2006 年 10 月 30 日,本公司完成向国贸有限公司非公开发行人民币普通股(A 股)207,282,534 股。国贸有限公司以其持有的对本公司 1,210,530,000 元债 权 全 额 认 购 , 从 而 本 公 司 股 本 增 加 207,282,534 元 , 资 本 公 积 增 加1,000,927,182 元。至此,本公司的总股本为 1,007,282,534 元。\n本公司及子公司(以下合称“本集团”)注册地及总部地址位于中华人民共和国北京市,主要经营业务为出租办公场所、公寓、商场及酒店经营等。\n截至 2024 年 6 月 30 日 6 个月期间,纳入合并范围的主要子公司详见附注五.1。\n本财务报表由本公司董事会于 2024 年 8 月 30 日批准报出。\n二 主要会计政策和会计估计本集团根据经营特点确定具体会计政策和会计估计,主要体现在应收款项的预期信用损失的计量(附注二.8)、存货的计价方法(附注二.9)、投资性房地产和固定资产折旧、使用权资产折旧和无形资产摊销(附注二.12、13、25、16)、投资性房地产的计量模式(附注二.12)、收入的确认和计量(附注二.22)等。\n本集团在确定重要的会计政策时所运用的关键判断、重要会计估计及其关键假设详见附注二.27。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)1 财务报表的编制基础本财务报表按照财政部于 2006 年 2 月 15 日及以后期间颁布的《企业会计准则——基本准则》、各项具体会计准则及相关规定(以下合称“企业会计准则”)、以及中国证券监督管理委员会《公开发行证券的公司信息披露编报规则第 15 号——财务报告的一般规定》的披露规定编制。\n本财务报表以持续经营为基础编制。\n2 遵循企业会计准则的声明本公司截至 2024 年 6 月 30 日 6 个月期间财务报表符合企业会计准则的要求,真实、完整地反映了本公司 2024 年 6 月 30 日的合并及公司财务状况以及截至 2024 年 6 月 30 日 6 个月期间的合并及公司经营成果和现金流量等有关信息。\n3 会计年度会计年度为公历 1 月 1 日起至 12 月 31 日止。\n4 记账本位币记账本位币为人民币。\n5 合并财务报表的编制方法编制合并财务报表时,合并范围包括本公司及全部子公司。\n从取得子公司的实际控制权之日起,本集团开始将其纳入合并范围;从丧失实际控制权之日起停止纳入合并范围。\n在编制合并财务报表时,子公司与本公司采用的会计政策或会计期间不一致的,按照本公司的会计政策和会计期间对子公司财务报表进行必要的调整。\n集团内所有重大往来余额、交易及未实现利润在合并财务报表编制时予以抵销。子公司的股东权益、当期净损益及综合收益中不归属于本公司所拥有的部分分别作为少数股东权益、少数股东损益及归属于少数股东的综合收益总额在合并财务报表中股东权益、净利润及综合收益总额项下单独列示。\n如果以本集团为会计主体与以本公司或子公司为会计主体对同一交易的认定不同时,从本集团的角度对该交易予以调整。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)6 现金及现金等价物现金及现金等价物是指库存现金,可随时用于支付的存款,以及持有的期限短、流动性强、易于转换为已知金额现金、价值变动风险很小的投资。\n7 外币交易外币交易按交易发生日即期汇率的近似汇率将外币金额折算为人民币入账。\n于资产负债表日,外币货币性项目采用资产负债表日的即期汇率折算为人民币。为购建符合借款费用资本化条件的资产而借入的外币专门借款产生的汇兑差额在资本化期间内予以资本化;其他汇兑差额直接计入当期损益。以历史成本计量的外币非货币性项目,于资产负债表日采用交易发生日的即期汇率的近似汇率折算。汇率变动对现金的影响额在现金流量表中单独列示。\n8 金融工具金融工具,是指形成一方的金融资产并形成其他方的金融负债或权益工具的合同。当本集团成为金融工具合同的一方时,确认相关的金融资产或金融负债。\n(1) 金融资产(a) 分类和计量本集团根据管理金融资产的业务模式和金融资产的合同现金流量特征,将金融资产划分为:(1)以摊余成本计量的金融资产;(2)以公允价值计量且其变动计入其他综合收益的金融资产;(3)以公允价值计量且其变动计入当期损益的金融资产。\n金融资产在初始确认时以公允价值计量。对于以公允价值计量且其变动计入当期损益的金融资产,相关交易费用直接计入当期损益;对于其他类别的金融资产,相关交易费用计入初始确认金额。因销售产品或提供劳务而产生的、未包含或不考虑重大融资成分的应收账款,本集团按照预期有权收取的对价金额作为初始确认金额。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(a) 分类和计量(续)(i) 债务工具本集团持有的债务工具是指从发行方角度分析符合金融负债定义的工具,分别采用以下三种方式进行计量:以摊余成本计量本集团管理此类金融资产的业务模式为以收取合同现金流量为目标,且此类金融资产的合同现金流量特征与基本借贷安排相一致,即在特定日期产生的现金流量,仅为对本金和以未偿付本金金额为基础的利息的支付。本集团对于此类金融资产按照实际利率法确认利息收入。此类金融资产主要包括货币资金、应收账款、其他应收款等。\n以公允价值计量且其变动计入其他综合收益本集团管理此类金融资产的业务模式为既以收取合同现金流量为目标又以出售为目标,且此类金融资产的合同现金流量特征与基本借贷安排相一致。此类金融资产按照公允价值计量且其变动计入其他综合收益,但减值损失或利得、汇兑损益和按照实际利率法计算的利息收入计入当期损益。\n以公允价值计量且其变动计入当期损益本集团将持有的未划分为以摊余成本计量和以公允价值计量且其变动计入其他综合收益的债务工具,以公允价值计量且其变动计入当期损益。在初始确认时,本集团为了消除或显著减少会计错配,将部分金融资产指定为以公允价值计量且其变动计入当期损益的金融资产。自资产负债表日起超过一年到期且预期持有超过一年的,列示为其他非流动金融资产,其余列示为交易性金融资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(b) 减值本集团对于以摊余成本计量的金融资产,以预期信用损失为基础确认损失准备。\n本集团考虑在资产负债表日无须付出不必要的额外成本和努力即可获得的有关过去事项、当前状况以及对未来经济状况的预测等合理且有依据的信息,以发生违约的风险为权重,计算合同应收的现金流量与预期能收到的现金流量之间差额的现值的概率加权金额,确认预期信用损失。\n对于因提供物业管理服务、会展服务及酒店经营等日常经营活动形成的应收账款,无论是否存在重大融资成分,本集团均按照整个存续期的预期信用损失计量损失准备。对于应收租赁款,本集团亦选择按照整个存续期的预期信用损失计量损失准备。\n除上述应收账款外,于每个资产负债表日,本集团对处于不同阶段的金融工具的预期信用损失分别进行计量。金融工具自初始确认后信用风险未显著增加的,处于第一阶段,本集团按照未来 12 个月内的预期信用损失计量损失准备;金融工具自初始确认后信用风险已显著增加但尚未发生信用减值的,处于第二阶段,本集团按照该工具整个存续期的预期信用损失计量损失准备;金融工具自初始确认后已经发生信用减值的,处于第三阶段,本集团按照该工具整个存续期的预期信用损失计量损失准备。\n对于在资产负债表日具有较低信用风险的金融工具,本集团假设其信用风险自初始确认后并未显著增加,认定为处于第一阶段的金融工具,按照未来 12个月内的预期信用损失计量损失准备。\n本集团对于处于第一阶段和第二阶段的金融工具,按照其未扣除减值准备的账面余额和实际利率计算利息收入。对于处于第三阶段的金融工具,按照其账面余额减已计提减值准备后的摊余成本和实际利率计算利息收入。\n按照单项计算预期信用损失的各类金融资产,其信用风险特征与该类中的其他金融资产显著不同。当单项金融资产无法以合理成本评估预期信用损失的信息时,本集团依据信用风险特征将应收款项划分为若干组合,在组合基础上计算预期信用损失,确定组合的依据如下:中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(b) 减值(续)应收账款组合 1 应收物业租赁款,以逾期日作为账龄的起算时点应收账款组合 2 应收酒店服务款,以逾期日作为账龄的起算时点应收账款组合 3 应收物业管理服务款,以逾期日作为账龄的起算时点应收账款组合 4 应收会展服务款,以逾期日作为账龄的起算时点其他应收账款组合 1 应收押金及保证金其他应收账款组合 2 应收备用金其他应收账款组合 3 应收代垫款其他应收账款组合 4 应收其他款项其他应收账款组合 5 应收关联方对于划分为组合的应收账款,本集团参考历史信用损失经验,结合当前状况以及对未来经济状况的预测,编制应收账款逾期天数与整个存续期预期信用损失率对照表,计算预期信用损失。\n对于划分为组合的其他应收款,本集团参考历史信用损失经验,结合当前状况以及对未来经济状况的预测,通过违约风险敞口和未来 12 个月内或整个存续期预期信用损失率,计算预期信用损失。\n本集团将计提或转回的损失准备计入当期损益。对于持有的以公允价值计量且其变动计入其他综合收益的债务工具,本集团在将减值损失或利得计入当期损益的同时调整其他综合收益。\n(c) 终止确认金融资产满足下列条件之一的,予以终止确认:(1)收取该金融资产现金流量的合同权利终止;(2)该金融资产已转移,且本集团将金融资产所有权上几乎所有的风险和报酬转移给转入方;(3)该金融资产已转移,虽然本集团既没有转移也没有保留金融资产所有权上几乎所有的风险和报酬,但是放弃了对该金融资产控制。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(2) 金融负债金融负债于初始确认时分类为以摊余成本计量的金融负债和以公允价值计量且其变动计入当期损益的金融负债。\n本集团的金融负债主要为以摊余成本计量的金融负债,包括应付账款、其他应付款、借款、应付债券及租赁负债等。该类金融负债按其公允价值扣除交易费用后的金额进行初始计量,并采用实际利率法进行后续计量。期限在一年以下(含一年)的,列示为流动负债;期限在一年以上但自资产负债表日起一年内(含一年)到期的,列示为一年内到期的非流动负债;其余列示为非流动负债。\n当金融负债的现时义务全部或部分已经解除时,本集团终止确认该金融负债或义务已解除的部分。终止确认部分的账面价值与支付的对价之间的差额,计入当期损益。\n(3) 金融工具的公允价值确定存在活跃市场的金融工具,以活跃市场中的报价确定其公允价值。不存在活跃市场的金融工具,采用估值技术确定其公允价值。在估值时,本集团采用在当前情况下适用并且有足够可利用数据和其他信息支持的估值技术,选择与市场参与者在相关资产或负债的交易中所考虑的资产或负债特征相一致的输入值,并尽可能优先使用相关可观察输入值。在相关可观察输入值无法取得或取得不切实可行的情况下,使用不可观察输入值。\n9 存货(1) 分类存货包括维修材料以及酒店营业物料等,按成本与可变现净值孰低计量。\n(2) 发出存货的计价方法维修材料和酒店营业物料发出时的成本按加权平均法核算,低值易耗品在领用时采用一次转销法进行摊销。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)9 存货(续)(3) 存货可变现净值的确定依据及存货跌价准备的计提方法存货跌价准备按存货成本高于其可变现净值的差额计提。可变现净值按日常活动中,以存货的估计售价减去估计的销售费用以及相关税费后的金额确定。\n(4) 本集团的存货盘存制度为:酒店营业物料采用实地盘存制,其他存货采用永续盘存制。\n10 长期股权投资长期股权投资包括:本公司对子公司的长期股权投资;本集团对联营企业的长期股权投资。\n子公司为本公司能够对其实施控制的被投资单位;联营企业是指本集团能够对其财务和经营决策具有重大影响的被投资单位。\n对子公司的投资,在公司财务报表中按照成本法确定的金额列示,在编制合并财务报表时按权益法调整后进行合并;对联营企业投资采用权益法核算。\n(1) 投资成本确定对于以支付现金取得的长期股权投资,按照实际支付的购买价款作为初始投资成本。\n(2) 后续计量及损益确认方法采用成本法核算的长期股权投资,按照初始投资成本计量,被投资单位宣告分派的现金股利或利润,确认为投资收益计入当期损益。\n采用权益法核算的长期股权投资,初始投资成本大于投资时应享有被投资单位可辨认净资产公允价值份额的,以初始投资成本作为长期股权投资成本;初始投资成本小于投资时应享有被投资单位可辨认净资产公允价值份额的,其差额计入当期损益,并相应调增长期股权投资成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)10 长期股权投资(续)(2) 后续计量及损益确认方法(续)采用权益法核算的长期股权投资,本集团按应享有或应分担的被投资单位的净损益份额确认当期投资损益。确认被投资单位发生的净亏损,以长期股权投资的账面价值以及其他实质上构成对被投资单位净投资的长期权益减记至零为限,但本集团负有承担额外损失义务且符合预计负债确认条件的,继续确认预计将承担的损失金额。被投资单位除净损益、其他综合收益和利润分配以外所有者权益的其他变动,调整长期股权投资的账面价值并计入资本公积。被投资单位分派的利润或现金股利于宣告分派时按照本集团应分得的部分,相应减少长期股权投资的账面价值。本集团与被投资单位之间未实现的内部交易损益按照持股比例计算归属于本集团的部分,予以抵销,在此基础上确认本公司财务报表的投资损益。本集团与被投资单位发生的内部交易损失,其中属于资产减值损失的部分,相应的未实现损失不予抵销。\n(3) 确定对被投资单位具有控制、重大影响的依据控制是指拥有对被投资单位的权力,通过参与被投资单位的相关活动而享有可变回报,并且有能力运用对被投资单位的权力影响其回报金额。\n重大影响是指对被投资单位的财务和经营政策有参与决策的权力,但并不能够控制或者与其他方一起共同控制这些政策的制定。\n(4) 长期股权投资减值对子公司、联营企业的长期股权投资,当其可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)11 共同经营共同经营名称 主要经营地 注册地 业务性质 享有的份额(%)直接 间接中国国际贸易中心股份有限公司二期物业中心(以下称“国贸二期”)北京 北京 物业租赁 70 -本公司与国贸有限公司共同投资建设及经营国贸二期,双方的投资分别占该共同控制资产投资总额的 70%及 30%。\n本公司按照出资比例在财务报表中确认共同持有的资产及共同承担的负债中本公司享有的资产及承担的负债份额,以及共同经营所产生的应由本公司享有的收入和承担的费用。\n12 投资性房地产投资性房地产包括以出租为目的的房屋建筑物及其改良、装修、土地使用权、不可分割的机器设备、电子设备以及正在建造或开发过程中将来用于出租的建筑物,以成本进行初始计量。与投资性房地产有关的后续支出,在相关的经济利益很可能流入本集团且其成本能够可靠的计量时,计入投资性房地产成本;否则,于发生时计入当期损益。\n本集团采用成本模式对所有投资性房地产进行后续计量,按其预计使用寿命及净残值率计提折旧(摊销)。投资性房地产的预计使用寿命、净残值率及年折旧(摊销)率列示如下:预计使用寿命 预计净残值率 年折旧(摊销)率房屋及建筑物 31-48 年 10% 1.88%-2.90%土地使用权 36-42 年 - 2.38%-2.78%房屋及建筑物改良 15 年 10% 6%房屋及建筑物装修 2-10 年 - 10%-50%机器设备 15 年 10% 6%电子设备 5 年 - 20%对投资性房地产的预计使用寿命、预计净残值和折旧(摊销)方法于每年年度终了进行复核并作适当调整。\n当投资性房地产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)12 投资性房地产(续)投资性房地产的用途改变为自用时,自改变之日起,将该投资性房地产转换为固定资产或无形资产。自用房地产的用途改变为赚取租金或资本增值时,自改变之日起,将固定资产或无形资产转换为投资性房地产。发生转换时,以转换前的账面价值作为转换后的入账价值。\n当投资性房地产被处置、或者永久退出使用且预计不能从其处置中取得经济利益时,终止确认该项投资性房地产。投资性房地产出售、转让、报废或毁损的处置收入扣除其账面价值和相关税费后的金额计入当期损益。\n13 固定资产(1) 固定资产确认及初始计量固定资产包括房屋建筑物及其装修、机器设备、运输设备、家具装置及设备和电子设备等。\n固定资产在与其有关的经济利益很可能流入本集团、且其成本能够可靠计量时予以确认。购置或新建的固定资产按取得时的成本进行初始计量。\n与固定资产有关的后续支出,在与其有关的经济利益很可能流入本集团且其成本能够可靠计量时,计入固定资产成本;对于被替换的部分,终止确认其账面价值;对其他的固定资产修理费用等后续支出于发生时计入当期损益。\n(2) 固定资产的折旧方法固定资产折旧采用年限平均法并按其入账价值减去预计净残值后在预计使用寿命内计提。对计提了减值准备的固定资产,则在未来期间按扣除减值准备后的账面价值及依据尚可使用年限确定折旧额。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)13 固定资产(续)(2) 固定资产的折旧方法(续)固定资产的预计使用寿命、净残值率及年折旧率列示如下:预计使用寿命 预计净残值率 年折旧率房屋及建筑物 36-42 年 10% 2.14%-2.50%房屋及建筑物装修 10 年 - 10%机器设备 15 年 10% 6%运输设备 5 年 10% 18%家具装置及设备 5 年 0-10% 18%-20%电子设备 5 年 0-10% 18%-20%对固定资产的预计使用寿命、预计净残值和折旧方法于每年年度终了进行复核并作适当调整。\n(3) 当固定资产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。\n(4) 固定资产的处置当固定资产被处置、或者预期通过使用或处置不能产生经济利益时,终止确认该固定资产。固定资产出售、转让、报废或毁损的处置收入扣除其账面价值和相关税费后的金额计入当期损益。\n14 在建工程在建工程按实际发生的成本计量。实际成本包括建筑成本、安装成本、符合资本化条件的借款费用以及其他为使在建工程达到预定可使用状态所发生的必要支出。在建工程在达到预定可使用状态时,转入固定资产并自次月起开始计提折旧。当在建工程的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)15 借款费用本集团发生的可直接归属于需要经过相当长时间的购建活动才能达到预定可使用状态之资产的购建的借款费用,在资产支出及借款费用已经发生、为使资产达到预定可使用状态所必要的购建活动已经开始时,开始资本化并计入该资产的成本。当购建的资产达到预定可使用状态时停止资本化,其后发生的借款费用计入当期损益。如果资产的购建活动发生非正常中断,并且中断时间连续超过 3 个月,暂停借款费用的资本化,直至资产的购建活动重新开始。\n对于为购建符合资本化条件的资产而借入的专门借款,以专门借款当期实际发生的利息费用减去尚未动用的借款资金存入银行取得的利息收入或进行暂时性投资取得的投资收益后的金额确定专门借款借款费用的资本化金额。\n对于为购建符合资本化条件的资产而占用的一般借款,根据累计资产支出超过专门借款部分的资本支出加权平均数乘以所占用一般借款的加权平均利率计算确定一般借款借款费用的资本化金额。\n16 无形资产无形资产为国贸三期的土地使用权,以成本进行初始计量。土地使用权按实际使用年限 46 年平均摊销。\n对使用寿命有限的无形资产的预计使用寿命及摊销方法于每年年度终了进行复核并作适当调整。\n当无形资产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。\n17 长期待摊费用长期待摊费用包括配套市政工程费、拆迁费及其他已经发生但应由本期和以后各期负担的、分摊期限在一年以上的各项费用,按预计受益期间分期平均摊销,并以实际支出减去累计摊销后的净额列示。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)18 长期资产减值固定资产、在建工程、使用权资产、使用寿命有限的无形资产、以成本模式计量的投资性房地产及对子公司、联营企业的长期股权投资等,于资产负债表日存在减值迹象的,进行减值测试。减值测试结果表明资产的可收回金额低于其账面价值的,按其差额计提减值准备并计入资产减值损失。可收回金额为资产的公允价值减去处置费用后的净额与资产预计未来现金流量的现值两者之间较高者。资产减值准备按单项资产为基础计算并确认,如果难以对单项资产的可收回金额进行估计的,以该资产所属的资产组确定资产组的可收回金额。资产组是能够独立产生现金流入的最小资产组合。\n上述资产减值损失一经确认,如果在以后期间价值得以恢复,也不予转回。\n19 职工薪酬职工薪酬是本集团为获得职工提供的服务或解除劳动关系而给予的各种形式的报酬或补偿,包括短期薪酬、离职后福利及辞退福利等。\n(1) 短期薪酬短期薪酬包括工资、奖金、津贴和补贴、职工福利费、医疗保险费、工伤保险费、生育保险费、住房公积金、工会和教育经费、补充医疗保险等。本集团在职工提供服务的会计期间,将实际发生的短期薪酬确认为负债,并计入当期损益或相关资产成本。\n(2) 离职后福利本集团将离职后福利计划分类为设定提存计划和设定受益计划。设定提存计划是本集团向独立的基金缴存固定费用后,不再承担进一步支付义务的离职后福利计划;设定受益计划是除设定提存计划以外的离职后福利计划。于报告期内,本集团的离职后福利主要是为员工缴纳的基本养老保险、补充养老保险和失业保险,均属于设定提存计划。\n基本养老保险本集团职工参加了由当地劳动和社会保障部门组织实施的社会基本养老保险。本集团以当地规定的社会基本养老保险缴纳基数和比例,按月向当地社会基本养老保险经办机构缴纳养老保险费。职工退休后,当地劳动及社会保障部门有责任向已退休员工支付社会基本养老金。本集团在职工提供服务的会计期间,将根据上述社保规定计算应缴纳的金额确认为负债,并计入当期损益或相关资产成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)19 职工薪酬(续)(3) 辞退福利本集团在职工劳动合同到期之前解除与职工的劳动关系、或者为鼓励职工自愿接受裁减而提出给予补偿,在本集团不能单方面撤回解除劳动关系计划或裁减建议时和确认与涉及支付辞退福利的重组相关的成本费用时两者孰早日,确认因解除与职工的劳动关系给予补偿而产生的负债,同时计入当期损益。\n预期在资产负债表日起一年内需支付的辞退福利,列示为应付职工薪酬。\n20 股利分配现金股利于股东大会批准的当期,确认为负债。\n21 预计负债因对外提供担保、未决诉讼等事项形成的现时义务,当履行该义务很可能导致经济利益的流出,且其金额能够可靠计量时,确认为预计负债。\n预计负债按照履行相关现时义务所需支出的最佳估计数进行初始计量,并综合考虑与或有事项有关的风险、不确定性和货币时间价值等因素。货币时间价值影响重大的,通过对相关未来现金流出进行折现后确定最佳估计数;因随着时间推移所进行的折现还原而导致的预计负债账面价值的增加金额,确认为利息费用。\n于资产负债表日,对预计负债的账面价值进行复核并作适当调整,以反映当前的最佳估计数。\n预期在资产负债表日起一年内需支付的预计负债,列报为流动负债。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)22 租赁收入及其他收入的确认本集团在日常经营活动中出租办公场所、公寓、商场按照租赁准则确认收入,酒店经营以及对外提供物业管理、会展等服务按照收入准则确认收入。\n(1) 租赁业务本集团经营租出自有的房屋建筑物、机器设备及电子设备时,经营租赁的租金收入在租赁期内按照直线法确认。本集团将按销售额的一定比例确定的可变租金在实际发生时计入租金收入。\n当租赁发生变更时,本集团自变更生效日起将其作为一项新租赁,并将与变更前租赁有关的预收或应收租赁收款额作为新租赁的收款额。\n(2) 酒店经营、提供物业管理服务及会展服务本集团在客户取得服务或者商品的控制权时,按预期有权收取的对价金额确认收入。本集团对外提供酒店餐饮服务,在餐饮服务完成时确认收入;本集团提供物业管理服务、会展服务及酒店客房等服务,根据已完成的服务进度在相应时间段内确认收入。\n本集团按照已完成服务的进度确认收入时,对于本集团已经取得无条件收款权的部分,确认为应收账款,其余部分确认为合同资产,并对应收账款和合同资产以预期信用损失为基础确认损失准备(附注二.8);如果本集团已收或应收的合同价款超过已完成的劳务,则将超过部分确认为合同负债。本集团对于同一合同下的合同资产和合同负债以净额列示。\n本集团的合同成本为合同取得成本。本集团将为获取劳务合同而发生的增量成本,确认为合同取得成本,对于摊销期限不超过一年的合同取得成本,在其发生时计入当期损益;对于摊销期限在一年以上的合同取得成本,本集团按照相关合同项下与确认劳务收入相同的基础摊销计入损益。如果合同成本的账面价值高于因提供该劳务预期能够取得的剩余对价减去估计将要发生的成本,本集团对超出的部分计提减值准备,并确认为资产减值损失。于资产负债表日,本集团对于初始确认时摊销期限超过一年的合同取得成本,以减去相关资产减值准备后的净额,列示为其他非流动资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)23 政府补助政府补助为本集团从政府无偿取得的货币性资产或非货币性资产,包括财政奖励款等。\n政府补助在本集团能够满足其所附的条件并且能够收到时,予以确认。政府补助为货币性资产的,按照收到或应收的金额计量。政府补助为非货币性资产的,按照公允价值计量;公允价值不能可靠取得的,按照名义金额计量。\n与资产相关的政府补助,是指本集团取得的、用于购建或以其他方式形成长期资产的政府补助。与收益相关的政府补助,是指除与资产相关的政府补助之外的政府补助。\n与资产相关的政府补助,冲减相关资产的账面价值,或确认为递延收益并在相关资产使用寿命内按照合理、系统的方法分期计入损益;与收益相关的政府补助,用于补偿以后期间的相关成本费用或损失的,确认为递延收益,并在确认相关成本费用或损失的期间,计入当期损益或冲减相关成本,用于补偿已发生的相关费用或损失的,直接计入当期损益或冲减相关成本。\n本集团对同类政府补助采用相同的列报方式。\n与日常活动相关的政府补助计入其他收益或冲减相关成本费用,与日常活动无关的政府补助计入营业外收支。\n24 递延所得税资产和递延所得税负债递延所得税资产和递延所得税负债根据资产和负债的计税基础与其账面价值的差额(暂时性差异)计算确认。对于既不影响会计利润也不影响应纳税所得额(或可抵扣亏损),且初始确认的资产和负债未导致产生等额应纳税暂时性差异和可抵扣暂时性差异的非企业合并交易中产生的资产或负债的初始确认形成的暂时性差异,不确认相应的递延所得税资产和递延所得税负债。于资产负债
10月 14 12:47:34 gpu ollama[24746]: 表日,递延所得税资产和递延所得税负债,按照预期收回该资产或清偿该负债期间的适用税率计量。\n递延所得税资产的确认以很可能取得用来抵扣可抵扣暂时性差异、可抵扣亏损和税款抵减的应纳税所得额为限。\n对与子公司及联营企业投资相关的应纳税暂时性差异,确认递延所得税负债,除非本集团能够控制暂时性差异转回的时间且该暂时性差异在可预见的未来很可能不会转回。对与子公司和联营企业投资相关的可抵扣暂时性差异,当暂时性差异在可预见的未来很可能转回且未来很可能获得用来抵扣可抵扣暂时性差异的应纳税所得额时,确认递延所得税资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)24 递延所得税资产和递延所得税负债(续)同时满足下列条件的递延所得税资产和递延所得税负债以抵销后的净额列示:\uf0b7 递延所得税资产和递延所得税负债与同一税收征管部门对本集团内同一纳税主体征收的所得税相关;\uf0b7 本集团内该纳税主体拥有以净额结算当期所得税资产及当期所得税负债的法定权利。\n25 租赁租赁,是指在一定期间内,出租人将资产的使用权让与承租人以获取对价的合同。\n(1) 本集团作为出租人相关会计政策详情参见附注二.22。\n(2) 本集团作为承租人本集团于租赁期开始日确认使用权资产,并按尚未支付的租赁付款额的现值确认租赁负债。租赁付款额包括固定付款额,以及在合理确定将行使购买选择权或终止租赁选择权的情况下需支付的款项等。按销售额的一定比例确定的可变租金不纳入租赁付款额,在实际发生时计入当期损益。本集团将自资产负债表日起一年内(含一年)支付的租赁负债,列示为一年内到期的非流动负债。\n本集团的使用权资产包括租入的土地及房屋建筑物等。使用权资产按照成本进行初始计量,该成本包括租赁负债的初始计量金额、租赁期开始日或之前已支付的租赁付款额、初始直接费用等,并扣除已收到的租赁激励。本集团能够合理确定租赁期届满时取得租赁资产所有权的,在租赁资产剩余使用寿命内计提折旧;若无法合理确定租赁期届满时是否能够取得租赁资产所有权,则在租赁期与租赁资产剩余使用寿命两者孰短的期间内计提折旧。当可收回金额低于使用权资产的账面价值时,本集团将其账面价值减记至可收回金额。\n对于租赁期不超过 12 个月的短期租赁和单项资产全新时价值较低的低价值资产租赁,本集团选择不确认使用权资产和租赁负债,将相关租金支出在租赁期内各个期间按照直线法计入当期损益或相关资产成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)25 租赁(续)(2) 本集团作为承租人(续)租赁发生变更且同时符合下列条件时,本集团将其作为一项单独租赁进行会计处理:(1)该租赁变更通过增加一项或多项租赁资产的使用权而扩大了租赁范围;(2)增加的对价与租赁范围扩大部分的单独价格按该合同情况调整后的金额相当。\n当租赁变更未作为一项单独租赁进行会计处理时,本集团在租赁变更生效日重新确定租赁期,并采用修订后的折现率对变更后的租赁付款额进行折现,重新计量租赁负债。租赁变更导致租赁范围缩小或租赁期缩短的,本集团相应调减使用权资产的账面价值,并将部分终止或完全终止租赁的相关利得或损失计入当期损益。其他租赁变更导致租赁负债重新计量的,本集团相应调整使用权资产的账面价值。\n26 分部信息本集团以内部组织结构、管理要求、内部报告制度为依据确定经营分部,以经营分部为基础确定报告分部并披露分部信息。\n经营分部是指本集团内同时满足下列条件的组成部分:(1)该组成部分能够在日常活动中产生收入和发生费用;(2)本集团管理层能够定期评价该组成部分的经营成果,以决定向其配置资源、评价其业绩;(3)本集团能够取得该组成部分的财务状况、经营成果和现金流量等有关会计信息。两个或多个经营分部具有相似的经济特征,并且满足一定条件的,则可合并为一个经营分部。\n27 重要会计估计和判断本集团根据历史经验和其他因素,包括对未来事项的合理预期,对所采用的重要会计估计和关键判断进行持续的评价。\n(a) 重要会计估计及其关键假设下列重要会计估计及关键假设存在很可能导致下一个会计年度资产和负债的账面价值出现重大调整的风险:中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)27 重要会计估计和判断(续)(a) 重要会计估计及其关键假设(续)(i) 预期信用损失的计量本集团通过违约风险敞口和预期信用损失率计算预期信用损失,并基于违约概率和违约损失率确定预期信用损失率。在确定预期信用损失率时,本集团使用内部历史信用损失经验等数据,并结合当前状况和前瞻性信息对历史数据进行调整。在考虑前瞻性信息时,本集团使用的指标包括经济下滑的风险、外部市场环境和客户情况的变化等。本集团定期监控并复核与预期信用损失计算相关的假设。上述估计技术和关键假设于截至 2024 年 6 月 30 日 6个月期间未发生重大变化。\n(ii) 投资性房地产及固定资产折旧本集团主要业务为出租办公场所、公寓、商场及酒店经营等,在决定投资性房地产及固定资产的折旧时,需要作出重大估计。\n本集团对所持有的投资性房地产和固定资产在预计使用寿命内计提折旧。本集团定期复核相关资产的预计使用寿命,以决定将计入每个报告期的折旧费用数额。资产使用寿命是本集团根据对同类资产的以往经验并结合预期的技术改变、市况改变及实际损耗情况而确定。如果以前的估计发生重大变化,则会在未来期间对折旧费用进行调整。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)三 税项(1) 本集团本报告期适用的主要税种及其税率列示如下:税种 税率 计税依据企业所得税 20%、25% 应纳税所得额增值税 3%-13% 应纳税增值额(应纳税额按应纳税销售额乘以适用税率扣除当期允许抵扣的进项税后的余额计算)城市维护建设税 7% 缴纳的增值税税额教育费附加 3% 缴纳的增值税税额地方教育费附加 2% 缴纳的增值税税额房产税 1.2%及 12% 应税房产原值的 70%及租金收入土地使用税 30 元/平方米/年 实际占用的土地面积(2) 税收优惠根据财政部、税务总局颁布的《关于进一步实施小微企业所得税优惠政策的公告》(财税【2022】13 号)以及《关于小微企业和个体工商户所得税优惠政策的公告》(财税【2023】6 号),本集团的子公司北京国贸国际会展有限公司符合小型微利企业税收减免条件,自 2022 年 1 月 1 日至 2024 年 12 月31 日期间,应纳税所得额超过 100 万元但不超过 300 万元的部分,减按25%计入应纳税所得额,按 20%的税率缴纳企业所得税。自 2023 年 1 月 1日至 2024 年 12 月 31 日,对小型微利企业年应纳税所得额不超过 100 万元的部分,减按 25%计入应纳税所得额,按 20%的税率缴纳企业所得税。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注1 货币资金2024 年 6 月 30 日 2023 年 12 月 31 日库存现金 771,466 885,944银行存款 3,555,200,837 4,033,138,169应收利息 56,178,699 54,636,272合计 3,612,151,002 4,088,660,3852024 年 6 月 30 日,银行存款中受限资金余额为 130,083,832 元(2023 年 12 月31 日:143,854,997 元),其性质为物业管理项目代管款项。\n2 应收账款2024 年 6 月 30 日 2023 年 12 月 31 日应收账款 251,461,823 259,474,604减:坏账准备 (1,296,531) (1,268,199)净额 250,165,292 258,206,405(1) 应收账款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 248,413,056 256,301,941一到二年 248,637 915,739二到三年 543,206 -三年以上 2,256,924 2,256,924合计 251,461,823 259,474,604(2) 2024 年 6 月 30 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额坏账准备金额占应收账款总额比例余额前五名的应收账款总额 48,817,757 (87,811) 19.41%(3) 坏账准备本集团对于应收账款,无论是否存在重大融资成分,本集团均按照整个存续期的预期信用损失计量损失准备。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)应收账款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 1,165,049 0.46% (1,165,049) 100.00% 1,165,049 0.45% (1,165,049) 100.00%按组合计提坏账准备(b) 250,296,774 99.54% (131,482) 0.05% 258,309,555 99.55% (103,150) 0.04%251,461,823 100.00% (1,296,531) 0.52% 259,474,604 100.00% (1,268,199) 0.49%(a) 2024 年 6 月 30 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100.00% (941,049)应收会展服务款(ii) 224,000 100.00% (224,000)合计 1,165,049 (1,165,049)(i) 2024 年 6 月 30 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:941,049 元)。\n(ii) 2024 年 6 月 30 日,应收三河市胜记仓物业服务有限公司会展服务款 224,000元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:224,000 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,151,912 - - 16,675,479 - -逾期 90-180 日 640,990 - - 680,303 - -逾期 180-365 天 147,429 - - - - -160,189,450 - 172,046,872 -组合 — 应收酒店服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -组合 — 应收物业管理服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 36,154,147 - - 27,333,719 - -逾期 90 日以内 19,211,195 0.10% (19,211) 23,324,258 0.10% (23,324)逾期 90-180 日 3,917,382 0.30% (11,752) 3,058,103 0.30% (9,174)逾期 180-365 日 8,808,664 1.00% (88,087) 7,065,118 1.00% (70,652)逾期 1 年-2 年 248,637 5.00% (12,432) - 5.00% -68,340,025 (131,482) 60,781,198 (103,150)中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下(续):组合 — 应收会展服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 6,575,445 - - 7,739,193 - -(4) 本期间本集团计提的坏账准备金额为 28,332 元,无新增转回的坏账准备金额。\n(5) 本期间本集团无实际核销的应收账款(2023 年 1 至 6 月:无)。\n3 预付款项(1) 预付款项账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日金额 占总额比例 金额 占总额比例一年以内 22,432,088 99.97% 34,918,142 99.97%一到二年 - - 10,693 0.03%二到三年 7,053 0.03% - -合计 22,439,141 100.00% 34,928,835 100.00%(2) 2024 年 6 月 30 日,按预付对象归集的余额前五名的预付款项汇总分析如下:金额占预付款项总额比例余额前五名的预付款项总额 10,594,234 47.21%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)4 其他应收款2024 年 6 月 30 日 2023 年 12 月 31 日应收押金和保证金 2,437,959 4,101,971应收代垫款项 2,054,772 4,312,402应收备用金 1,458,658 277,379应收其他款项 928,074 1,090,764合计 6,879,463 9,782,516减:坏账准备 - -净额 6,879,463 9,782,516本集团不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。\n(1) 其他应收款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 4,408,182 7,082,373一到二年 27,011 694,911二到三年 661,912 87,075三年以上(a) 1,782,358 1,918,157合计 6,879,463 9,782,516(a) 2024 年 6 月 30 日,其他应收款中款项 622,224 元,为本集团根据《关于按房改政策出售住房售房款存储使用等有关问题的通知》(京房改办【2007】4 号)要求,将按房改政策出售住房的售房款全额存储于北京市住房资金管理中心,并进行专户存储,专项使用,所有权不变。\n(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 6,879,463 100% - - 9,782,516 100% - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)4 其他应收款(续)(2) 损失准备及其账面余额变动表(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例押金和保证金:一年以内 2,437,959 - - 4,101,971 - -代垫款:一年以内 2,054,772 - - 4,312,402 - -备用金:一年以内 1,458,658 - - 277,379 - -其他款项:一年以内 928,074 - - 1,090,764 - -合计 6,879,463 - - 9,782,516 - -本期间无计提、收回或转回的坏账准备。\n(3) 2024 年 6 月 30 日,按欠款方归集的余额前五名的其他应收款分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 9.99% -第二名 应收其他款 622,224 三年以上 9.05% -第三名 应收代垫款 434,569 一年以内 6.32% -第四名 应收保证金 416,911 二至三年 6.06% -第五名 应收押金 399,642 一年以内 5.81% -合计 2,560,901 37.23% -(4) 本期间本集团无实际核销的其他应收款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)5 存货存货分类如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额存货跌价准备 账面价值 账面余额存货跌价准备 账面价值维修材料 20,749,269 - 20,749,269 20,834,497 - 20,834,497酒店营业物料 9,744,024 - 9,744,024 9,977,382 - 9,977,382其他 1,467,257 - 1,467,257 1,477,987 - 1,477,987合计 31,960,550 - 31,960,550 32,289,866 - 32,289,8666 其他流动资产2024 年 6 月 30 日 2023 年 12 月 31 日碳排放权资产 156,270 156,270待抵扣进项税额 33,783 131,492合计 190,053 287,7627 长期股权投资2024 年 6 月 30 日 2023 年 12 月 31 日联营企业(a) 26,719,203 29,422,110减:长期股权投资减值准备 - -净额 26,719,203 29,422,110中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 34 -四 合并财务报表项目附注(续)7 长期股权投资(续)(a) 联营企业本期增减变动 减值准备2023 年12 月 31 日增加或减少投资按权益法调整的净损益其他综合收益调整其他权益变动宣告分派的现金股利计提减值准备 其他2024 年6 月 30 日2024 年6 月 30 日2023 年12 月 31 日北京时代网星科技有限公司(以下称“时代网星”) 26,045,395 - 725,751 - - (5,880,000) - - 20,891,146 - -北京力创智慧科技有限公司(以下称“力创智慧”) 765,741 - 109,050 - - - - - 874,791 - -北京昌发展国贸物业管理有限责任公司(以下称“北京昌发展”) 2,610,974 - 342,292 - - - - - 2,953,266 - -北京首程国贸物业管理有限公司(以下称“首程国贸”) - 2,000,000 - - - - - - 2,000,000 -合计 29,422,110 2,000,000 1,177,093 - - (5,880,000) - - 26,719,203 - -本集团在联营企业中的权益相关信息见附注五.2。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 35 -四 合并财务报表项目附注(续)8 投资性房地产在建投资性房地产(1) 房屋及建筑物 土地使用权房屋及建筑物改良房屋及建筑物装修 机器设备 电子设备 合计原价2023 年 12 月 31 日 44,933,423 6,502,425,556 1,465,091,960 80,975,025 826,370,611 1,948,720,096 347,673,359 11,216,190,030本期增加购置 4,438,566 - - - 8,271,003 1,192,000 5,775,785 19,677,354本期减少处置及报废 - - - - (1,912,910) (650,257) (2,438,151) (5,001,318)2024 年 6 月 30 日 49,371,989 6,502,425,556 1,465,091,960 80,975,025 832,728,704 1,949,261,839 351,010,993 11,230,866,066累计折旧2023 年 12 月 31 日 - (2,295,608,374) (387,889,832) (72,877,539) (597,074,771) (1,289,934,171) (296,388,843) (4,939,773,530)本期增加计提 - (71,479,268) (18,572,451) - (28,752,016) (38,644,454) (13,005,960) (170,454,149)本期减少处置及报废 - - - - 1,910,085 481,149 2,438,151 4,829,3852024 年 6 月 30 日 - (2,367,087,642) (406,462,283) (72,877,539) (623,916,702) (1,328,097,476) (306,956,652) (5,105,398,294)账面价值2024 年 6 月 30 日 49,371,989 4,135,337,914 1,058,629,677 8,097,486 208,812,002 621,164,363 44,054,341 6,125,467,7722023 年 12 月 31 日 44,933,423 4,206,817,182 1,077,202,128 8,097,486 229,295,840 658,785,925 51,284,516 6,276,416,500中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)8 投资性房地产(续)(1) 本集团对国贸东楼交通一体化等改造工程中预计将用于出租部分的相关成本在投资性房地产核算。\n(2) 2024 年 1 至 6 月,投资性房地产计提的折旧金额为 170,454,149 元(2023 年 1至 6 月:176,373,646 元),未计提减值准备(2023 年 1 至 6 月:无)。\n(3) 本公司于 2020 年 8 月与中国建设银行股份有限公司(以下简称“建行”)北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55亿元长期借款的抵押物。2024 年 6 月 30 日,投资性房地产中包含的上述抵押物账面价值约为 1,279,844,868 元(原价 1,837,461,425 元)(附注四.23)。\n2024 年 1 至 6 月,本集团报废了账面价值 171,933 元(原价 5,001,318 元)的投资性房地产,账面价值 852,820 元(原价 19,588,169 元)的固定资产(附注四.9),报废净损失合计为 815,142 元(附注四.38、39)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 37 -四 合并财务报表项目附注(续)9 固定资产房屋及建筑物 房屋及建筑物装修 机器设备 运输设备 家具装置及设备 电子设备 合计原价2023 年 12 月 31 日 1,606,392,453 347,763,150 441,154,350 5,085,477 294,436,170 213,463,909 2,908,295,509本期增加购置 - - - - 2,610,717 1,115,969 3,726,686本期减少处置及报废 - (9,088,640) (4,241,472) - (3,409,083) (2,848,974) (19,588,169)2024 年 6 月 30 日 1,606,392,453 338,674,510 436,912,878 5,085,477 293,637,804 211,730,904 2,892,434,026累计折旧2023 年 12 月 31 日 (376,043,037) (299,096,486) (285,002,288) (4,275,460) (266,194,776) (203,786,331) (1,434,398,378)本期增加计提 (18,443,294) (7,407,920) (13,228,540) (43,069) (7,119,250) (1,604,768) (47,846,841)本期减少处置及报废 - 9,088,640 3,450,135 - 3,355,161 2,841,413 18,735,3492024 年 6 月 30 日 (394,486,331) (297,415,766) (294,780,693) (4,318,529) (269,958,865) (202,549,686) (1,463,509,870)账面价值2024 年 6 月 30 日 1,211,906,122 41,258,744 142,132,185 766,948 23,678,939 9,181,218 1,428,924,1562023 年 12 月 31 日 1,230,349,416 48,666,664 156,152,062 810,017 28,241,394 9,677,578 1,473,897,131中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)9 固定资产(续)(1) 2024 年 1 至 6 月,固定资产计提的折旧金额为 47,846,841 元(2023 年 1 至 6月:48,825,698 元) ,均计入成本费用。2024 年 1 至 6 月未计提减值准备(2023年 1 至 6 月:无)。\n(2) 本公司于 2020 年 8 月与建行北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月 30日 , 固 定 资 产 中 包 含 的 上 述 抵 押 物 账 面 价 值 为 487,679,097 元 ( 原 价690,528,913 元) (附注四.23)。\n(3) 未办妥产权证书的固定资产及投资性房地产账面原价 未办妥产权证书原因房屋、建筑物 2,512,191,215 待相关部门审批10 使用权资产土地 房屋及建筑物 合计原价2023 年 12 月 31 日 45,296,231 4,157,470 49,453,701本期增加 - - -本期减少 - - -2024 年 6 月 30 日 45,296,231 4,157,470 49,453,701累计折旧2023 年 12 月 31 日 (7,691,820) (3,118,104) (10,809,924)本期增加 - - -计提 (1,281,970) (519,684) (1,801,654)本期减少 - - -2024 年 6 月 30 日 (8,973,790) (3,637,788) (12,611,578)减值准备2023 年 12 月 31 日 - - -本期增加 - - -本期减少 - - -2024 年 6 月 30 日 - - -账面价值2024 年 6 月 30 日 36,322,441 519,682 36,842,1232023 年 12 月 31 日 37,604,411 1,039,366 38,643,777中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)11 无形资产土地使用权原价2023 年 12 月 31 日 606,581,451本期增加 -本期减少 -2024 年 6 月 30 日 606,581,451累计摊销2023 年 12 月 31 日 (158,273,113)本期增加 -计提 (7,729,457)本期减少 -2024 年 6 月 30 日 (166,002,570)账面价值2024 年 6 月 30 日 440,578,8812023 年 12 月 31 日 448,308,3382024 年 1 至 6 月,无形资产的摊销金额为 7,729,457 元(2023 年 1 至 6 月:7,729,457 元),均计入成本费用。\n本公司于 2020 年 8 月与建行北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月 30日 , 无 形 资 产 中 包 含 的 上 述 抵 押 物 账 面 价 值 约 为 177,086,805 元 ( 原 价263,041,236 元)(附注四.23)。\n2024 年 6 月 30 日,本集团无未办妥产权证的土地使用权(2023 年 12 月 31 日:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)12 长期待摊费用2023 年 本期增加 本期摊销 2024 年12 月 31 日 6 月 30 日国贸二期拆迁费 74,217,491 - (1,553,011) 72,664,480国贸三期 B 阶段市政工程 5,645,601 - (900,552) 4,745,049国贸东楼市政工程 1,603,045 - (174,881) 1,428,164公寓市政配套 4,367,619 - (327,575) 4,040,044会展店铺装修 749,819 - (693,925) 55,894合计 86,583,575 - (3,649,944) 82,933,63113 递延所得税(1) 未经抵销的递延所得税资产2024 年 6 月 30 日 2023 年 12 月 31 日可抵扣 递延 可抵扣 递延暂时性差异 所得税资产 暂时性差异 所得税资产长期资产报废 137,672,043 34,418,011 137,672,043 34,418,011预提费用 79,031,247 19,757,812 82,033,445 20,508,361应付职工薪酬 28,999,044 7,246,132 28,999,044 7,246,132建设中断期利息支出费用化 14,820,230 3,705,058 14,820,230 3,705,058租赁负债 40,487,291 10,121,822 40,903,391 10,225,847资产减值准备 1,072,531 268,133 1,044,199 261,050其他 50,449 12,612 50,449 12,612合计 302,132,835 75,529,580 305,522,801 76,377,071其中:预计于一年内(含一年)转回的金额 29,109,025 29,987,626预计于一年后转回的金额 46,420,555 46,389,445中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)13 递延所得税(续)(2) 未经抵销的递延所得税负债2024 年 6 月 30 日 2023 年 12 月 31 日应纳税暂时性差异 递延所得税负债 应纳税暂时性差异 递延所得税负债使用权资产 36,842,123 9,210,531 38,643,777 9,660,944其中:预计于一年内(含一年)转回的金额 770,906 900,827预计于一年后转回的金额 8,439,625 8,760,117(3) 本集团未确认递延所得税资产的可抵扣暂时性差异及可抵扣亏损分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日可抵扣亏损 29,266,964 29,082,637可抵扣暂时性差异 224,000 224,00029,490,964 29,306,637(4) 未确认递延所得税资产的可抵扣亏损将于以下年度到期:2024 年 6 月 30 日 2023 年 12 月 31 日2025 年 8,482,728 8,482,7282027 年 13,392,950 13,392,9502028 年 7,206,959 7,206,9592029 年 184,327 -29,266,964 29,082,637(5) 抵销后的递延所得税资产和递延所得税负债净额列示如下:2024 年 6 月 30 日 2023 年 12 月 31 日互抵金额 抵销后余额 互抵金额 抵销后余额递延所得税资产 9,210,531 66,319,049 9,660,944 66,716,127递延所得税负债 9,210,531 - 9,660,944 -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)14 其他非流动资产2024 年 6 月 30 日 2023 年 12 月 31 日预付工程款 27,564,803 29,760,676合同取得成本 8,220,803 7,231,032合计 35,785,606 36,991,708其他非流动资产余额为未来将形成长期资产的预付款项及确认为合同取得成本的租赁代理佣金。\n15 资产减值及损失准备2023 年12 月 31 日本期增加本期减少 2024 年6 月 30 日转回 转销应收账款坏账准备 1,268,199 28,332 - - 1,296,531其中:单项计提坏账准备 1,165,049 - - - 1,165,049组合计提坏账准备 103,150 28,332 - - 131,482其他应收款坏账准备 - - - - -合计 1,268,199 28,332 - - 1,296,53116 应付账款2024 年 6 月 30 日 2023 年 12 月 31 日物业管理外包服务款 69,178,664 67,966,773酒店物资采购款 14,078,956 18,502,314其他 9,489,740 10,519,680合计 92,747,360 96,988,7672024 年 6 月 30 日,账龄超过一年的应付账款为 1,072,028 元(2023 年 12 月 31日:300,803 元),主要为提供物业管理服务及酒店服务的应付物资采购款,上述款项预计将于一年以内支付。\n17 预收款项2024 年 6 月 30 日 2023 年 12 月 31 日预收租金 43,172,273 35,677,643(1) 2024 年 6 月 30 日,账龄超过一年的预收款项为 391,475 元,主要为写字楼、商场等物业预收租金。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)18 合同负债2024 年 6 月 30 日 2023 年 12 月 31 日预收物业管理服务款 26,237,531 20,590,385预收酒店服务款 32,232,568 36,425,511预收会展服务款 3,983,905 741,652合计 62,454,004 57,757,548(1) 2024 年 6 月 30 日,本集团除租赁业务以外的已签订合同、但尚未履行或尚未履行完毕的履约义务所对应的预收金额为 62,454,004 元,其中,本集团预计42,778,323 元将于 2024 年度确认收入,19,675,681 元将于 2025 年及以后年度确认收入。\n2024 年 6 月 30 日,本公司除租赁业务以外的已签订合同、但尚未履行或尚未履行完毕的履约义务所对应的 预收金额为 48,378,609 元,其中,本公司预计31,877,257 元将于 2024 年度确认收入,16,501,352 元将于 2025 年及以后年度确认收入。\n19 应付职工薪酬2024 年 6 月 30 日 2023 年 12 月 31 日应付短期薪酬(1) 66,221,232 127,576,153应付设定提存计划(2) 2,861,648 2,985,789合计 69,082,880 130,561,942(1) 短期薪酬2023 年本期增加 本期减少2024 年12 月 31 日 6 月 30 日工资、奖金、津贴和补贴 97,585,886 160,941,563 (223,944,493) 34,582,956职工福利费 - 9,151,870 (7,206,022) 1,945,848社会保险费 1,569,048 12,299,812 (12,385,121) 1,483,739其中:医疗保险费 1,538,865 11,984,379 (12,068,053) 1,455,191工伤保险费 30,183 315,433 (317,068) 28,548工会经费和职工教育经费 28,421,219 5,103,787 (6,342,200) 27,182,806住房公积金 - 13,833,588 (13,833,588) -补充医疗保险 - 3,301,419 (2,275,536) 1,025,883合计 127,576,153 204,632,039 (265,986,960) 66,221,232中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)19 应付职工薪酬(续)(2) 设定提存计划2023 年12 月 31 日 本期增加 本期减少2024 年6 月 30 日基本养老保险 2,717,224 19,117,799 (19,231,053) 2,603,970失业保险费 95,841 597,601 (602,202) 91,240补充养老保险 172,724 3,595,976 (3,602,262) 166,438合计 2,985,789 23,311,376 (23,435,517) 2,861,64820 应交税费2024 年 6 月 30 日 2023 年 12 月 31 日应交企业所得税 107,980,890 87,235,098应交增值税 14,301,408 11,420,707应交城市维护建设税 1,018,302 848,187应交教育费附加 727,350 605,848其他 4,479,606 4,838,715合计 128,507,556 104,948,55521 其他应付款2024 年 6 月 30 日 2023 年 12 月 31 日应付租户押金 764,972,353 766,015,472应付物业管理项目代收款 166,713,878 181,818,535预提费用 85,974,143 82,033,445应付工程及设备款 50,650,168 57,841,744其他 44,371,469 43,173,585合计 1,112,682,011 1,130,882,781(1) 2024 年 6 月 30 日,账龄超过一年的其他应付款为 700,834,170 元(2023 年 12月 31 日:703,939,046 元),主要为收取的租户押金,由于租赁期尚未结束,上述款项尚未退还。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)22 一年内到期的非流动负债2024 年 6 月 30 日 2023 年 12 月 31 日一年内到期的应付债券(1) 449,570,001 443,190,003一年内到期的长期借款(附注四.23) 1,175,416 51,240,417一年内到期的租赁负债(附注四.24) 2,595,644 3,107,850453,341,061 497,538,270(1) 债券有关信息如下:面值 发行日期 债券期限 发行金额 是否违约19 国贸 01(1) 500,000,000 2019/9/26 5 年 500,000,000 否经中国证券监督委员会证监许可【2019】1595 号文核准,本公司于 2019 年 9月 26 日完成公开发行了 2019 年公司债券(面向合格投资者)(第一期),发行总额为人民币 5 亿元,扣除发行费用后金额为 498,250,000 元,本年债券期限为 5年,附第三年末发行人调整票面利率选择权和投资者回售选择权。本期债券采用单利按年计息,不计复利,固定年利率为 3.65%,每年付息一次。\n本公司于 2022 年 8 月 12 日选择下调票面利率,存续期内第 4 年至第 5 年的票面利率调整为 2.90%,采用单利按年计息,不计复利,每年付息一次。\n截至 2022 年 9 月 26 日,债券回售已全部实施完毕,共计回售 60,000 手,涉及债券本金 60,000,000 元,剩余债券面值共计 440,000,000 元将于 2024 年 9 月25 日到期并偿还。\n2024 年 6 月 30 日,本集团将于一年内支付的应付债券利息为 9,570,001 元,一年内支付的应付债券本金为 440,000,000 元,列示于一年内到期的非流动负债。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)23 长期借款2024 年 6 月 30 日 2023 年 12 月 31 日抵押借款 1,086,175,416 1,136,240,417减:一年内到期的长期借款(附注四.22)本金 - (50,000,000)利息 (1,175,416) (1,240,417)1,085,000,000 1,085,000,000本公司于 2020 年 8 月与建行北京华贸支行签订借款合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月30 日,本公司长期抵押借款本息和的余额为 1,086,175,416 元,抵押物的账面价值为 1,944,610,770 元(原价 2,791,031,574 元)(2023 年 12 月 31 日,长期抵押借款本息和的余额为 1,136,240,417 元,抵押物的账面价值为 1,975,249,983元(原价 2,791,031,574 元))(附注四 8、9、11)。利息每 3 个月支付一次,借款期限为 2020 年 8 月 28 日至 2035 年 8 月 27 日。\n根据本公司与建行北京华贸支行签订的长期借款合同中相关规定,借款利率执行浮动政策。建行于每一年度间根据贷款市场报价利率(以下简称“LPR”),再调整该等长期借款当年的借款利率后进行计息。\n2024 年 6 月 30 日,本集团不存在逾期长期借款,本集团长期借款的利率为3.90%(2023 年 12 月 31 日:3.90%)。\n24 租赁负债2024 年 6 月 30 日 2023 年 12 月 31 日租赁负债 40,487,291 40,903,391减:一年内到期的非流动负债(附注四.22) (2,595,644) (3,107,850)37,891,647 37,795,5412024 年 6 月 30 日,本集团未纳入租赁负债,但将导致未来潜在现金流出的事项为 按 新 租 赁 准 则 进 行 简 化 处 理 的 短 期 租 赁 , 未 来 最 低 应 支 付 租 金 ( 含 税 ) 为3,772,881 元(2023 年 12 月 31 日:3,623,945 元),将在一年内支付。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 47 -四 合并财务报表项目附注(续)25 股本2023 年 本期增减变动 2024 年12 月 31 日 发行新股 送股 公积金转股 其他 小计 6 月 30 日人民币普通股 1,007,282,534 - - - - - 1,007,282,5342022 年 本年增减变动 2023 年12 月 31 日 发行新股 送股 公积金转股 其他 小计 12 月 31 日人民币普通股 1,007,282,534 - - - - - 1,007,282,534中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)26 资本公积2023 年 本期增加本期减少2024 年12 月 31 日 6 月 30 日股本溢价 1,919,827,911 - - 1,919,827,911其他资本公积 -变更记账本位币产生外币折算差额 (44,434,929) - - (44,434,929)原制度资本公积转入 (2,874,383) - - (2,874,383)其他 1,068,585 - - 1,068,585合计 1,873,587,184 - - 1,873,587,1842022 年 本年增加本年减少2023 年12 月 31 日 12 月 31 日股本溢价 1,919,827,911 - - 1,919,827,911其他资本公积 -变更记账本位币产生外币折算差额 (44,434,929) - - (44,434,929)原制度资本公积转入 (2,874,383) - - (2,874,383)其他 466,379 602,206 - 1,068,585合计 1,872,984,978 602,206 - 1,873,587,18427 盈余公积2023 年12 月 31 日 本期提取 本期减少2024 年6 月 30 日法定盈余公积金 503,641,267 - - 503,641,2672022 年12 月 31 日 本年提取 本年减少2023 年12 月 31 日法定盈余公积金 503,641,267 - - 503,641,267根据《中华人民共和国公司法》及本公司章程,本公司按年度净利润的 10%提取法定盈余公积金,当法定盈余公积金累计额达到股本的 50%以上时,可不再提取。法定盈余公积金经批准后可用于弥补亏损,或者增加股本。本公司的法定盈余公积金累计额已达到股本的 50%,本期间无需提取。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)28 未分配利润2024 年 1 至 6 月 2023 年度金额 金额期/年初未分配利润 6,315,647,342 5,761,543,789加:本期/年归属于母公司所有者的净利润 687,537,223 1,259,201,327减:支付普通股股利 (1,309,467,294) (705,097,774)期/年末未分配利润 5,693,717,271 6,315,647,342根据 2024 年 4 月 26 日股东大会决议,本公司向全体股东派发 2023 年度现金股利,每 10 股人民币 13.00 元(含税),按照已发行股份 1,007,282,534 股计算,共计 1,309,467,294 元。\n29 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 1,965,293,521 1,938,364,140主营业务成本 768,803,721 770,020,879本集团主要业务为对外提供物业租赁、物业管理服务、会展服务及酒店经营,与上述业务相关的收入主要来自北京。因此本集团无需按产品或按地区对主营业务收入和主营业务成本进行分析。\n(2) 按收入类型分析如下2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,709,030,499 533,033,970 1,666,402,278 518,526,122酒店经营 256,263,022 235,769,751 271,961,862 251,494,757合计 1,965,293,521 768,803,721 1,938,364,140 770,020,8792024 年 1 至 6 月,本集团租赁收入中基于承租人的销售额的一定比例确认的可变租金为 70,821,426 元(2023 年 1 至 6 月:76,026,014 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)29 营业收入和营业成本(续)(3) 本集团营业收入分解如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入租赁业务 1,355,185,625 1,336,664,536按时点确认其中:酒店餐饮业务 97,009,322 115,476,076按时段内确认其中:物业管理服务 349,213,091 322,823,376酒店客房及其他配套服务 159,253,700 156,485,786会展服务 4,631,783 6,914,366合计 1,965,293,521 1,938,364,140包括在 2023 年 12 月 31 日账面价值中的 36,064,529 元合同负债已于 2024 年 1至 6 月转入营业收入(2023 年 1 至 6 月:71,197,955 元)。\n30 税金及附加2024 年 1 至 6 月 2023 年 1 至 6 月 计缴标准房产税 181,123,598 177,395,190 附注三城市维护建设税 5,839,205 5,573,345 附注三教育费附加 4,170,850 3,980,961 附注三其他 2,263,853 1,851,222合计 193,397,506 188,800,718中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)31 销售费用2024 年 1 至 6 月 2023 年 1 至 6 月广告宣传费 28,603,549 33,007,589代理佣金 8,212,149 6,381,556合计 36,815,698 39,389,14532 管理费用2024 年 1 至 6 月 2023 年 1 至 6 月员工成本 39,836,657 39,156,415折旧摊销 6,787,581 7,001,314维修保养费 1,226,262 1,914,246审计及咨询费 1,028,022 1,033,804保安费 1,021,789 1,041,457能源费 861,436 1,407,382清洁绿化费 538,431 579,504租金 88,390 88,390其他 8,651,259 5,551,684合计 60,039,827 57,774,19633 财务费用2024 年 1 至 6 月 2023 年 1 至 6 月利息支出 28,039,081 39,645,553加:租赁负债利息支出 787,784 854,089利息费用 28,826,865 40,499,642减:利息收入 (22,575,706) (17,074,023)汇兑(收益)/损失 (1,655) 405,143其他 1,401,587 1,149,203净额 7,651,091 24,979,965中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)34 费用按性质分类利润表中的营业成本、销售费用和管理费用按照性质分类,列示如下:2024 年 1 至 6 月 2023 年 1 至 6 月折旧摊销 231,482,045 238,407,927员工成本 229,160,612 233,655,602劳务费 101,793,168 77,389,503能源费 56,736,984 53,919,997维修保养费 54,104,244 54,693,870清洁绿化费 49,708,121 49,485,206酒店及物业管理营业物料 44,455,800 51,379,310广告宣传费 28,603,549 33,007,589保安费 13,936,114 14,186,397代理佣金 8,212,149 6,381,556保险费 5,770,956 5,536,730审计及咨询费 2,008,630 1,757,660租金(i) 1,252,681 1,301,188其他费用 38,434,193 46,081,685合计 865,659,246 867,184,220(i) 本集团将短期租赁和低价值租赁的租金支出直接计入当期损益,2024 年 1 至 6月金额为 1,252,681 元(2023 年 1 至 6 月:1,301,188 元)。\n35 信用减值损失2024 年 1 至 6 月 2023 年 1 至 6 月应收账款坏账损失/(转回) 28,332 (149,374)中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)36 其他收益2024 年 1 至 6 月 2023 年 1 至 6 月与资产相关/与收益相关政策奖励款 412,018 405,731 与收益相关增值税加计扣除 123,583 2,388,342 —代扣代缴税手续费返还 57,506 489,018 —合计 593,107 3,283,09137 投资收益2024 年 1 至 6 月 2023 年 1 至 6 月权益法核算的长期股权投资收益(附注五.2) 1,177,093 1,767,975本集团不存在投资收益汇回的重大限制。\n38 营业外收入2024 年1 至 6 月2023 年1 至 6 月计入 2024 年 1 至 6月非经常性损益的金额保险理赔收入 16,272,954 - 16,272,954租户违约罚款收入 1,282,587 7,411,061 1,282,587处置非流动资产收益 209,611 194,912 209,611不需支付的应付款项 104,714 1,630,126 104,714其他 26,940 1,000 26,940合计 17,896,806 9,237,099 17,896,806中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)39 营业外支出2024 年1 至 6 月2023 年1 至 6 月计入 2024 年 1 至 6月非经常性损益的金额处置非流动资产损失 1,024,753 1,633,530 1,024,753赞助捐赠支出 88,000 273,000 88,000其他 11,492 33,119 11,492合计 1,124,245 1,939,649 1,124,24540 所得税费用2024 年 1 至 6 月 2023 年 1 至 6 月按税法及相关规定计算的当期所得税 228,742,593 213,975,457递延所得税 397,078 1,899,031合计 229,139,671 215,874,488将基于合并利润表的利润总额采用适用税率计算的所得税调节为所得税费用:2024 年 1 至 6 月 2023 年 1 至 6 月利润总额 917,100,107 869,897,127按适用税率计算的所得税 229,275,027 217,474,282非应纳税收入涉及的所得税费用调整额 (294,273) (441,994)不得扣除的成本、费用和损失涉及的所得税费用调整额 112,836 54,741税率差异的影响 9,216 281,022当期未确认递延所得税资产的可抵扣亏损 36,865 1,124,089其他 - (2,617,652)所得税费用 229,139,671 215,874,488中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)41 每股收益(1) 基本每股收益基本每股收益以归属于母公司普通股股东的合并净利润除以母公司发行在外普通股的加权平均数计算:2024 年 1 至 6 月 2023 年 1 至 6 月归属于母公司普通股股东的合并净利润 687,537,223 653,651,170本公司发行在外普通股的加权平均数 1,007,282,534 1,007,282,534基本每股收益 0.68 0.65其中:— 持续经营基本每股收益: 0.68 0.65— 终止经营基本每股收益: - -(2) 稀释每股收益稀释每股收益以根据稀释性潜在普通股调整后的归属于母公司普通股股东的合并净利润除以调整后的本公司发行在外普通股的加权平均数计算。2024 年 1 至 6月,本公司不存在具有稀释性的潜在普通股(2023 年 1 至 6 月:不存在),因此,稀释每股收益等于基本每股收益。\n42 现金流量表项目注释(1) 收到的其他与经营活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月利息收入 21,033,279 5,074,023保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749租赁押金(i) - 969,319其他 6,033,470 6,548,135合计 45,091,814 20,897,287中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)42 现金流量表项目注释(续)(1) 收到的其他与经营活动有关的现金(续)(i) 2024 年 1 至 6 月,本集团实际收到租赁押金 25,452,903 元,支付租赁押金26,496,022 元,净支付租赁押金 1,043,119 元(2023 年 1 至 6 月:收到租赁押金20,732,626 元,支付租赁押金 19,763,307 元,净收到租赁押金 969,319 元)。\n(2) 支付的其他与经营活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月水电采暖费 56,112,195 51,101,506广告宣传费 22,754,073 40,494,713保险费 5,770,956 5,536,730租金 1,252,681 1,301,188租赁押金(附注四.42(1)(i)) 1,043,119 -其他 27,348,375 22,728,332合计 114,281,399 121,162,469(3) 支付的其他与筹资活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月偿还租赁负债支付的金额 1,203,884 1,203,8842024 年 1 至 6 月,本集团支付的与作为承租人租赁相关的总现金流出为2,456,565 元(2023 年 1 至 6 月:2,505,072 元),除计入筹资活动的偿付租赁负债支付的金额以外,其余现金流出均计入经营活动。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)43 现金流量表补充资料(1) 将净利润调节为经营活动现金流量2024 年 1 至 6 月 2023 年 1 至 6 月净利润 687,960,436 654,022,639加:投资性房地产折旧(附注四.8) 170,454,149 176,373,646固定资产折旧(附注四.9) 47,846,841 48,825,698无形资产摊销(附注四.11) 7,729,457 7,729,457长期待摊费用摊销(附注四.12) 3,649,944 3,677,472使用权资产折旧(附注四.10) 1,801,654 1,801,654处置非流动资产净损失/(收益)(附注四.38、39) 815,142 1,438,618财务费用/(收入)(附注四.33) 28,825,
10月 14 12:47:34 gpu ollama[24746]: 210 40,904,785投资(收益)/损失(附注四.37) (1,177,093) (1,767,975)递延所得税资产减少/(增加)(附注四.13) 397,078 1,899,031存货的减少/(增加)(附注四.5) 329,316 1,357,482信用减值损失(附注四.35) 28,332 (149,374)受限资金的减少/(增加) 13,771,165 20,165,655经营性应收项目的减少/(增加) 20,904,271 75,426,863经营性应付项目的(减少)/增加 (40,912,808) (39,068,402)经营活动产生的现金流量净额 942,423,094 992,637,249(2) 现金及现金等价物净变动情况2024 年 1 至 6 月 2023 年 1 至 6 月现金的期末余额 3,425,888,471 3,550,484,636减:现金的期初余额 (3,890,169,116) (3,326,552,300)加:现金等价物的期末余额 - -减:现金等价物的期初余额 - -现金及现金等价物的净(减少)/增加额 (464,280,645) 223,932,336中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)43 现金流量表补充资料(续)(3) 筹资活动产生的各项负债的变动情况长期借款(含一年内到期)(附注四.23)应付债券(含一年内到期)(附注四.22)租赁负债(含一年内到期)(附注四.24)应付股利 合计2023 年 12 月 31 日 1,136,240,417 443,190,003 40,903,391 - 1,620,333,811本期计提的利息/股利 21,659,083 6,379,998 787,784 1,309,467,294 1,338,294,159筹资活动产生的现金流出 (71,724,084) - (1,203,884) (1,309,467,294) (1,382,395,262)其中:偿还本金 (50,000,000) - - - (50,000,000)支付租金 - - (1,203,884) - (1,203,884)偿还利息 (21,724,084) - - - (21,724,084)支付股利 - - - (1,309,467,294) (1,309,467,294)2024 年 6 月 30 日 1,086,175,416 449,570,001 40,487,291 - 1,576,232,708(4) 现金及现金等价物2024 年 6 月 30 日 2023 年 12 月 31 日期/年末货币资金余额(附注四.1) 3,612,151,002 4,088,660,385其中:库存现金 771,466 885,944银行存款 3,555,200,837 4,033,138,169应收利息 56,178,699 54,636,272减:受到限制的货币资金(附注四.1) 130,083,832 143,854,997应收利息 56,178,699 54,636,272期/年末现金及现金等价物余额 3,425,888,471 3,890,169,11644 外币货币性项目2024 年 6 月 30 日外币余额 折算汇率 人民币余额货币资金—美元 723,230 7.1268 5,154,316欧元 322 7.6617 2,467其他应付款—美元 802,437 7.1268 5,718,808港币 220,000 0.9127 200,794欧元 36,580 7.6617 280,265英镑 29,762 9.0430 269,138上述外币货币性项目指除人民币之外的所有货币。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)五 在其他主体中的权益1 在子公司中的权益(1) 企业集团的构成子公司名称 主要经营地 注册地 注册资本 业务性质 持股比例 取得方式直接 间接国贸物业酒店管理有限公司 北京 北京人民币3000 万 服务业 95% - 直接持有北京国贸国际会展有限公司 北京 北京人民币1000 万 服务业 - 95% 间接持有2 在联营企业中的权益(1) 不重要的联营企业的汇总信息2024 年 1 至 6 月 2023 年 1 至 6 月联营企业时代网星投资账面价值合计 20,891,146 24,538,713按持股比例计算的净利润 725,751 1,549,010力创智慧投资账面价值合计 874,791 768,203按持股比例计算的净利润 109,050 (7,277)北京昌发展投资账面价值合计 2,953,266 2,121,392按持股比例计算的净利润 342,292 226,242首程国贸投资账面价值合计 2,000,000 -按持股比例计算的净利润 - -合计投资账面价值合计 26,719,203 27,428,308按持股比例计算的净利润 1,177,093 1,767,975中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)六 分部信息本集团的报告分部是提供不同服务的业务单元。由于各种业务需要不同的技术和市场战略,因此,本集团分别独立管理各个报告分部的生产经营活动,分别评价其经营成果,以决定向其配置资源并评价其业绩。\n本集团有 2 个报告分部,分别为:- 租赁及物业管理分部,负责提供物业出租、物业管理服务及会展服务- 酒店经营分部,负责提供客房、餐饮等服务分部间转移价格参照向第三方销售所采用的价格确定。资产及负债按照分部进行分配,间接归属于各分部的费用按照受益比例在分部之间进行分配。\n(1) 2024 年 1 至 6 月及 2024 年 6 月 30 日分部信息列示如下:租赁及物业管理业务 酒店经营未分配的金额分部间的抵销 合计对外交易收入 1,709,030,499 256,263,022 - - 1,965,293,521分部间交易收入 2,059,878 4,187,445 - (6,247,323) -主营业务成本 (533,033,970) (235,769,751) - - (768,803,721)利息收入 22,361,607 214,099 - - 22,575,706利息费用 - - (28,826,865) - (28,826,865)对联营企业的投资收益 - - 1,177,093 - 1,177,093折旧费和摊销费 (179,723,132) (51,758,913) - - (231,482,045)利润总额 945,909,574 (1,159,695) (27,649,772) - 917,100,107所得税费用 - - (229,139,671) - (229,139,671)净利润 945,909,574 (1,159,695) (256,789,443) - 687,960,436资产总额 10,197,061,326 1,877,256,344 93,038,252 - 12,167,355,922负债总额 1,300,281,045 95,925,031 1,688,672,716 - 3,084,878,792对联营企业的长期股权投资 - - 26,719,203 - 26,719,203非流动资产增加额(i) 20,311,781 3,092,259 - - 23,404,040(i) 非流动资产不包括长期股权投资和递延所得税资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)六 分部信息(续)(2) 2023 年 1 至 6 月及 2023 年 6 月 30 日分部信息列示如下:租赁及物业管理业务 酒店经营 未分配的金额分部间的抵销 合计对外交易收入 1,666,402,278 271,961,862 - - 1,938,364,140分部间交易收入 1,842,491 3,411,616 - (5,254,107) -主营业务成本 (518,526,122) (251,494,757) - - (770,020,879)利息收入 16,829,724 244,299 - - 17,074,023利息费用 - - (40,499,642) - (40,499,642)对联营企业的投资收益 - - 1,767,975 - 1,767,975使用权资产折旧费 (1,801,654) - - - (1,801,654)折旧费和摊销费 (183,871,459) (52,734,814) - - (236,606,273)利润/(亏损)总额 904,979,046 3,649,748 (38,731,667) - 869,897,127所得税费用 - - (215,874,488) - (215,874,488)净利润 904,979,046 3,649,748 (254,606,155) - 654,022,639资产总额 10,680,671,485 1,962,000,318 94,542,239 - 12,737,214,042负债总额 (1,267,927,182) (102,496,997) (2,268,886,633) - (3,639,310,812)对联营企业的长期股权投资 - - 27,428,308 - 27,428,308非流动资产增加额(i) 23,366,594 1,525,911 - - 24,892,505(i) 非流动资产不包括长期股权投资和递延所得税资产。\n七 关联方关系及其交易1 母公司情况(1) 母公司基本情况注册地 业务性质国贸有限公司 北京 服务业本公司的最终控制方为国贸有限公司。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)1 母公司情况(续)(2) 母公司注册资本及其变化2023 年12 月 31 日本期增加本期减少2024 年6 月 30 日国贸有限公司 240,000,000 美元 - - 240,000,000 美元(3) 母公司对本公司的持股比例和表决权比例2024 年 6 月 30 日 2023 年 12 月 31 日持股比例 表决权比例 持股比例 表决权比例国贸有限公司 80.65% 80.65% 80.65% 80.65%2 子公司情况子公司的基本情况及相关信息见附注五.1。\n3 联营企业情况联营企业的基本情况及相关信息见附注五.2。\n4 其他关联方情况与本集团的关系中国世贸投资有限公司 母公司的中方投资者嘉里兴业有限公司 母公司的外方投资者香格里拉国际饭店管理有限公司(以下称“香格里拉”)母公司的外方投资者之关联公司香格里拉饭店管理(上海)有限公司北京分公司(以下称“香格里拉北京”)母公司的外方投资者之关联公司中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 63 -七 关联方关系及其交易(续)5 关联交易(1) 购销商品、提供和接受劳务本公司与关联方的交易价格以市场价为基础,由双方协商确定,经本公司董事会或股东大会批准后签订相关合同。本公司董事会认为与关联方的交易均符合正常的商业条款。\n接受劳务和服务关联方 关联交易类型 关联交易内容 2024 年 1 至 6 月 2023 年 1 至 6 月金额 金额国贸有限公司 接受劳务 支付餐饮费及会员费 1,199,036 906,827国贸有限公司 接受劳务 支付劳务费 3,222,808 3,317,866国贸有限公司 接受劳务 支付公关管理及工会行政费等 4,001,239 2,751,966国贸有限公司 接受劳务支付酒店营运物资、食品加工费、洗衣费等 2,518,468 1,854,990国贸有限公司 接受劳务 支付蒸汽费、热水费及电费等 3,500,025 3,975,901香格里拉 接受劳务 支付管理费用 6,599,222 6,843,470中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 64 -七 关联方关系及其交易(续)5 关联交易(续)(1) 购销商品、提供和接受劳务(续)提供劳务关联方 关联交易类型 关联交易内容 2024 年 1 至 6 月 2023 年 1 至 6 月金额 金额国贸有限公司 提供劳务收取管理国贸二期销售佣金及管理酬金 1,719,417 1,129,290国贸有限公司 提供劳务 收取国贸西写字楼委托管理费 663,673 909,522国贸有限公司 提供劳务 收取国贸东楼商城委托管理费 2,202,016 1,735,572国贸有限公司 提供劳务收取国贸中心 19#楼委托经营管理费 292,035 292,035国贸有限公司 提供劳务收取维修保养费、清洁及绿化费 9,673,361 9,858,447国贸有限公司 提供劳务 收取国贸一期 F 区域委托管理费 109,923 109,923国贸有限公司 提供劳务收取“ 美丽田园 ”区域委托管理费 926,092 926,092国贸有限公司 提供劳务 收取劳务费及服务费 9,092,011 7,203,839国贸有限公司 提供劳务 收取物业工程管理服务费 1,186,636 1,186,636国贸有限公司 提供劳务 收取信息系统维护费 1,165,988 716,502中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 65 -七 关联方关系及其交易(续)5 关联交易(续)(2) 租赁本集团作为出租方:承租方名称 租赁资产种类2024 年 1 至 6 月确认的租赁收入2023 年 1 至 6 月确认的租赁收入国贸有限公司 办公用房 2,266,221 2,444,709国贸有限公司 商铺 541,000 534,710香格里拉北京 办公用房 1,685,332 1,274,428本集团作为承租方:出租方名称 租赁资产种类2024 年 1 至 6 月确认的租赁费2023 年 1 至 6 月确认的租赁费国贸有限公司 公寓 794,109 941,775国贸有限公司 办公用房 152,163 152,163中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)5 关联交易(续)(2) 租赁(续)2024 年 1 至 6 月,本集团作为承租方不存在新增的使用权资产。\n本集团作为承租方当年承担的租赁负债利息支出:2024 年 1 至 6 月 2023 年 1 至 6 月国贸有限公司 787,784 854,089(3) 根据本公司与国贸有限公司于 1998 年 9 月 2 日所签订的《商标使用许可协议》,国贸有限公司允许本公司无偿使用其拥有的商标,许可期限为 6 年,从协议生效日起至 2004 年 9 月 1 日止。根据协议条款,协议届满前由于双方对该协议条款和条件没有异议,该协议将自动延续。\n(4) 关键管理人员薪酬2024 年 1 至 6 月 2023 年 1 至 6 月关键管理人员薪酬 16,539,572 15,120,357中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)6 关联方应付款项余额其他应付款 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 4,902,588 262,588香格里拉 3,129,279 3,002,170香格里拉北京 830,844 830,844合计 8,862,711 4,095,602租赁负债(附注四.24)(含一年内到期的非流动负债) 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 40,487,291 40,903,391八 承诺事项1 资本性支出承诺事项以下为本集团于资产负债表日,已签约而尚不必在资产负债表上列示的资本性支出承诺:2024 年 6 月 30 日 2023 年 12 月 31 日房屋、建筑物及机器设备的购建 27,953,795 28,812,961中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)九 资产负债表日后经营租赁收款额本集团作为出租人,资产负债表日后应收的租赁收款额的未折现金额汇总如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 2,205,063,708 2,108,504,018一到二年 1,422,131,426 1,417,492,014二到三年 845,519,655 909,124,526三年以上 1,966,886,403 2,112,166,147合计 6,439,601,192 6,547,286,705十 金融风险本集团经营活动中面临的金融风险包括:市场风险(主要为外汇风险和利率风险)、信用风险和流动性风险。本集团整体的风险管理计划针对金融市场的不可预见性,力求减少对本集团财务业绩的潜在不利影响。\n1 市场风险(1) 外汇风险本集团的经营位于中国境内,业务主要以人民币结算。本集团已确认的外币资产和负债及未来的外币交易(外币资产和负债及外币交易的计价货币主要为美元)存在外汇风险。本集团总部财务部门负责监控集团外币交易和外币资产及负债的规模,以最大程度降低面临的外汇风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间,本集团未签署任何远期外汇合约或货币互换合约。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(1) 外汇风险(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团内记账本位币为人民币的公司持有的外币金融资产和外币金融负债折算成人民币的金额列示如下:2024 年 6 月 30 日美元项目 其他外币项目 合计外币金融资产-货币资金 5,154,316 2,467 5,156,783外币金融负债 -其他应付款 5,718,808 750,197 6,469,0052023 年 12 月 31 日美元项目 其他外币项目 合计外币金融资产-货币资金 4,773,527 2,531 4,776,058外币金融负债 -其他应付款 5,772,153 755,935 6,528,0882024 年 6 月 30 日,对于本集团各类美元金融资产和美元金融负债,如果人民币对美元升值或贬值 10%,其他因素保持不变,则本集团将增加或减少净利润约42,337 元(2023 年 12 月 31 日:增加或减少净利润约 74,897 元) 。\n(2) 利率风险本集团的利率风险主要产生于长期银行借款及应付债券等长期带息债务。浮动利率的金融负债使本集团面临现金流量支出增加的利率风险,固定利率的金融负债使本集团面临公允价值降低的利率风险。本集团一般根据市场环境决定固定利率及浮动利率合同的相对比例。2024 年 6 月 30 日,本集团长期带息债务主要为人民币计价挂钩的 LPR 的浮动利率借款,金额为 1,085,000,000 元以及以人民币计价的固定利率债券,金额为 440,000,000 元(2023 年 12 月 31 日:分别为1,135,000,000 元及 440,000,000 元)(附注四.23、22)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(2) 利率风险(续)由于利率上升会增加新增带息债务的成本以及本集团尚未付清的以浮动利率计息的带息债务的利息支出,并对本集团的财务业绩产生重大的不利影响,本集团会持续监控集团利率水平,并依据最新的市场状况及时做出调整,这些调整可能是进行利率互换的安排来降低利率风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间本集团无利率互换安排。\n2024 年 6 月 30 日,如果以浮动利率计算的借款利率上升或下降 50 个基点,而其他因素保持不变,本集团的净利润会减少或增加约 4,068,750 元(2023 年 12月 31 日:约 4,256,250 元)。\n2 信用风险本集团信用风险主要产生于货币资金、应收账款及其他应收款等。于资产负债表日,本集团金融资产的账面价值已代表其最大信用风险敞口。\n本集团银行存款主要存放于国有银行和其他大中型商业银行,本集团认为其不存在重大的信用风险,不会产生因对方单位违约而导致的任何重大损失。\n此外,对于应收账款及其他应收款等,本集团设定相关政策以控制信用风险敞口。本集团基于对客户的财务状况、从第三方获取担保的可能性、信用记录及其他因素诸如目前市场状况等评估客户的信用资质并设置相应信用期。本集团会定期对客户信用记录进行监控,对于信用记录不良的客户,本集团会采用书面催款、缩短信用期或取消信用期等方式,以确保本集团的整体信用风险在可控的范围内。\n2024 年 6 月 30 日,本集团无重大的因债务人抵押而持有的担保物和其他信用增级(2023 年 12 月 31 日:无)。\n3 流动性风险本集团内子公司负责其自身的现金流量预测。总部财务部门在汇总子公司现金流量预测的基础上,在集团层面持续监控短期和长期的资金需求,以确保维持充裕的现金储备和可供随时变现的有价证券;同时持续监控是否符合借款协议的规定,并从主要金融机构获得提供足够备用资金的承诺,以满足短期和长期的资金需求。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)3 流动性风险(续)资产负债表日,本集团的金融负债以未折现的合同现金流量按到期日列示如下:2024 年 6 月 30 日一年以内 一到二年 二到五年 五年以上 合计应付账款 92,747,360 - - - 92,747,360其他应付款 1,112,682,011 - - - 1,112,682,011长期借款 42,315,000 42,315,000 126,945,000 1,342,416,250 1,553,991,250应付债券 452,760,000 - - - 452,760,000租赁负债 4,127,787 3,572,154 10,716,462 32,744,745 51,161,148合计 1,704,632,158 45,887,154 137,661,462 1,375,160,995 3,263,341,7692023 年 12 月 31 日一年以内 一到二年 二到五年 五年以上 合计应付账款 96,988,767 - - - 96,988,767其他应付款 1,130,882,781 - - - 1,130,882,781长期借款 94,265,000 44,265,000 132,795,000 1,376,411,250 1,647,736,250应付债券 452,760,003 - - - 452,760,003租赁负债 4,683,419 3,572,154 10,716,462 34,530,822 53,502,857合计 1,779,579,970 47,837,154 143,511,462 1,410,942,072 3,381,870,6584 公允价值估计本集团不以公允价值计量的金融资产和金融负债主要包括应收款项、其他应收款、应付款项、租赁负债、长期借款及应付债券。上述不以公允价值计量的金融资产和负债的账面价值与公允价值相差不大。\n本集团发行的不存在活跃市场的应付债券,以合同规定的未来现金流量按照市场上具有可比信用等级并在相同条件下提供几乎相同现金流量的利率进行折现后的现值确定其公允价值。\n十一 资本管理本集团资本管理政策的目标是为了保障本集团能够持续经营,从而为股东提供回报,并使其他利益相关者获益,同时维持最佳的资本结构以降低资本成本。\n本集团的总资本为合并资产负债表中所列示的股东权益。本集团不受制于外部强制性资本要求,利用资产负债率监控资本。\n2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团的资产负债率列示如下﹕2024 年 6 月 30 日 2023 年 12 月 31 日资产负债率 25% 25%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注1 应收账款2024 年 6 月 30 日 2023 年 12 月 31 日应收账款 176,484,064 191,180,966减:坏账准备 (941,049) (941,049)净额 175,543,015 190,239,917(1) 应收账款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 175,543,015 190,239,917一到二年 - -二到三年 - -三年以上 941,049 941,049合计 176,484,064 191,180,966(2) 2024 年 6 月 30 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额 坏账准备金额占应收账款总额比例余额前五名的应收账款总额 6,774,614 - 3.84%(3) 坏账准备本公司对于应收账款,无论是否存在重大融资成分,均按照整个存续期的预期信用损失计量损失准备。\n应收账款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 941,049 0.53% (941,049) 100.00% 941,049 0.49% (941,049) 100.00%按组合计提坏账准备(b) 175,543,015 99.47% - - 190,239,917 99.51% - -176,484,064 100.00% (941,049) 0.53% 191,180,966 100.00% (941,049) 0.49%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)1 应收账款(续)(3) 坏账准备(续)(a) 2024 年 6 月 30 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100% (941,049)(i) 2024 年 6 月 30 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:941,049 元)。\n(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,313,622 - - 17,126,232 - -逾期 90-180 日 640,991 - - 680,303 - -逾期 180-365 天 147,429 - - - - -合计 160,351,161 - 172,497,625 -组合 —应收酒店服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -(4) 本期间无计提、收回或转回的坏账准备。\n(5) 本期间本公司无实际核销的应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款2024 年 6 月 30 日 2023 年 12 月 31 日应收代垫款项 2,048,578 4,312,402应收备用金 806,282 -应收押金和保证金 687,580 761,880应收其他款项 925,074 918,948合计 4,467,514 5,993,230减:坏账准备 - -净额 4,467,514 5,993,230本公司不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。\n(1) 其他应收款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 3,323,427 4,776,054一到二年 4,911 278,000二到三年 200,000 14,652三年以上(附注四 4(1)) 939,176 924,524合计 4,467,514 5,993,230(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 4,467,514 100% - - 5,993,230 100% - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款(续)(2) 损失准备及其账面余额变动表(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本公司不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例代垫款:一年以内 2,048,578 - - 4,312,402 - -备用金:一年以内 806,282 - - - - -押金和保证金:一年以内 687,580 - - 761,880 - -其他款项:一年以内 925,074 - - 918,948 - -合计 4,467,514 - - 5,993,230 - -(3) 2024 年 6 月 30 日,按欠款方归集的余额前五名的其他应收款汇总分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 15.39% -第二名 应收其他款 622,224 三年以上 13.93% -第三名 应收代垫款 434,569 一年以内 9.73% -第四名 应收押金 399,642 一年以内 8.94% -第五名 应收代垫款 389,156 一年以内 8.71% -合计 2,533,146 56.70% -(4) 本期间无计提、收回或转回的坏账准备。\n(5) 本期间本公司无实际核销的其他应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)3 长期股权投资2024 年 6 月 30 日 2023 年 12 月 31 日子公司(1) 9,500,000 9,500,000联营企业(附注五.2) 20,891,146 26,045,395减:长期股权投资减值准备 - -净额 30,391,146 35,545,395本公司不存在长期投资变现的重大限制。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 77 -十二 公司财务报表附注(续)3 长期股权投资(续)(1) 子公司2023 年12 月 31 日 追加或减少投资2024 年6 月 30 日持股比例表决权比例 减值准备本期计提减值准备本期宣告分派的现金股利国贸物业酒店管理有限公司 9,500,000 - 9,500,000 95% 95% - - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)4 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 1,809,562,667 1,804,419,444主营业务成本 623,801,568 642,110,612本公司主要业务为对外提供物业租赁服务及酒店经营,与上述业务相关的收入均来自北京。因此本公司无需按产品或按地区对于主营业务收入和主营业务成本进行分析。\n(2) 按收入类型分析如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,553,056,071 388,026,407 1,532,157,678 390,612,610酒店经营 256,506,596 235,775,161 272,261,766 251,498,002合计 1,809,562,667 623,801,568 1,804,419,444 642,110,612本公司营业收入分解如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入租赁业务 1,357,967,900 1,339,088,484按时点确认其中:酒店餐饮业务 97,252,896 115,775,980按时段内确认其中:物业管理服务 195,088,171 193,069,194酒店客房及其他配套服务 159,253,700 156,485,7861,809,562,667 1,804,419,444包括在 2023 年 12 月 31 日账面价值中的 28,260,639 元合同负债已于 2024 年 1至 6 月转入营业收入(2023 年 1 至 6 月:49,743,804 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)5 投资收益2024 年 1 至 6 月 2023 年 1 至 6 月权益法核算的长期股权投资收益 725,751 1,549,010处置长期股权投资产生的投资损失 - (9,684,300)合计 725,751 (8,135,290)本公司不存在投资收益汇回的重大限制。中国国际贸易中心股份有限公司财务报表补充资料截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)一 2024 年 1 至 6 月非经常性损益明细表2024 年 1 至 6 月 2023 年 1 至 6 月保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749不需支付的应付款项 104,714 1,630,126处置非流动资产净损失 (815,142) (1,438,618)赞助捐赠支出 (88,000) (273,000)除上述各项之外的其他营业外收入和支出 15,448 (32,119)非经常性损益合计 17,242,085 8,192,199所得税影响额 (4,310,521) (2,048,050)少数股东权益影响额(税后) (5,454) (3,196)非经常性损益净额 12,926,110 6,140,953(1) 2024 年 1 至 6 月非经常性损益明细表编制基础:中国证券监督管理委员会于 2023 年颁布了《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益(2023 年修订)》(以下简称“2023 版 1 号解释性公告”),该规定自公布之日起施行。本集团按照 2023 版 1 号解释性公告的规定编制2024 年 1 至 6 月非经常性损益明细表。\n根据 2023 版 1 号解释性公告的规定,非经常性损益是指与公司正常经营业务无直接关系,以及虽与正常经营业务相关,但由于其性质特殊和偶发性,影响报表使用人对公司经营业绩和盈利能力作出正确判断的各项交易和事项产生的损益。\n二 净资产收益率及每股收益加权平均 每股收益净资产收益率(%) 基本每股收益 稀释每股收益2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64\n</Content>\n</Reference>\n<|user|>\nsummarize the content<|assistant|>\n"

Here is the testing by using llama3.1:8b
ollama-6.log

<!-- gh-comment-id:2409951334 --> @goactiongo commented on GitHub (Oct 14, 2024): Thanks for your information, I almost understand the root cause--- the token qty. which LLM can supported. The following was testing with glm4:9b, which context length 131072. Whatever setting --ctx-size 128001 or --ctx-size 96001, The ollama log shown many information as followed [ollama-5.log](https://github.com/user-attachments/files/17359429/ollama-5.log) It seemd that available memory is enough, why shown "gpu has too little memory to allocate any layers" and "minimum_memory=479199232" ```sh 10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.994+08:00 level=DEBUG source=sched.go:224 msg="loading first model" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.994+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.995+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="484.5 MiB" gpu_zer_overhead="0 B" partial_offload="24.6 GiB" full_offload="24.2 GiB" 10月 14 12:47:30 gpu ollama[24746]: time=2024-10-14T12:47:30.995+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" ``` and the logs shown Ollama had received the PDF content successful ,but FastGPT received “network error” ``` 10月 14 12:47:34 gpu ollama[24746]: time=2024-10-14T12:47:34.755+08:00 level=DEBUG source=routes.go:1417 msg="chat request" images=0 prompt="[gMASK]<sop><|system|>\n将 <Reference></Reference> 中的内容作为本次对话的参考:\n<Reference>\nFile: 600007.pdf\n<Content>\n中国国际贸易中心股份有限公司 2024 年半年度报告公司代码:600007 公司简称:中国国贸中国国际贸易中心股份有限公司2024 年半年度报告中国国际贸易中心股份有限公司 2024 年半年度报告1重要提示一、 本公司董事会、监事会及董事、监事、高级管理人员保证半年度报告内容的真实性、准确性、完整性,不存在虚假记载、误导性陈述或重大遗漏,并承担个别和连带的法律责任。\n二、 公司全体董事出席董事会会议。\n三、 公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅,未经审计。\n四、 公司负责人黄国祥先生、主管会计工作负责人胡燕敏女士及会计机构负责人贺咏芳女士声明:保证半年度报告中财务报告的真实、准确、完整。\n五、 董事会决议通过的本报告期利润分配预案或公积金转增股本预案不适用。\n六、 前瞻性陈述的风险声明本报告所涉及的前瞻性陈述,不构成公司对投资者的实质承诺,请投资者注意投资风险。\n七、 公司不存在被控股股东及其关联方非经营性占用资金的情况。\n八、 公司不存在违反规定决策程序对外提供担保的情况。\n九、 公司不存在半数以上董事无法保证公司所披露半年度报告的真实性、准确性和完整性的情况。中国国际贸易中心股份有限公司 2024 年半年度报告2十、 重大风险提示公司已在本报告中详细描述可能存在的相关风险,敬请查阅“第三节管理层讨论与分析”中“五、其他披露事项”中“(一)可能面对的风险”相关内容。中国国际贸易中心股份有限公司 2024 年半年度报告3目 录第一节 释义 .............................................................. 4第二节 公司简介和主要财务指标 ............................................ 4第三节 管理层讨论与分析 .................................................. 8第四节 公司治理 ......................................................... 19第五节 环境与社会责任..... ........................................... ...22第六节 重要事项..... ................................................. ...24第七节 股份变动及股东情况 ............................................... 29第八节 优先股相关情况 ................................................... 32第九节 债券相关情况 ..................................................... 32第十节 财务报告 ......................................................... 39备查文件目录载有公司董事长签名的 2024 年半年度报告正文及其摘要载有公司法定代表人、主管会计工作及会计机构负责人签名并盖章的财务报表载有会计师事务所盖章、注册会计师签名并盖章的审阅报告原件报告期内公开披露过的所有公司文件的正本及公告原稿中国国际贸易中心股份有限公司 2024 年半年度报告第一节 释义一、释义无。\n第二节 公司简介和主要财务指标一、 公司信息公司的中文名称 中国国际贸易中心股份有限公司公司的中文简称 中国国贸公司的外文名称 China World Trade Center Co., Ltd.\n公司的外文名称缩写 CWTC Co., Ltd.\n公司的法定代表人 黄国祥二、 联系人和联系方式董事会秘书 证券事务代表姓名 陈峰 骆洋喆、章侃联系地址 北京市朝阳区建国门外大街 1 号 北京市朝阳区建国门外大街 1 号电话 010-65052288 010-65052288传真 010-65053862 010-65053862电子信箱 dongmi@cwtc.com dongmi@cwtc.com三、 基本情况变更简介公司注册地址 北京市朝阳区建国门外大街 1 号公司办公地址 北京市朝阳区建国门外大街 1 号公司办公地址的邮政编码 100004公司网址 http://www.cwtc.com电子信箱 dongmi@cwtc.com中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司基本情况未发生变更。\n四、 信息披露及备置地点变更情况简介公司选定的信息披露报纸名称 《中国证券报》、《上海证券报》登载半年度报告的网站地址 www.sse.com.cn公司半年度报告备置地点 北京市朝阳区建国门外大街 1 号国贸大厦 A 座29 层董事会办公室五、 公司股票简况股票种类 股票上市交易所 股票简称 股票代码A 股 上海证券交易所 中国国贸 600007六、 公司主要会计数据和财务指标(一) 主要会计数据金额单位:人民币元主要会计数据 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)营业收入 1,965,293,521 1,938,364,140 1.39%归属于上市公司股东的净利润 687,537,223 653,651,170 5.18%归属于上市公司股东的扣除非经常性损益的净利润674,611,113 647,510,217 4.19%经营活动产生的现金流量净额 942,423,094 992,637,249 -5.06%本报告期末 上年度末 本报告期末比上年度末增减(%)归属于上市公司股东的净资产 9,078,228,256 9,700,158,327 -6.41%总资产 12,167,355,922 12,881,135,035 -5.54%中国国际贸易中心股份有限公司 2024 年半年度报告(二) 主要财务指标金额单位:人民币元主要财务指标 本报告期(1-6 月) 上年同期 本报告期比上年同期增减(%)基本每股收益(元/股) 0.68 0.65 5.18%稀释每股收益(元/股) 0.68 0.65 5.18%扣除非经常性损益后的基本每股收益(元/股)0.67 0.64 4.19%加权平均净资产收益率���%) 7.16% 7.08% 0.08%扣除非经常性损益后的加权平均净资产收益率(%)7.02% 7.01% 0.01%七、 境内外会计准则下会计数据差异不适用。\n八、 非经常性损益项目和金额金额单位:人民币元非经常性损益项目 金额保险理赔收入 16,272,954租户违约罚款收入 1,282,587政府补助 469,524处置非流动资产净损失 -815,142赞助捐赠支出 -88,000不需支付的应付款项 104,714除上述各项之外的其他营业外收入和支出 15,448所得税影响额 -4,310,521少数股东权益影响额(税后) -5,454合计 12,926,110中国国际贸易中心股份有限公司 2024 年半年度报告对公司将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》未列举的项目认定为的非经常性损益项目且金额重大的,以及将《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益》中列举的非经常性损益项目界定为经常性损益的项目,应说明原因不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第三节 管理层讨论与分析一、 报告期内公司所属行业及主营业务情况说明报告期内,公司主要从事写字楼、商城、公寓等投资性物业的出租和管理以及酒店经营等。\n公司除所拥有的酒店委托香格里拉国际饭店管理有限公司(以下简称“香格里拉”)进行管理和经营外,其他主营业务均由公司自行进行管理和经营。\n根据原国家质量监督检验检疫总局和国家标准化管理委员会于 2017 年批准发布的国家标准《国民经济行业分类》(GB/T4754-2017),公司属于“房地产业”。公司的营业收入主要来源于写字楼、商城、公寓等投资性物业的出租和管理以及酒店的经营;公司的经营规模、硬件设施、管理和服务、市场地位等,在业内一直处于领先水平。\n二、 报告期内核心竞争力分析公司和控股股东中国国际贸易中心有限公司(以下简称“国贸有限公司”)拥有的中国国际贸易中心(以下简称“国贸中心”)主体建筑群位于寸土寸金的北京中央商务区的核心地段,由写字楼、商城、酒店和公寓等高档商业建筑组成,是目前中国乃至全球规模最大、功能最齐全的高档商务服务综合体之一。\n长期以来,公司凭借多年形成的品牌、区位、综合、资源、管理、服务等各方面优势,在市场上处于领先地位。\n报告期内,公司的核心竞争力未发生重大变化。公司核心竞争力的有关情况除国贸大酒店原家全七福餐厅区域已于上年经调整后重新对外出租,滩万日餐厅及红馆面档已关闭并为新租户进行租区改造外,其他内容详见公司 2021 年半年度报告“第三节管理层讨论与分析”中“报告期内核心竞争力分析”。\n2023 年 12 月,公司国贸大厦 A 座及国贸公寓获得 WELL 铂金级认证。至此,国贸大厦 A 座成为同时获得 LEED 铂金级和 WELL 铂金级双认证的写字楼建筑。公司将持续践行可持续发展的运营理念,不断提升租户和员工的健康、舒适及幸福感。中国国际贸易中心股份有限公司 2024 年半年度报告三、 经营情况的讨论与分析2024 年上半年,北京写字楼市场新增需求仍显疲弱,租金水平持续承压;商业物业市场分化加剧;服务式公寓市场和酒店业表现相对平稳。\n上半年,写字楼市场新增供应较小,但由于需求依旧疲弱,“以价换量”成为市场主流策略,导致平均租金水平进一步下降。尽管二季度净吸纳量环比有所改善,但市场总体空置率仍处于高位。面对不确定的宏观经济环境和外部形势,不少企业保持观望态度,降本增效是其主要策略,新租扩租需求依旧不足。随着下半年预计新增供应的增加,市场去化压力较大,租金水平仍将继续承压。\n商业物业市场租金总体保持平稳,空置率略有下降,但受消费复苏放缓的影响,市场分化加剧。承租需求方面,高端零售销售额同比下降,面对“消费降级”的趋势,高端品牌的扩张更趋于谨慎;定位大众市场的零售和餐饮成为短期内市场需求的主力。项目方面,出租率稳定、客群品质较高、对零售品牌吸引力较大的项目的租金相对稳定;品牌调整或升级改造较多的项目,租金灵活度加大。客流方面,“假期效应”显著,公共节假日客流同比有明显增长。\n服务式公寓市场需求在经历 2023 年的集中释放后趋于平稳,出租率和租金总体较为稳定。但受宏观经济增长放缓和未来不确定性增加的影响,客户预算受限,导致行业竞争加剧,较多高端公寓采用灵活的租金和佣金政策以挖掘和吸引客户。\n酒店业经营总体稳定。受益于国际需求的恢复、大型会展举办数量的增长和较低水平的新增供应,高端酒店的市场表现较为积极,入住率保持较高水平,但同时也面临着企业预算削减和消费降级现象带来的挑战。\n展望下半年,我国宏观经济面临国内有效需求不足、经济运行分化以及外部环境不利影响增多的严峻形势与挑战。经济增长和消费复苏趋缓、外部需求减弱,将会对北京投资性物业租赁市场,尤其是写字楼和商业物业市场造成一定的不利影响。公司将密切关注不断变化的市场形势和政策趋势,尤其是政府关于促进消费和推进高水平对外开放的具体政策,采取更加积极开放的经营策略,对标国际先进标准,改善营商环境和服务水准,持续控本增效,争取完成全年经营目标。\n报告期内,公司通过准确研判市场形势,及时把握市场机遇,采取积极灵活的经营举措并不断提升精细化管理水平,取得了良好的经营业绩。\n报告期内,公司实现营业收入 19.7 亿元,比上年同期增加 0.3 亿元或 1.4%;成本费用 8.7 亿元,比上年同期减少 0.2 亿元或 2.1%;实现利润总额 9.2 亿元,比上年同期中国国际贸易中心股份有限公司 2024 年半年度报告增加 0.5 亿元或 5.4%。扣除非经常性损益后,公司实现利润总额 9.0 亿元,比上年同期增加 0.4 亿元或 4.4%。\n(一) 报告期内公司经营情况的重大变化,以及报告期内发生的对公司经营情况有重大影响和预计未来会有重大影响的事项不适用。\n四、 报告期内主要经营情况(一) 主营业务分析1、 财务报表相关科目变动分析表金额单位:人民币元科目 本期金额上年同期金额本期金额较上年同期增加额变动比例(%)营业收入 1,965,293,521 1,938,364,140 26,929,381 1.39%营业成本 768,803,721 770,020,879 -1,217,158 -0.16%销售费用 36,815,698 39,389,145 -2,573,447 -6.53%管理费用 60,039,827 57,774,196 2,265,631 3.92%财务费用 7,651,091 24,979,965 -17,328,874 -69.37%经营活动产生的现金流量净额 942,423,094 992,637,249 -50,214,155 -5.06%投资活动产生的现金流量净额 -24,310,132 -28,732,557 4,422,425 -15.39%筹资活动产生的现金流量净额 -1,382,395,262 -739,567,213 -642,828,049 86.92%金额单位:人民币元分行业 营业收入 营业成本 毛利率(%)营业收入比上年增减(%)营业成本比上年增减(%)毛利率比上年增减(%)物 业 租 赁及管理 1,709,030,499 533,033,970 68.81% 2.56% 2.80% -0.07%酒店经营 256,263,022 235,769,751 8.00% -5.77% -6.25% 0.47%中国国际贸易中心股份有限公司 2024 年半年度报告(1) 营业收入金额单位:人民币元收入构成项目本期金额占公司主营业务收入比例(%)上年同期金额占公司主营业务收入比例(%)本期金额较上年同期增加额写字楼 767,833,698 39.07% 782,207,780 40.35% -14,374,082商城 656,129,706 33.39% 626,735,904 32.33% 29,393,802公寓 93,980,579 4.78% 87,972,227 4.54% 6,008,352酒店 256,263,022 13.04% 271,961,862 14.03% -15,698,840其他(注) 191,086,516 9.72% 169,486,367 8.75% 21,600,149合计 1,965,293,521 100% 1,938,364,140 100% 26,929,381注:其他收入主要是停车场收入,以及财务报表合并范围内公司子公司的营业收入。\n报告期内,公司主要投资性物业平均租金和出租率情况如下:金额单位:人民币元期末可出租面积(m²)平均租金(元/平方米/月)平均出租率(%)本报告期上年同期 增减 本报告期上年同期 增减A B A-B C D C-D写字楼一期 47,711 586 570 16 87.9% 91.9% -4.0%二期 33,587 575 534 41 98.7% 98.3% 0.4%三期 A 82,057 685 683 2 91.7% 97.3% -5.6%三期 B 42,733 725 736 -11 96.2% 96.6% -0.4%合计 206,088 648 637 11 93.2% 96.2% -3.0%中国国际贸易中心股份有限公司 2024 年半年度报告商城一期 15,353 2,037 1,980 57 100% 99.7% 0.3%二期 5,874 1,194 1,121 73 98.2% 100% -1.8%三期 A 18,086 712 618 94 92.7% 98.3% -5.6%三期 B 26,142 798 736 62 98.1% 98.4% -0.3%东楼 13,675 2,481 2,359 122 95.7% 98.0% -2.3%合计 79,130 1,341 1,257 84 96.9% 98.8% -1.9%公寓 46,734 368 371 -3 88.8% 82.1% 6.7%注:1、平均租金中包含租金和物业管理费。\n2、一期写字楼、三期 A 写字楼出租率同比下降,主要是因有租户租约到期,相关区域正在招租。\n3、三期 A 商城出租率同比下降,主要是因有租户租约到期及提前解约,相关区域正在招租。\n4、三期 A 商城平均租金同比上升,主要是去年二季度的平均租金基数较低。\n(2) 营业成本报告期内,公司营业成本 7.7 亿元,比上年同期减少 0.01 亿元或 0.16%,具体构成情况如下:金额单位:人民币元成本构成项目本期金额本期金额占总成本比例(%)上年同期金额上年同期金额占总成本比例(%)本期金额较上年同期变动比例(%)折旧摊销 224,694,464 29.23% 231,406,613 30.05% -2.90%员工成本 189,323,955 24.63% 194,499,187 25.26% -2.66%能源费 55,875,548 7.27% 52,512,615 6.82% 6.40%维修保养 52,877,982 6.88% 52,779,624 6.85% 0.19%其他(注) 246,031,772 31.99% 238,822,840 31.02% 3.02%合计 768,803,721 100% 770,020,879 100% -0.16%中国国际贸易中心股份有限公司 2024 年半年度报告注:其他费用包括劳务费、清洁费、酒店营业成本及保安费等。\n(3) 费用报告期内,公司的管理费用和销售费用与上年同期相比变动幅度低于 30%;财务费用与上年同期相比减少 69.37%,主要是银行存款利息收入增加,以及因长期借款本金减少,利息费用相应降低。\n(4) 现金流公司现金流量的构成情况详见本报告所附财务报表。\n经营活动产生的现金流量中收到其他与经营活动有关的现金增加,主要是收到 2022年度营业中断保险赔偿 1,619 万元。\n投资活动产生的现金流量中取得投资收益所收到的现金增加,主要是收到联营企业派发的现金股利。\n筹资活动产生的现金流量中偿还债务支付的现金增加,主要是偿还了银行长期借款本金 5,000 万元。\n筹资活动产生的现金流量中分配股利、利润或偿付利息支付的现金增加,主要是分配股利支付的现金增加。\n2、 本期公司业务类型、利润构成或利润来源发生重大变动的详细说明不适用。\n(二) 非主营业务导致利润重大变化的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(三) 资产、负债情况分析1、资产及负债状况金额单位:人民币元项目名称 本期期末数本期期末数占总资产的比例(%)上年年末数上年年末数占总资产的比例(%)本 期 期 末金 额 较 上年 年 末 变动比例(%)货币资金 3,612,151,002 29.69% 4,088,660,385 31.74% -11.65%应收账款 250,165,292 2.06% 258,206,405 2.00% -3.11%预付款项(注①) 22,439,141 0.18% 34,928,835 0.27% -35.76%存货 31,960,550 0.26% 32,289,866 0.25% -1.02%长期股权投资 26,719,203 0.22% 29,422,110 0.23% -9.19%投资性房地产 6,125,467,772 50.34% 6,276,416,500 48.73% -2.41%固定资产 1,428,924,156 11.74% 1,473,897,131 11.44% -3.05%使用权资产 36,842,123 0.30% 38,643,777 0.30% -4.66%其他流动资产(注②) 190,053 0.002% 287,762 0.002% -33.95%合同负债 62,454,004 0.51% 57,757,548 0.45% 8.13%应付职工薪酬(注③) 69,082,880 0.57% 130,561,942 1.01% -47.09%长期借款 1,085,000,000 8.92% 1,085,000,000 8.42% 0租赁负债 37,891,647 0.31% 37,795,541 0.29% 0.25%注:① 预付款项减少,主要是预付的供暖季采暖费摊销计入当期费用。\n② 其他流动资产减少,主要是增值税待抵扣进项税减少。\n③ 应付职工薪酬减少,主要是期初数中包含的应付 2023 年度员工花红已于 2024年一季度支付。中国国际贸易中心股份有限公司 2024 年半年度报告2、 境外资产情况不适用。\n3、 截至报告期末主要资产受限情况(1) 资产抵押和质押情况根据公司经营及发展需要,公司于 2020 年 6 月 19 日召开的 2019 年年度股东大会,同意公司以国贸三期 A 阶段项目部分房产及相应的土地使用权作为抵押担保,向中国建设银行股份有限公司北京华贸支行申请 21.6 亿元人民币商用物业抵押借款,借款期限为 15 年,用于置换 13.8 亿元人民币国贸三期 A 阶段项目建设借款余额和 7.8 亿元人民币国贸三期 B 阶段项目建设借款余额(详见公司 2020 年半年度报告“第四节经营情况的讨论与分析”中“资产抵押和质押情况”)。\n2020 年 8 月 5 日,公司就此与中国建设银行股份有限公司北京华贸支行签署《人民币资金借款合同》及《抵押合同》,借款合同金额 21.55 亿元人民币(上述 21.6 亿元人民币减去签署该借款合同前归还 500 万元人民币),借款期限为 2020 年 8 月 5 日至 2035年 8 月 4 日。\n公司已取得商用物业抵押借款 21.55 亿元人民币,全部偿还了原国贸三期 A 阶段和国贸三期 B 阶段项目建设借款,注销了原有的此两个项目借款的资产抵押担保,完成了商用物业抵押借款的相关资产抵押登记工作,抵押物清单如下:抵押物名称 权属证书 座落 抵押面积(m2)朝 阳 区 建 国门 外 大 街 1号院 1 号楼X 京房权证朝字第 982670 号朝阳区建国门外大街1 号院 1 号楼 189,176.39京朝国用(2014 出)第 00225 号 - -截至报告期末,上述银行长期借款余额减少为 10.85 亿元。\n(2) 受限资金截至报告期末,公司银行存款中受限资金余额为 1.3 亿元,为物业管理项目代管资金(见本报告所附财务报表附注)。中国国际贸易中心股份有限公司 2024 年半年度报告(四) 房地产行业经营性信息分析1、 报告期内房地产储备情况不适用。\n2、 报告期内房地产开发投资情况不适用。\n3、 报告期内房地产销售情况不适用。\n4、 报告期内房地产出租情况金额单位:人民币元地区 项目 经营业态出租房地产的建筑面积(平方米)出租房地产的租金收入权益比例(%)是否采用公允价值计量模式租金收入/房地产公允价值(%)北京中国国际贸易中心写字楼 356,248 750,385,115100% 否 -商城 180,460 622,245,713公寓 80,124 93,296,8525、 报告期内公司财务融资情况报告期末,公司各类融资途径的融资余额、融资成本如下:金额单位:人民币元期末融资余额 利率(1)长期借款中国建设银行股份有限公司北京华贸支行 1,085,000,000 3.90%(2)公司债券“19 国贸 01”公司债券 440,000,000 2.90%中国国际贸易中心股份有限公司 2024 年半年度报告金额单位:人民币元期末融资总额 整体平均融资成本(%) 利息资本化金额1,525,000,000 3.61% -整体平均融资成本=∑(期末单笔融资余额*对应融资利率)/期末融资总额。\n6、其他说明公司所属国贸中心一期、二期建筑物对应的土地使用权全部归属于公司控股股东国贸有限公司,公司以租赁方式获得上述土地的使用权(详细情况见本报告“第六节重要事项”中“承诺事项履行情况”);国贸中心三期建筑物及其对应的土地使用权全部归属于本公司。\n(五) 投资状况分析报告期内,公司无重大股权投资及非股权投资。\n1、 重大的股权投资不适用。\n2、 重大的非股权投资不适用。\n3、 以公允价值计量的金融资产不适用。\n(六) 重大资产和股权出售不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(七) 主要控股参股公司分析公司现主要有一家子公司国贸物业酒店管理有限公司,以及一家联营公司北京时代网星科技有限公司。来源于子公司的净利润或参股公司的投资收益,对公司净利润的影响均在 10%以下。有关情况见本报告所附财务报表附注。\n(八) 公司控制的结构化主体情况不适用。\n五、 其他披露事项(一) 可能面对的风险1、当前国内有效需求不足,经济运行出现分化,外部环境带来的不利影响增多。面对市场低迷、消费不振,行业下行压力加大的形势,公司经营面临更多的困难和挑战,公司营业收入可能不及预期。\n2、公司目前有多栋高层建筑,建筑物本身的特点决定了其火灾危险性远大于一般建筑物;同时,国贸中心为北京的地标性建筑,建筑面积超过 110 万平方米,人员相对密集,公司在治安、反恐等多方面面临更大压力。\n针对上述风险因素,公司将采取的应对措施,见公司 2023 年年度报告中“第三节管理层讨论与分析”中“经营计划”的相关内容。另外,针对公司在消防、治安和反恐等方面存在的潜在风险,公司除采取相应的防范措施外,同时购买了相关商业保险,以在意外发生时从一定程度上减轻相关方利益受到的损害。\n(二) 其他披露事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第四节 公司治理一、 股东大会情况简介会议届次召开日期决议刊登披露日期决议刊登的指定网址的查询索引会议决议2023 年 年度股东大会 2024-4-26 2024-4-27 www.sse.com.cn1、审议通过公司 2023 年度董事会工作报告。\n2、审议通过公司 2023 年度财务决算。\n3、审议通过公司 2023 年年度利润分配及特别分红方案。\n4、审议通过支付普华永道中天会计师事务所(特殊普通合伙)2023年度审计报酬的议案。\n5、审议通过公司 2023 年年度报告。\n6、审议通过公司董事长及副董事长 2024 年度薪酬计划的议案。\n7、审议通过续聘会计师事务所的议案。\n8、审议通过公司 2023 年度监事会工作报告。\n9、审议通过关于修改《中国国际贸易中心股份有限公司章程》的议案。\n10、审议通过关于修改《中国国际贸易中心股份有限公司董事会议事规则》的议案。\n11、审议通过胡燕敏女士不再担任公司第九届监事会监事的议案。\n12、审议通过选举江咏仪女士为公司第九届监事会监事的议案。中国国际贸易中心股份有限公司 2024 年半年度报告2024 年 第一次临时股东大会2024-6-28 2024-6-29 www.sse.com.cn1、审议通过林明志先生自 2024 年7 月 1 日起不再担任公司第九届董事会董事的议案。\n2、审议通过黄国祥先生自 2024 年7 月 1 日起为公司第九届董事会董事的议案。\n(一) 表决权恢复的优先股股东请求召开临时股东大会不适用。\n二、 公司董事、监事、高级管理人员变动情况(一)2024 年 4 月 26 日,公司召开 2023 年年度股东大会,会议审议通过了胡燕敏女士不再担任公司第九届监事会监事及选举江咏仪女士为公司第九届监事会监事的议案。\n上述事项详见公司于 2024 年 4 月 27 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n(二)2024 年 4 月 28 日,公司召开九届八次董事会会议,会议同意自 2024 年 5 月1 日起林南春先生不再担任公司副总经理、财务负责人及自 2024 年 5 月 1 日起聘任胡燕敏女士担任公司副总经理、财务负责人的议案。\n上述事项详见公司于 2024 年 4 月 30 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n(三)2024 年 6 月 28 日,公司召开 2024 年第一次临时股东大会,审议通过林明志先生自 2024 年 7 月 1 日起不再担任公司第九届董事会董事及黄国祥先生自 2024 年 7 月1 日起为公司第九届董事会董事的议案。\n2024 年 7 月 1 日,公司召开九届十次董事会会议,选举黄国祥先生为公司第九届董事会董事长、执行董事及薪酬委员会委员,并同意黄国祥先生接替林明志先生担任饭店政策执行委员会委员。\n上述事项详见公司分别于 2024 年 6 月 29 日及 7 月 2 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)披露的相关公告。中国国际贸易中心股份有限公司 2024 年半年度报告三、 利润分配或资本公积金转增预案(一) 半年度拟定的利润分配预案、公积金转增股本预案不适用。\n四、 公司股权激励计划、员工持股计划或其他员工激励措施的情况及其影响不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第五节 环境与社会责任一、 环境信息情况(一) 属于环境保护部门公布的重点排污单位的公司及其主要子公司的环保情况说明不适用。\n(二) 重点排污单位之外的公司环保情况说明报告期内,公司未因环境问题受到行政处罚。\n(三) 报告期内披露环境信息内容的后续进展或变化情况的说明不适用。\n(四) 有利于保护生态、防治污染、履行环境责任的相关信息报告期内,公司完成了国贸一期(南区)、二期(中区)地下停车场、国贸大厦 A 座首层及 32 层大堂客梯厅装饰灯,以及国贸商城北区后勤区及机房等区域的智慧照明改造项目。通过将光源升级为智能控制的照明灯管,实现智慧照明节能控制全自动化,按需照明、无感节能。据测算,通过智慧照明改造可年节电 85 万千瓦时,节能 114.75 吨标准煤。\n(五) 在报告期内为减少其碳排放所采取的措施及效果公司积极贯彻落实国家节能减排政策,报告期内对部分设备设施进行了节能改造,得益于节能技改工作的有效实施,能源消耗总量和碳排放量增长均低于业务增长水平。\n另外,公司作为北京市重点排放单位,积极支持国家的双碳目标实现,参与市场化绿电交易,助力全市可再生能源电力消纳工作。\n二、 巩固拓展脱贫攻坚成果、乡村振兴等工作具体情况(一) “中国国贸小学”2019 年 6 月,四川省宜宾市长宁县发生 6.0 级地震。地震共造成 13 人死亡,226中国国际贸易中心股份有限公司 2024 年半年度报告人受伤。公司通过中国扶贫基金会了解到位于震中地区的长宁县硐底镇石垭小学的全部建筑已经被鉴定为危房,在校 300 余名学生面临无校舍学习的情况,会同国贸有限公司投资 800 万元(其中,公司出资 450 万元),资助学校的震后重建计划,该所小学也因此命名为“中国国贸小学”。\n目前,中国国贸小学已建成并投入使用,成为长宁县基础设施最好的乡村小学校。\n学校占地面积 1,030 平方米,包括新建 3 层教学楼及食堂,建筑面积为 2,265 平方米,配备停车位 6 个,可同时容纳 300 名学生就读。\n报告期内,公司根据国贸小学的实际情况,为学校统一购置了夏季校服、零食、文具和文体用品,以进一步改善学校的教学条件、丰富学生的课余生活。6 月,公司总经理支陆逊先生带队前往学校捐赠校服和体育用品、看望和慰问师生、开展公益课堂活动;7 月,公司组织学校 16 名优秀学生和 4 名老师赴北京开展夏令营活动,使学生们开阔视野、增长见闻、培养爱国主义情怀和民族自豪感。中国国际贸易中心股份有限公司 2024 年半年度报告第六节 重要事项一、 承诺事项履行情况(一) 公司实际控制人、股东、关联方、收购人以及公司等承诺相关方在报告期内或持续到报告期内的承诺事项1、 与首次公开发行相关的承诺(1)1998 年 9 月 2 日,公司与国贸有限公司签订《土地使用权租赁合同》。2008 年7 月 28 日,双方签署了该合同的补充协议。根据协议,国贸有限公司租赁国贸写字楼、国贸商场、国贸公寓、国贸展厅及多层停车场等所对应的 13,936.5 平方米土地使用权给公司使用,租赁期限自 1998 年 10 月 1 日起至 2038 年 8 月 29 日止,每年的土地租赁费为 1,393,650 元。另外,国贸有限公司还向公司收取其缴纳的该土地的使用税及营业税等。2011 年 12 月 30 日,公司与国贸有限公司签订《增加国贸一期土地租赁费协议》,鉴于根据国家有关规定,自 2011 年 1 月 1 日起,国贸有限公司应为上述公司租赁和使用的国贸一期土地缴纳房产税,因此,相应地向公司增加收取国贸一期的土地租赁费。\n根据 1999 年 10 月 1 日起实施的《合同法》及相关司法解释,租赁合同的租赁期限不得超过二十年,超过二十年的,超过部分无效。因此,上述公司与国贸有限公司签订的国贸一期《土地使用权租赁合同》及补充协议已于 2019 年 9 月 30 日到期。\n为了保证公司的正常经营,公司于 2020 年 4 月 24 日召开的七届十八次董事会会议,审议同意公司与国贸有限公司续签国贸一期《土地使用权租赁合同》,租用期限自2019 年 10 月 1 日起至 2038 年 8 月 29 日止,租金单价和总价、租赁地块面积和违约责任等重要条款和条件与原合同及补充协议一致。\n该事项内容详见公司于 2020 年 4 月 28 日在《中国证券报》、《上海证券报》及上海证券交易所网站(www.sse.com.cn)上披露的“关于公司与控股股东续签国贸一期《土地使用权租赁合同》关联交易的公告”。\n(2)1998 年 9 月 2 日,公司与国贸有限公司签订《合作建设国贸二期工程协议书》,由于国贸二期工程占用土地的使用权由国贸有限公司以出让方式取得,公司和国贸有限公司将按照投资比例分摊土地使用权费。从 2000 年起至 2038 年 8 月 29 日,国贸有限公司每年向公司收取土地使用权费 882,000 元。2009 年 3 月 24 日,公司与国贸有限公司签订《国贸二期土地使用税分摊协议》,根据协议,国贸有限公司向公司收取其缴纳的国贸二期土地的部分使用税及营业税等。2011 年 12 月 30 日,公司与国贸有限公司签订中国国际贸易中心股份有限公司 2024 年半年度报告《增加国贸二期土地租赁费协议》,鉴于根据国家有关规定,自 2011 年 1 月 1 日起,国贸有限公司应为公司租赁和使用的国贸二期土地缴纳房产税,因此,相应地向公司增加收取国贸二期的部分土地使用权费。截至 2024 年 8 月 30 日,上述承诺仍在履行中。\n二、 报告期内控股股东及其他关联方非经营性占用资金情况不适用。\n三、 违规担保情况不适用。\n四、 半年报审计情况(一) 聘任、解聘会计师事务所情况经公司 2023 年年度股东大会审议批准,公司续聘普华永道中天会计师事务所(特殊普通合伙)对公司 2024 年度财务报告及其内部控制进行审计,以及对公司 2024 年半年度财务报告进行审阅。\n(二) 公司对会计师事务所“非标准意见审计报告”的说明不适用。\n五、 上年年度报告非标准审计意见涉及事项的变化及处理情况不适用。\n六、 破产重整相关事项不适用。\n七、 重大诉讼、仲裁事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告八、 上市公司及其董事、监事、高级管理人员、控股股东、实际控制人涉嫌违法违规、受到处罚及整改情况不适用。\n九、 报告期内公司及其控股股东、实际控制人诚信状况的说明不适用。\n十、 重大关联交易(一) 与日常经营相关的关联交易1、 已在临时公告披露且后续实施无进展或变化的事项不适用。\n2、 已在临时公告披露,但有后续实施的进展或变化的事项见本报告所附财务报表附注“关联方关系及其交易”。\n3、 临时公告未披露的事项不适用。\n(二) 资产收购或股权收购、出售发生的关联交易不适用。\n(三) 共同对外投资的重大关联交易不适用。\n(四) 关联债权债务往来1、 已在临时公告披露且后续实施无进展或变化的事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告2、 已在临时公告披露,但有后续实施的进展或变化的事项不适用。\n3、 临时公告未披露的事项金额单位:人民币元关联方 关联关系向关联方提供资金 关联方向上市公司提供资金期初余额 发生额 期末余额期初余额 发生额 期末余额中 国 国 际贸 易 中 心有限公司母公司 0 14,621,646 0 262,588 37,070,518 4,902,588关联债权债务形成原因 能源费、业务往来款、租金押金等。\n关联债权债务对公司经营成果及财务状况的影响 对公司经营成果及财务状况无重大影响。\n(五) 公司与存在关联关系的财务公司、公司控股财务公司与关联方之间的金融业务不适用。\n(六) 其他重大关联交易不适用。\n十一、 重大合同及其履行情况(一) 托管、承包、租赁事项不适用。\n(二) 报告期内履行的及尚未履行完毕的重大担保情况不适用。\n(三) 其他重大合同不适用。中国国际贸易中心股份有限公司 2024 年半年度报告十二、 募集资金使用进展不适用。\n十三、 其他重大事项的说明不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第七节 股份变动及股东情况一、 股本变动情况(一) 股份变动情况表报告期内,公司股份总数及股本结构未发生变化。\n(二) 限售股份变动情况不适用。\n二、 股东情况(一) 截至报告期末前十名股东、前十名流通股东(或无限售条件股东)持股情况表单位:股截至报告期末普通股股东总数(户) 12,357前十名股东持股情况(不含通过转融通出借股份)股东名称 股东性质期末持股数量持股比例(%)持有有限售条件股份数量质押、标记或冻结情况中国国际贸易中心有限公司 其他 812,360,241 80.65% 0 无易方达基金管理有限公司-社保基金 1104 组合 未知 24,141,400 2.40% 未知 未知香港中央结算有限公司 未知 13,058,260 1.30% 未知 未知中国银行股份有限公司-易方达蓝筹精选混合型证券投资基金未知 12,700,085 1.26% 未知 未知易方达泰利增长股票型养老金产品-中国工商银行股份有限公司未知 10,650,000 1.06% 未知 未知顾青 未知 7,440,000 0.74% 未知 未知中国银行股份有限公司-易方达优质精选混合型证券投资基金未知 7,200,021 0.71% 未知 未知吴宝珍 未知 5,839,300 0.58% 未知 未知吴悦 未知 5,008,200 0.50% 未知 未知徐鹏达 未知 4,953,310 0.49% 未知 未知中国国际贸易中心股份有限公司 2024 年半年度报告前十名股东中回购专户情况说明 不适用。\n上述股东委托表决权、受托表决权、放弃表决权的说明 不适用。\n上述股东关联关系或一致行动的说明中国国际贸易中心有限公司与其他股东之间不存在关联关系,也不属于一致行动人;未知其他股东之间是否存在关联关系或属于一致行动人。\n表决权恢复的优先股股东及持股数量的说明 不适用。\n截至报告期末持有公司 5%以上股份的股东只有中国国际贸易中心有限公司,其在报告期内持有公司股份数量未发生变动。\n持股 5%以上股东、前十名股东及前十名无限售流通股股东参与转融通业务出借股份情况单位:股持股 5%以上股东、前十名股东及前十名无限售流通股股东参与转融通业务出借股份情况股东名称期初普通账户、信用账户持股期初转融通出借股份且尚未归还期末普通账户、信用账户持股期末转融通出借股份且尚未归还数量合计 比例(%) 数量合计 比例(%) 数量合计 比例(%) 数量合计 比例(%)易方达基金管理有限公司-社保基金 1104组合25,335,635 2.52% 864,500 0.086% 24,141,400 2.40% 58,600 0.006%前十名股东及前十名无限售流通股股东因转融通出借/归还原因导致较上期发生变化不适用。\n(二) 战略投资者或一般法人因配售新股成为前十名股东不适用。中国国际贸易中心股份有限公司 2024 年半年度报告三、 董事、监事和高级管理人员情况(一) 现任及报告期内离任董事、监事和高级管理人员持股变动情况不适用。\n(二) 董事、监事、高级管理人员报告期内被授予的股权激励情况不适用。\n四、 控股股东或实际控制人变更情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第八节 优先股相关情况不适用。\n第九节 债券相关情况一、 公司债券(含企业债券)和非金融企业债务融资工具(一)公司债券(含企业债券)1、 公司债券基本情况金额单位:人民币元债券名称 简称 代码 发行及起息日 到期日 债券余额 利率 还本付息方式交易场所主承销商及受托管理人中国国际贸易中心股份有限公司 2019年公司债券(面向合格投资者)(第一期)19国贸01155735 2019-9-26 2024-9-26 440,000,000 2.90%每 年 付息一次,到 期 一次还本,最 后 一期 利 息随 本 金一 起 支付上 海证 券交 易所华泰联合证券有限责任公司“19 国贸 01”公司债券在上海证券交易所公开发行并上市交易,不存在终止上市交易的风险。“19 国贸 01”公司债券期限为 5 年期,附第 3 年末发行人调整票面利率选择权和投资者回售选择权。具体情况详情见以下“发行人或投资者选择权条款、投资者保护条款的触发和执行情况”的相关内容。\n2、 发行人或投资者选择权条款、投资者保护条款的触发和执行情况根据公开披露的《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)募集说明书》,“19 国贸 01”公司债券附发行人调整票面利率选择权和投资者回售选择权。公司有权决定是否在本期债券存续期的第 3 年末调整本期债券后 2 年的票面利率;债券持有人有权在公司发出关于是否调整本期债券的票面利率及调整幅度的公告后,选择在公告的投资者回售登记期内进行登记,将持有的本期债券按面值全部或部分回售给公司。中国国际贸易中心股份有限公司 2024 年半年度报告2022 年 8 月 12 日,公司发布了《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)2022 年票面利率调整公告》,决定下调“19 国贸01”后 2 年的票面利率为 2.9%;同时,发布了《中国国际贸易中心股份有限公司 2019年公开发行公司债券(面向合格投资者)(第一期)2022 年债券回售实施公告》,“19 国贸 01”公司债券部分持有人在回售登记期内(2022 年 8 月 12 日至 2022 年 8 月 16 日)对其持有的“19 国贸 01”公司债券登记回售,回售价格为债券面值(100 元/张)。\n2022 年 9 月 20 日,公司发布了《中国国际贸易中心股份有限公司 2019 年公开发行公司债券(面向合格投资者)(第一期)2022 年债券回售实施结果公告》,回售有效登记数量为 60,000 手,回售金额为 60,000,000 元,回售资金兑付日为 2022 年 9 月 26 日。\n本次回售实施完毕后,“19 国贸 01”债券在上海证券交易所上市并交易的数量为 440,000手,债券余额为 440,000,000 元。\n上述内容详见公司在上海证券交易所网站(www.sse.com.cn)披露的相关公告。\n3、 信用评级结果调整情况不适用。\n4、 担保情况、偿债计划及其他偿债保障措施在报告期内的执行和变化情况及其影响(1) 担保情况报告期内,“19 国贸 01”公司债券的担保方式为无担保,未发生变更。\n(2) 偿债计划公司为“19 国贸 01”公司债券制定了偿债计划:“19 国贸 01”公司债券发行后,公司将根据债务结构进一步加强资产负债管理、流动性管理和募集资金运用管理,保证资金按计划使用,及时、足额准备资金用于每年的利息支付和到期的本金兑付,以充分保障投资者的利益。“19 国贸 01”公司债券的偿债资金主要来源于公司日常经营产生的现金流,此外公司还为“19 国贸 01”公司债券制定了偿债应急保障方案,在现金流量不足的情况下公司将通过流动资产变现获得必要的偿债资金。中国国际贸易中心股份有限公司 2024 年半年度报告报告期内,公司制定的偿债计划执行情况良好,未发生变更,与“19 国贸 01”公司债券募集说明书的相关承诺一致。\n(3) 偿债保障措施公司为“19 国贸 01”公司债券制定了偿债保障措施。为了充分、有效地维护债券持有人的利益,公司为本期债券的按时、足额偿付制定了一系列工作计划,包括确定专门部门与人员、安排偿债资金、制定并严格执行资金管理计划、充分发挥债券受托管理人的作用和严格履行信息披露义务等,努力形成一套确保债券安全兑付的保障措施。\n在出现预计不能按期偿付债券本息或者到期未能按期偿付债券本息时,公司将制定至少采取如下措施的方案并提请公司股东大会批准:1、不向股东分配利润;2、暂缓重大对外投资、收购兼并等资本性支出项目的实施;3、调减或停发董事和高级管理人员的工资和奖金;4、主要责任人不得调离。\n报告期内,公司制定的上述偿债计划执行情况良好,未发生变更,与“19 国贸 01”公司债券募集说明书的相关承诺一致。\n(二) 银行间债券市场非金融企业债务融资工具不适用。\n(三) 公司债券募集资金情况本公司所有公司债券在报告期内均不涉及募集资金使用或者整改。\n(四) 专项品种债券应当披露的其他事项不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(五) 报告期内公司债券相关重要事项1、 非经营性往来占款和资金拆借不适用。\n2、 负债情况(1) 有息债务及其变动情况1.1 公司债务结构情况报告期初和报告期末,公司(非公司合并范围口径)有息债务余额分别为 15.75 亿元和 15.25 亿元,报告期内有息债务余额同比下降 3.17 %。\n金额单位:人民币元有息债务类别到期时间金额合计金额占有息债务的占比(%)已逾期 6 个月以内(含) 6 个月以上公司信用类债券 440,000,000 440,000,000 28.85%银行贷款 1,085,000,000 1,085,000,000 71.15%非银行金融机构贷款其他有息债务合计 440,000,000 1,085,000,000 1,525,000,000 100%报告期末,公司存续的公司信用类债券中,公司债券余额 4.4 亿元,无企业债券和非金融企业债务融资工具,4.4 亿元公司信用类债券在 2024 年 9 月到期偿付。\n1.2 公司合并口径有息债务结构情况公司合并口径有息债务结构情况与公司(非公司合并范围口径)有息债务结构情况相同。详见前述“公司债务结构情况”。\n1.3 境外债券情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(2) 报告期末公司及其子公司存在逾期金额超过 1000 万元的有息债务或者公司信用类债券逾期情况不适用。\n(3) 主要负债情况及其变动原因金额单位:人民币元负债项目 本期末余额 2023 年余额 变动比例(%)变动比例超过 30%的,说明原因应付账款 92,747,360 96,988,767 -4.37% -预收款项 43,172,273 35,677,643 21.01% -合同负债 62,454,004 57,757,548 8.13% -应付职工薪酬 69,082,880 130,561,942 -47.09%主要是期初数中包含的应付 2023 年度员工花红已于 2024 年一季度支付。\n应交税费 128,507,556 104,948,555 22.45% -其他应付款 1,112,682,011 1,130,882,781 -1.61% -一 年 内 到 期 的非流动负债 453,341,061 497,538,270 -8.88%主要是偿还了银行长期借款本金 5,000 万元。\n长期借款 1,085,000,000 1,085,000,000 0 -租赁负债 37,891,647 37,795,541 0.25% -(4) 可对抗第三人的优先偿付负债情况不适用。\n(六) 公司报告期内合并报表范围亏损超过上年末净资产 10%不适用。中国国际贸易中心股份有限公司 2024 年半年度报告(七) 主要会计数据和财务指标金额单位:人民币元主要指标 本报告期末 上年度末本报告期末比上年度末增减(%)变动原因流动比率 2.00 2.15 -6.98% -速动比率 1.98 2.14 -7.48% -资产负债率 25.35% 24.67% 0.68% -本报告期(1-6 月) 上年同期本报告期比上年同期增减(%)变动原因扣除非经常性损益后净利润 674,611,113 647,510,217 4.19% -EBITDA 全部债务比 0.75 0.54 38.89%主要为长期借款本金减少,利息费用相应降低。\n利息保障倍数 32.81 22.48 45.95% 同上现金利息保障倍数 53.97 36.94 46.10% 同上EBITDA 利息保障倍数 40.84 28.37 43.95% 同上贷款偿还率 100% 100% 0 -利息偿付率 100% 100% 0 -注:①流动比率=流动资产÷流动负债;②速动比率=(流动资产-存货)÷流动负债;③资产负债率=负债总额÷资产总额×100%;④扣除非经常性损益后净利润=净利润-非经常性损益;⑤EBITDA 全部债务比 10月 14 12:47:34 gpu ollama[24746]: =(息税折旧摊销前利润/全部债务),全部债务=长期借款+应付债券+短期借款+交易性金融负债+应付票据+应付短期债券+一年内到期的非流动负债+租赁负债+其他有息债务;⑥利息保障倍数=息税前利润/(计入财务费用的利息支出+资本化的利息支出);⑦现金利息保障倍数=(经营活动产生的现金流量净额+现金利息支出+所得税付现)/现金利息支出;中国国际贸易中心股份有限公司 2024 年半年度报告⑧EBITDA 利息保障倍数=息税折旧摊销前利润/(计入财务费用的利息支出+资本化的利息支出);⑨贷款偿还率=实际贷款偿还额/应偿还贷款额;⑩利息偿付率=实际支付利息/应付利息。\n二、 可转换公司债券情况不适用。中国国际贸易中心股份有限公司 2024 年半年度报告第十节 财务报告一、 审计报告公司半年度财务报告已经普华永道中天会计师事务所(特殊普通合伙)审阅(审阅报告如附件),未经审计。\n二、 财务报表如附件。\n附件:中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告中国国际贸易中心股份有限公司董事长: 黄国祥2024 年 8 月 30 日中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告中国国际贸易中心股份有限公司截至 2024 年 6 月 30 日 6 个月期间财务报表及审阅报告页码审阅报告 1截至 2024 年 6 月 30 日 6 个月期间财务报表合并及公司资产负债表 1合并及公司利润表 2合并及公司现金流量表 3合并股东权益变动表 4公司股东权益变动表 5财务报表附注 6 - 79补充资料 1审阅报告普华永道中天阅字(2024)第 0028 号中国国际贸易中心股份有限公司全体股东:我们审阅了后附的中国国际贸易中心股份有限公司(以下简称“国贸股份公司”)的中期财务报表,包括 2024 年 6 月 30 日的合并及公司资产负债表,截至 2024年 6 月 30 日止六个月期间的合并及公司利润表、合并及公司现金流量表、合并及公司股东权益变动表以及中期财务报表附注。按照企业会计准则的规定编制中期财务报表是国贸股份公司管理层的责任,我们的责任是在实施审阅工作的基础上对中期财务报表出具审阅报告。\n我们按照《中国注册会计师审阅准则第 2101 号—财务报表审阅》的规定执行了审阅业务。该准则要求我们计划和实施审阅工作,以对中期财务报表是否不存在重大错报获取有限保证。审阅主要限于询问公司有关人员和对财务数据实施分析程序,提供的保证程度低于审计。我们没有实施审计,因而不发表审计意见。\n根据我们的审阅,我们没有注意到任何事项使我们相信上述中期财务报表没有按照企业会计准则的规定编制,未能在所有重大方面公允反映国贸股份公司 2024年 6 月 30 日的合并及公司财务状况以及截至 2024 年 6 月 30 日止六个月期间的合并及公司经营成果和现金流量。\n普华永道中天会计师事务所(特殊普通合伙)中国•上海市2024年 8 月30日注册会计师注册会计师———————王 蕾———————赵 欢中国国际贸易中心股份有限公司2024年6月30日合并及公司资产负债表(除特别注明外,金额单位为人民币元)资 产 附注 2024年6月30日合并2023年12月31日合并2024年6月30日公司2023年12月31日公司流动资产货币资金 四.1 3,612,151,002 4,088,660,385 3,353,563,638 3,810,663,602应收账款 四.2, 四.15, 十二.1 250,165,292 258,206,405 175,543,015 190,239,917预付款项 四.3 22,439,141 34,928,835 8,372,090 21,781,078其他应收款 四.4, 十二.2 6,879,463 9,782,516 4,467,514 5,993,230存货 四.5 31,960,550 32,289,866 30,998,223 31,324,515其他流动资产 四.6 190,053 287,762 - -流动资产合计 3,923,785,501 4,424,155,769 3,572,944,480 4,060,002,342非流动资产长期股权投资 四.7, 十二.3 26,719,203 29,422,110 30,391,146 35,545,395投资性房地产 四.8 6,125,467,772 6,276,416,500 6,125,467,772 6,276,416,500固定资产 四.9 1,428,924,156 1,473,897,131 1,426,286,206 1,470,949,828使用权资产 四.10 36,842,123 38,643,777 36,842,123 38,643,777无形资产 四.11 440,578,881 448,308,338 440,578,881 448,308,338长期待摊费用 四.12 82,933,631 86,583,575 82,877,737 85,833,756递延所得税资产 四.13 66,319,049 66,716,127 66,145,350 66,549,511其他非流动资产 四.14 35,785,606 36,991,708 35,785,606 36,991,708非流动资产合计 8,243,570,421 8,456,979,266 8,244,374,821 8,459,238,813资产总计 12,167,355,922 12,881,135,035 11,817,319,301 12,519,241,155流动负债应付账款 四.16 92,747,360 96,988,767 21,155,831 24,254,342预收款项 四.17 43,172,273 35,677,643 43,172,273 35,677,643合同负债 四.18 62,454,004 57,757,548 48,378,609 48,212,006应付职工薪酬 四.19 69,082,880 130,561,942 61,724,676 111,289,172应交税费 四.20 128,507,556 104,948,555 125,344,471 98,360,595其他应付款 四.21 1,112,682,011 1,130,882,781 933,995,382 943,827,118一年内到期的非流动负债 四.22 453,341,061 497,538,270 453,341,061 497,538,270流动负债合计 1,961,987,145 2,054,355,506 1,687,112,303 1,759,159,146非流动负债长期借款 四.23 1,085,000,000 1,085,000,000 1,085,000,000 1,085,000,000租赁负债 四.24 37,891,647 37,795,541 37,891,647 37,795,541非流动负债合计 1,122,891,647 1,122,795,541 1,122,891,647 1,122,795,541负债合计 3,084,878,792 3,177,151,047 2,810,003,950 2,881,954,687股东权益股本 四.25 1,007,282,534 1,007,282,534 1,007,282,534 1,007,282,534资本公积 四.26 1,873,587,184 1,873,587,184 1,872,501,925 1,872,501,925盈余公积 四.27 503,641,267 503,641,267 503,641,267 503,641,267未分配利润 四.28 5,693,717,271 6,315,647,342 5,623,889,625 6,253,860,742归属于母公司股东权益合计 9,078,228,256 9,700,158,327 9,007,315,351 9,637,286,468少数股东权益 4,248,874 3,825,661 —— ——股东权益合计 9,082,477,130 9,703,983,988 9,007,315,351 9,637,286,468负债和股东权益总计 12,167,355,922 12,881,135,035 11,817,319,301 12,519,241,155后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并及公司利润表(除特别注明外,金额单位为人民币元)2024年1至6月 2023年1至6月 2024年1至6月 2023年1至6月合并 合并 公司 公司四.29, 十二.4 1,965,293,521 1,938,364,140 1,809,562,667 1,804,419,444减: 营业成本 四.29, 十二.4 (768,803,721) (770,020,879) (623,801,568) (642,110,612)税金及附加 四.30 (193,397,506) (188,800,718) (192,867,785) (188,428,915)销售费用 四.31 (36,815,698) (39,389,145) (36,496,378) (38,758,305)管理费用 四.32 (60,039,827) (57,774,196) (60,382,662) (58,040,046)财务费用 四.33 (7,651,091) (24,979,965) (8,083,676) (25,287,526)其中:利息费用 28,826,865 40,499,642 28,826,865 40,499,642利息收入 22,575,706 17,074,023 22,113,208 16,753,743加: 其他收益 四.36 593,107 3,283,091 403,768 2,604,991投资收益/(损失) 四.37, 十二.5 1,177,093 1,767,975 725,751 (8,135,290)其中:对联营企业的投资收益 1,177,093 1,767,975 725,751 1,549,010信用减值(损失)/转回 四.35 (28,332) 149,374 - -900,327,546 862,599,677 889,060,117 846,263,741加: 营业外收入 四.38 17,896,806 9,237,099 17,810,752 9,237,099减: 营业外支出 四.39 (1,124,245) (1,939,649) (1,117,883) (1,939,649)917,100,107 869,897,127 905,752,986 853,561,191减: 所得税费用 四.40 (229,139,671) (215,874,488) (226,256,809) (212,806,468)687,960,436 654,022,639 679,496,177 640,754,723按经营持续性分类持续经营净利润 687,960,436 654,022,639 679,496,177 640,754,723按所有权归属分类归属于母公司股东的净利润 687,537,223 653,651,170 679,496,177 640,754,723少数股东损益 423,213 371,469 —— ——基本和稀释每股收益 四.41 0.68 0.65 —— ——- - - -687,960,436 654,022,639 679,496,177 640,754,723归属于母公司股东的综合收益总额 687,537,223 653,651,170 679,496,177 640,754,723归属于少数股东的综合收益总额 423,213 371,469 —— ——后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳六、其他综合收益七、综合收益总额五、每股收益附注项 目四、净利润三、利润总额二、营业利润一、营业收入中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并及公司现金流量表(除特别注明外,金额单位为人民币元)2024年1至6月 2023年1至6月 2024年1至6月 2023年1至6月合并 合并 公司 公司一、经营活动产生的现金流量销售商品、提供劳务收到的现金 2,108,988,672 2,108,595,081 1,939,212,905 1,971,577,995收到其他与经营活动有关的现金 四.42(1) 45,091,814 20,897,287 42,810,976 23,584,649经营活动现金流入小计 2,154,080,486 2,129,492,368 1,982,023,881 1,995,162,644购买商品、接受劳务支付的现金 (320,160,677) (282,839,226) (232,065,483) (223,045,359)支付给职工以及为职工支付的现金 (289,542,953) (266,036,145) (218,875,852) (198,501,514)支付的各项税费 (487,672,363) (466,817,279) (471,313,701) (455,326,556)支付其他与经营活动有关的现金 四.42(2) (114,281,399) (121,162,469) (114,234,285) (120,376,645)经营活动现金流出小计 (1,211,657,392) (1,136,855,119) (1,036,489,321) (997,250,074)经营活动产生的现金流量净额 四.43(1) 942,423,094 992,637,249 945,534,560 997,912,570二、投资活动产生的现金流量取得投资收益所收到的现金 5,880,000 900,000 5,880,000 -处置固定资产、无形资产和其他长期资产 收回的现金净额 209,611 194,912 209,611 194,912处置子公司及其他营业单位收到的现金净额 - - - 315,700投资活动现金流入小计 6,089,611 1,094,912 6,089,611 510,612购建固定资产、无形资产和其他长期资产支付的现金 (28,399,743) (29,827,469) (28,172,955) (29,493,368)投资支付的现金 (2,000,000) - - -投资活动现金流出小计 (30,399,743) (29,827,469) (28,172,955) (29,493,368)投资活动产生的现金流量净额 (24,310,132) (28,732,557) (22,083,344) (28,982,756)三、筹资活动产生的现金流量偿还债务支付的现金 (50,000,000) - (50,000,000) -分配股利、利润或偿付利息支付的现金 (1,331,191,378) (738,363,329) (1,331,191,378) (738,363,329)其中:子公司支付给少数股东的股利、利润 - - - -支付的其他与筹资活动有关的现金 四.42(3) (1,203,884) (1,203,884) (1,203,884) (1,203,884)筹资活动现金流出小计 四.43(3) (1,382,395,262) (739,567,213) (1,382,395,262) (739,567,213)筹资活动产生的现金流量净额 四.43(3) (1,382,395,262) (739,567,213) (1,382,395,262) (739,567,213)四、汇率变动对现金及现金等价物的影响 1,655 (405,143) 1,655 (405,143)五、现金及现金等价物净增加额 (464,280,645) 223,932,336 (458,942,391) 228,957,458加:期初现金及现金等价物余额 四.43(2) 3,890,169,116 3,326,552,300 3,756,387,330 3,204,663,519六、期末现金及现金等价物余额 四.43(4) 3,425,888,471 3,550,484,636 3,297,444,939 3,433,620,977后附财务报表附注为财务报表的组成部分。\n项 目 附注企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳中国国际贸易中心股份有限公司截至2024年6月30日6个月期间合并股东权益变动表(除特别注明外,金额单位为人民币元)2023年1月1日余额 1,007,282,534 1,872,984,978 503,641,267 5,761,543,789 3,525,797 9,148,978,3652023年度增减变动额净利润 - - - 1,259,201,327 902,070 1,260,103,397股东投入和减少资本向少数股东处置子公司部分股权 - 602,206 - - (602,206) -利润分配对股东的分配 四.28 - - - (705,097,774) - (705,097,774)2023年12月31日余额 1,007,282,534 1,873,587,184 503,641,267 6,315,647,342 3,825,661 9,703,983,9882024年1月1日余额 1,007,282,534 1,873,587,184 503,641,267 6,315,647,342 3,825,661 9,703,983,9882024年1至6月增减变动额净利润 - - - 687,537,223 423,213 687,960,436利润分配对股东的分配 四.28 - - - (1,309,467,294) - (1,309,467,294)2024年6月30日余额 1,007,282,534 1,873,587,184 503,641,267 5,693,717,271 4,248,874 9,082,477,130后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳股东权益合计归属于母公司股东权益项目 附注 股本 资本公积 盈余公积 未分配利润 少数股东权益中国国际贸易中心股份有限公司截至2024年6月30日6个月期间公司股东权益变动表(除特别注明外,金额单位为人民币元)2023年1月1日余额 1,007,282,534 1,872,501,925 503,641,267 5,722,735,059 9,106,160,7852023年度增减变动额净利润 - - - 1,236,223,457 1,236,223,457利润分配对股东的分配 四.28 - - - (705,097,774) (705,097,774)2023年12月31日余额 1,007,282,534 1,872,501,925 503,641,267 6,253,860,742 9,637,286,4682024年1月1日余额 1,007,282,534 1,872,501,925 503,641,267 6,253,860,742 9,637,286,4682024年1至6月增减变动额净利润 - - - 679,496,177 679,496,177利润分配对股东的分配 四.28 - - - (1,309,467,294) (1,309,467,294)2024年6月30日余额 1,007,282,534 1,872,501,925 503,641,267 5,623,889,625 9,007,315,351后附财务报表附注为财务报表的组成部分。\n企业负责人:黄国祥 主管会计工作的负责人:胡燕敏 会计机构负责人:贺咏芳项目 附注 股本 股东权益合计资本公积 盈余公积 未分配利润中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)一 公司基本情况中国国际贸易中心股份有限公司(以下称“本公司”)是经原国家体改委体改生【1997】第 161 号文批准,由中国国际贸易中心有限公司(以下称“国贸有限公司”)于 1997 年 10 月 15 日独家发起设立的股份有限公司。本公司设立时总股本为 640,000,000 股,每股面值为 1 元。\n国贸有限公司是于 1985 年 2 月 12 日成立的中外合资经营企业,中外合资双方分别为中国世贸投资有限公司和嘉里兴业有限公司(一家于香港注册的公司),双方权益各占 50%。\n本公司于 1999 年向社会公开发售人民币普通股(A 股)160,000,000 股,并收到募集资金净额 854,240,000 元,其中股本为 160,000,000 元,计入资本公积的股本溢价为 694,240,000 元。收到募集资金后,本公司的总股本为800,000,000 元。\n2006 年 10 月 30 日,本公司完成向国贸有限公司非公开发行人民币普通股(A 股)207,282,534 股。国贸有限公司以其持有的对本公司 1,210,530,000 元债 权 全 额 认 购 , 从 而 本 公 司 股 本 增 加 207,282,534 元 , 资 本 公 积 增 加1,000,927,182 元。至此,本公司的总股本为 1,007,282,534 元。\n本公司及子公司(以下合称“本集团”)注册地及总部地址位于中华人民共和国北京市,主要经营业务为出租办公场所、公寓、商场及酒店经营等。\n截至 2024 年 6 月 30 日 6 个月期间,纳入合并范围的主要子公司详见附注五.1。\n本财务报表由本公司董事会于 2024 年 8 月 30 日批准报出。\n二 主要会计政策和会计估计本集团根据经营特点确定具体会计政策和会计估计,主要体现在应收款项的预期信用损失的计量(附注二.8)、存货的计价方法(附注二.9)、投资性房地产和固定资产折旧、使用权资产折旧和无形资产摊销(附注二.12、13、25、16)、投资性房地产的计量模式(附注二.12)、收入的确认和计量(附注二.22)等。\n本集团在确定重要的会计政策时所运用的关键判断、重要会计估计及其关键假设详见附注二.27。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)1 财务报表的编制基础本财务报表按照财政部于 2006 年 2 月 15 日及以后期间颁布的《企业会计准则——基本准则》、各项具体会计准则及相关规定(以下合称“企业会计准则”)、以及中国证券监督管理委员会《公开发行证券的公司信息披露编报规则第 15 号——财务报告的一般规定》的披露规定编制。\n本财务报表以持续经营为基础编制。\n2 遵循企业会计准则的声明本公司截至 2024 年 6 月 30 日 6 个月期间财务报表符合企业会计准则的要求,真实、完整地反映了本公司 2024 年 6 月 30 日的合并及公司财务状况以及截至 2024 年 6 月 30 日 6 个月期间的合并及公司经营成果和现金流量等有关信息。\n3 会计年度会计年度为公历 1 月 1 日起至 12 月 31 日止。\n4 记账本位币记账本位币为人民币。\n5 合并财务报表的编制方法编制合并财务报表时,合并范围包括本公司及全部子公司。\n从取得子公司的实际控制权之日起,本集团开始将其纳入合并范围;从丧失实际控制权之日起停止纳入合并范围。\n在编制合并财务报表时,子公司与本公司采用的会计政策或会计期间不一致的,按照本公司的会计政策和会计期间对子公司财务报表进行必要的调整。\n集团内所有重大往来余额、交易及未实现利润在合并财务报表编制时予以抵销。子公司的股东权益、当期净损益及综合收益中不归属于本公司所拥有的部分分别作为少数股东权益、少数股东损益及归属于少数股东的综合收益总额在合并财务报表中股东权益、净利润及综合收益总额项下单独列示。\n如果以本集团为会计主体与以本公司或子公司为会计主体对同一交易的认定不同时,从本集团的角度对该交易予以调整。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)6 现金及现金等价物现金及现金等价物是指库存现金,可随时用于支付的存款,以及持有的期限短、流动性强、易于转换为已知金额现金、价值变动风险很小的投资。\n7 外币交易外币交易按交易发生日即期汇率的近似汇率将外币金额折算为人民币入账。\n于资产负债表日,外币货币性项目采用资产负债表日的即期汇率折算为人民币。为购建符合借款费用资本化条件的资产而借入的外币专门借款产生的汇兑差额在资本化期间内予以资本化;其他汇兑差额直接计入当期损益。以历史成本计量的外币非货币性项目,于资产负债表日采用交易发生日的即期汇率的近似汇率折算。汇率变动对现金的影响额在现金流量表中单独列示。\n8 金融工具金融工具,是指形成一方的金融资产并形成其他方的金融负债或权益工具的合同。当本集团成为金融工具合同的一方时,确认相关的金融资产或金融负债。\n(1) 金融资产(a) 分类和计量本集团根据管理金融资产的业务模式和金融资产的合同现金流量特征,将金融资产划分为:(1)以摊余成本计量的金融资产;(2)以公允价值计量且其变动计入其他综合收益的金融资产;(3)以公允价值计量且其变动计入当期损益的金融资产。\n金融资产在初始确认时以公允价值计量。对于以公允价值计量且其变动计入当期损益的金融资产,相关交易费用直接计入当期损益;对于其他类别的金融资产,相关交易费用计入初始确认金额。因销售产品或提供劳务而产生的、未包含或不考虑重大融资成分的应收账款,本集团按照预期有权收取的对价金额作为初始确认金额。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(a) 分类和计量(续)(i) 债务工具本集团持有的债务工具是指从发行方角度分析符合金融负债定义的工具,分别采用以下三种方式进行计量:以摊余成本计量本集团管理此类金融资产的业务模式为以收取合同现金流量为目标,且此类金融资产的合同现金流量特征与基本借贷安排相一致,即在特定日期产生的现金流量,仅为对本金和以未偿付本金金额为基础的利息的支付。本集团对于此类金融资产按照实际利率法确认利息收入。此类金融资产主要包括货币资金、应收账款、其他应收款等。\n以公允价值计量且其变动计入其他综合收益本集团管理此类金融资产的业务模式为既以收取合同现金流量为目标又以出售为目标,且此类金融资产的合同现金流量特征与基本借贷安排相一致。此类金融资产按照公允价值计量且其变动计入其他综合收益,但减值损失或利得、汇兑损益和按照实际利率法计算的利息收入计入当期损益。\n以公允价值计量且其变动计入当期损益本集团将持有的未划分为以摊余成本计量和以公允价值计量且其变动计入其他综合收益的债务工具,以公允价值计量且其变动计入当期损益。在初始确认时,本集团为了消除或显著减少会计错配,将部分金融资产指定为以公允价值计量且其变动计入当期损益的金融资产。自资产负债表日起超过一年到期且预期持有超过一年的,列示为其他非流动金融资产,其余列示为交易性金融资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(b) 减值本集团对于以摊余成本计量的金融资产,以预期信用损失为基础确认损失准备。\n本集团考虑在资产负债表日无须付出不必要的额外成本和努力即可获得的有关过去事项、当前状况以及对未来经济状况的预测等合理且有依据的信息,以发生违约的风险为权重,计算合同应收的现金流量与预期能收到的现金流量之间差额的现值的概率加权金额,确认预期信用损失。\n对于因提供物业管理服务、会展服务及酒店经营等日常经营活动形成的应收账款,无论是否存在重大融资成分,本集团均按照整个存续期的预期信用损失计量损失准备。对于应收租赁款,本集团亦选择按照整个存续期的预期信用损失计量损失准备。\n除上述应收账款外,于每个资产负债表日,本集团对处于不同阶段的金融工具的预期信用损失分别进行计量。金融工具自初始确认后信用风险未显著增加的,处于第一阶段,本集团按照未来 12 个月内的预期信用损失计量损失准备;金融工具自初始确认后信用风险已显著增加但尚未发生信用减值的,处于第二阶段,本集团按照该工具整个存续期的预期信用损失计量损失准备;金融工具自初始确认后已经发生信用减值的,处于第三阶段,本集团按照该工具整个存续期的预期信用损失计量损失准备。\n对于在资产负债表日具有较低信用风险的金融工具,本集团假设其信用风险自初始确认后并未显著增加,认定为处于第一阶段的金融工具,按照未来 12个月内的预期信用损失计量损失准备。\n本集团对于处于第一阶段和第二阶段的金融工具,按照其未扣除减值准备的账面余额和实际利率计算利息收入。对于处于第三阶段的金融工具,按照其账面余额减已计提减值准备后的摊余成本和实际利率计算利息收入。\n按照单项计算预期信用损失的各类金融资产,其信用风险特征与该类中的其他金融资产显著不同。当单项金融资产无法以合理成本评估预期信用损失的信息时,本集团依据信用风险特征将应收款项划分为若干组合,在组合基础上计算预期信用损失,确定组合的依据如下:中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(1) 金融资产(续)(b) 减值(续)应收账款组合 1 应收物业租赁款,以逾期日作为账龄的起算时点应收账款组合 2 应收酒店服务款,以逾期日作为账龄的起算时点应收账款组合 3 应收物业管理服务款,以逾期日作为账龄的起算时点应收账款组合 4 应收会展服务款,以逾期日作为账龄的起算时点其他应收账款组合 1 应收押金及保证金其他应收账款组合 2 应收备用金其他应收账款组合 3 应收代垫款其他应收账款组合 4 应收其他款项其他应收账款组合 5 应收关联方对于划分为组合的应收账款,本集团参考历史信用损失经验,结合当前状况以及对未来经济状况的预测,编制应收账款逾期天数与整个存续期预期信用损失率对照表,计算预期信用损失。\n对于划分为组合的其他应收款,本集团参考历史信用损失经验,结合当前状况以及对未来经济状况的预测,通过违约风险敞口和未来 12 个月内或整个存续期预期信用损失率,计算预期信用损失。\n本集团将计提或转回的损失准备计入当期损益。对于持有的以公允价值计量且其变动计入其他综合收益的债务工具,本集团在将减值损失或利得计入当期损益的同时调整其他综合收益。\n(c) 终止确认金融资产满足下列条件之一的,予以终止确认:(1)收取该金融资产现金流量的合同权利终止;(2)该金融资产已转移,且本集团将金融资产所有权上几乎所有的风险和报酬转移给转入方;(3)该金融资产已转移,虽然本集团既没有转移也没有保留金融资产所有权上几乎所有的风险和报酬,但是放弃了对该金融资产控制。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)8 金融工具(续)(2) 金融负债金融负债于初始确认时分类为以摊余成本计量的金融负债和以公允价值计量且其变动计入当期损益的金融负债。\n本集团的金融负债主要为以摊余成本计量的金融负债,包括应付账款、其他应付款、借款、应付债券及租赁负债等。该类金融负债按其公允价值扣除交易费用后的金额进行初始计量,并采用实际利率法进行后续计量。期限在一年以下(含一年)的,列示为流动负债;期限在一年以上但自资产负债表日起一年内(含一年)到期的,列示为一年内到期的非流动负债;其余列示为非流动负债。\n当金融负债的现时义务全部或部分已经解除时,本集团终止确认该金融负债或义务已解除的部分。终止确认部分的账面价值与支付的对价之间的差额,计入当期损益。\n(3) 金融工具的公允价值确定存在活跃市场的金融工具,以活跃市场中的报价确定其公允价值。不存在活跃市场的金融工具,采用估值技术确定其公允价值。在估值时,本集团采用在当前情况下适用并且有足够可利用数据和其他信息支持的估值技术,选择与市场参与者在相关资产或负债的交易中所考虑的资产或负债特征相一致的输入值,并尽可能优先使用相关可观察输入值。在相关可观察输入值无法取得或取得不切实可行的情况下,使用不可观察输入值。\n9 存货(1) 分类存货包括维修材料以及酒店营业物料等,按成本与可变现净值孰低计量。\n(2) 发出存货的计价方法维修材料和酒店营业物料发出时的成本按加权平均法核算,低值易耗品在领用时采用一次转销法进行摊销。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)9 存货(续)(3) 存货可变现净值的确定依据及存货跌价准备的计提方法存货跌价准备按存货成本高于其可变现净值的差额计提。可变现净值按日常活动中,以存货的估计售价减去估计的销售费用以及相关税费后的金额确定。\n(4) 本集团的存货盘存制度为:酒店营业物料采用实地盘存制,其他存货采用永续盘存制。\n10 长期股权投资长期股权投资包括:本公司对子公司的长期股权投资;本集团对联营企业的长期股权投资。\n子公司为本公司能够对其实施控制的被投资单位;联营企业是指本集团能够对其财务和经营决策具有重大影响的被投资单位。\n对子公司的投资,在公司财务报表中按照成本法确定的金额列示,在编制合并财务报表时按权益法调整后进行合并;对联营企业投资采用权益法核算。\n(1) 投资成本确定对于以支付现金取得的长期股权投资,按照实际支付的购买价款作为初始投资成本。\n(2) 后续计量及损益确认方法采用成本法核算的长期股权投资,按照初始投资成本计量,被投资单位宣告分派的现金股利或利润,确认为投资收益计入当期损益。\n采用权益法核算的长期股权投资,初始投资成本大于投资时应享有被投资单位可辨认净资产公允价值份额的,以初始投资成本作为长期股权投资成本;初始投资成本小于投资时应享有被投资单位可辨认净资产公允价值份额的,其差额计入当期损益,并相应调增长期股权投资成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)10 长期股权投资(续)(2) 后续计量及损益确认方法(续)采用权益法核算的长期股权投资,本集团按应享有或应分担的被投资单位的净损益份额确认当期投资损益。确认被投资单位发生的净亏损,以长期股权投资的账面价值以及其他实质上构成对被投资单位净投资的长期权益减记至零为限,但本集团负有承担额外损失义务且符合预计负债确认条件的,继续确认预计将承担的损失金额。被投资单位除净损益、其他综合收益和利润分配以外所有者权益的其他变动,调整长期股权投资的账面价值并计入资本公积。被投资单位分派的利润或现金股利于宣告分派时按照本集团应分得的部分,相应减少长期股权投资的账面价值。本集团与被投资单位之间未实现的内部交易损益按照持股比例计算归属于本集团的部分,予以抵销,在此基础上确认本公司财务报表的投资损益。本集团与被投资单位发生的内部交易损失,其中属于资产减值损失的部分,相应的未实现损失不予抵销。\n(3) 确定对被投资单位具有控制、重大影响的依据控制是指拥有对被投资单位的权力,通过参与被投资单位的相关活动而享有可变回报,并且有能力运用对被投资单位的权力影响其回报金额。\n重大影响是指对被投资单位的财务和经营政策有参与决策的权力,但并不能够控制或者与其他方一起共同控制这些政策的制定。\n(4) 长期股权投资减值对子公司、联营企业的长期股权投资,当其可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)11 共同经营共同经营名称 主要经营地 注册地 业务性质 享有的份额(%)直接 间接中国国际贸易中心股份有限公司二期物业中心(以下称“国贸二期”)北京 北京 物业租赁 70 -本公司与国贸有限公司共同投资建设及经营国贸二期,双方的投资分别占该共同控制资产投资总额的 70%及 30%。\n本公司按照出资比例在财务报表中确认共同持有的资产及共同承担的负债中本公司享有的资产及承担的负债份额,以及共同经营所产生的应由本公司享有的收入和承担的费用。\n12 投资性房地产投资性房地产包括以出租为目的的房屋建筑物及其改良、装修、土地使用权、不可分割的机器设备、电子设备以及正在建造或开发过程中将来用于出租的建筑物,以成本进行初始计量。与投资性房地产有关的后续支出,在相关的经济利益很可能流入本集团且其成本能够可靠的计量时,计入投资性房地产成本;否则,于发生时计入当期损益。\n本集团采用成本模式对所有投资性房地产进行后续计量,按其预计使用寿命及净残值率计提折旧(摊销)。投资性房地产的预计使用寿命、净残值率及年折旧(摊销)率列示如下:预计使用寿命 预计净残值率 年折旧(摊销)率房屋及建筑物 31-48 年 10% 1.88%-2.90%土地使用权 36-42 年 - 2.38%-2.78%房屋及建筑物改良 15 年 10% 6%房屋及建筑物装修 2-10 年 - 10%-50%机器设备 15 年 10% 6%电子设备 5 年 - 20%对投资性房地产的预计使用寿命、预计净残值和折旧(摊销)方法于每年年度终了进行复核并作适当调整。\n当投资性房地产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)12 投资性房地产(续)投资性房地产的用途改变为自用时,自改变之日起,将该投资性房地产转换为固定资产或无形资产。自用房地产的用途改变为赚取租金或资本增值时,自改变之日起,将固定资产或无形资产转换为投资性房地产。发生转换时,以转换前的账面价值作为转换后的入账价值。\n当投资性房地产被处置、或者永久退出使用且预计不能从其处置中取得经济利益时,终止确认该项投资性房地产。投资性房地产出售、转让、报废或毁损的处置收入扣除其账面价值和相关税费后的金额计入当期损益。\n13 固定资产(1) 固定资产确认及初始计量固定资产包括房屋建筑物及其装修、机器设备、运输设备、家具装置及设备和电子设备等。\n固定资产在与其有关的经济利益很可能流入本集团、且其成本能够可靠计量时予以确认。购置或新建的固定资产按取得时的成本进行初始计量。\n与固定资产有关的后续支出,在与其有关的经济利益很可能流入本集团且其成本能够可靠计量时,计入固定资产成本;对于被替换的部分,终止确认其账面价值;对其他的固定资产修理费用等后续支出于发生时计入当期损益。\n(2) 固定资产的折旧方法固定资产折旧采用年限平均法并按其入账价值减去预计净残值后在预计使用寿命内计提。对计提了减值准备的固定资产,则在未来期间按扣除减值准备后的账面价值及依据尚可使用年限确定折旧额。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)13 固定资产(续)(2) 固定资产的折旧方法(续)固定资产的预计使用寿命、净残值率及年折旧率列示如下:预计使用寿命 预计净残值率 年折旧率房屋及建筑物 36-42 年 10% 2.14%-2.50%房屋及建筑物装修 10 年 - 10%机器设备 15 年 10% 6%运输设备 5 年 10% 18%家具装置及设备 5 年 0-10% 18%-20%电子设备 5 年 0-10% 18%-20%对固定资产的预计使用寿命、预计净残值和折旧方法于每年年度终了进行复核并作适当调整。\n(3) 当固定资产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。\n(4) 固定资产的处置当固定资产被处置、或者预期通过使用或处置不能产生经济利益时,终止确认该固定资产。固定资产出售、转让、报废或毁损的处置收入扣除其账面价值和相关税费后的金额计入当期损益。\n14 在建工程在建工程按实际发生的成本计量。实际成本包括建筑成本、安装成本、符合资本化条件的借款费用以及其他为使在建工程达到预定可使用状态所发生的必要支出。在建工程在达到预定可使用状态时,转入固定资产并自次月起开始计提折旧。当在建工程的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)15 借款费用本集团发生的可直接归属于需要经过相当长时间的购建活动才能达到预定可使用状态之资产的购建的借款费用,在资产支出及借款费用已经发生、为使资产达到预定可使用状态所必要的购建活动已经开始时,开始资本化并计入该资产的成本。当购建的资产达到预定可使用状态时停止资本化,其后发生的借款费用计入当期损益。如果资产的购建活动发生非正常中断,并且中断时间连续超过 3 个月,暂停借款费用的资本化,直至资产的购建活动重新开始。\n对于为购建符合资本化条件的资产而借入的专门借款,以专门借款当期实际发生的利息费用减去尚未动用的借款资金存入银行取得的利息收入或进行暂时性投资取得的投资收益后的金额确定专门借款借款费用的资本化金额。\n对于为购建符合资本化条件的资产而占用的一般借款,根据累计资产支出超过专门借款部分的资本支出加权平均数乘以所占用一般借款的加权平均利率计算确定一般借款借款费用的资本化金额。\n16 无形资产无形资产为国贸三期的土地使用权,以成本进行初始计量。土地使用权按实际使用年限 46 年平均摊销。\n对使用寿命有限的无形资产的预计使用寿命及摊销方法于每年年度终了进行复核并作适当调整。\n当无形资产的可收回金额低于其账面价值时,账面价值减记至可收回金额(附注二.18)。\n17 长期待摊费用长期待摊费用包括配套市政工程费、拆迁费及其他已经发生但应由本期和以后各期负担的、分摊期限在一年以上的各项费用,按预计受益期间分期平均摊销,并以实际支出减去累计摊销后的净额列示。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)18 长期资产减值固定资产、在建工程、使用权资产、使用寿命有限的无形资产、以成本模式计量的投资性房地产及对子公司、联营企业的长期股权投资等,于资产负债表日存在减值迹象的,进行减值测试。减值测试结果表明资产的可收回金额低于其账面价值的,按其差额计提减值准备并计入资产减值损失。可收回金额为资产的公允价值减去处置费用后的净额与资产预计未来现金流量的现值两者之间较高者。资产减值准备按单项资产为基础计算并确认,如果难以对单项资产的可收回金额进行估计的,以该资产所属的资产组确定资产组的可收回金额。资产组是能够独立产生现金流入的最小资产组合。\n上述资产减值损失一经确认,如果在以后期间价值得以恢复,也不予转回。\n19 职工薪酬职工薪酬是本集团为获得职工提供的服务或解除劳动关系而给予的各种形式的报酬或补偿,包括短期薪酬、离职后福利及辞退福利等。\n(1) 短期薪酬短期薪酬包括工资、奖金、津贴和补贴、职工福利费、医疗保险费、工伤保险费、生育保险费、住房公积金、工会和教育经费、补充医疗保险等。本集团在职工提供服务的会计期间,将实际发生的短期薪酬确认为负债,并计入当期损益或相关资产成本。\n(2) 离职后福利本集团将离职后福利计划分类为设定提存计划和设定受益计划。设定提存计划是本集团向独立的基金缴存固定费用后,不再承担进一步支付义务的离职后福利计划;设定受益计划是除设定提存计划以外的离职后福利计划。于报告期内,本集团的离职后福利主要是为员工缴纳的基本养老保险、补充养老保险和失业保险,均属于设定提存计划。\n基本养老保险本集团职工参加了由当地劳动和社会保障部门组织实施的社会基本养老保险。本集团以当地规定的社会基本养老保险缴纳基数和比例,按月向当地社会基本养老保险经办机构缴纳养老保险费。职工退休后,当地劳动及社会保障部门有责任向已退休员工支付社会基本养老金。本集团在职工提供服务的会计期间,将根据上述社保规定计算应缴纳的金额确认为负债,并计入当期损益或相关资产成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)19 职工薪酬(续)(3) 辞退福利本集团在职工劳动合同到期之前解除与职工的劳动关系、或者为鼓励职工自愿接受裁减而提出给予补偿,在本集团不能单方面撤回解除劳动关系计划或裁减建议时和确认与涉及支付辞退福利的重组相关的成本费用时两者孰早日,确认因解除与职工的劳动关系给予补偿而产生的负债,同时计入当期损益。\n预期在资产负债表日起一年内需支付的辞退福利,列示为应付职工薪酬。\n20 股利分配现金股利于股东大会批准的当期,确认为负债。\n21 预计负债因对外提供担保、未决诉讼等事项形成的现时义务,当履行该义务很可能导致经济利益的流出,且其金额能够可靠计量时,确认为预计负债。\n预计负债按照履行相关现时义务所需支出的最佳估计数进行初始计量,并综合考虑与或有事项有关的风险、不确定性和货币时间价值等因素。货币时间价值影响重大的,通过对相关未来现金流出进行折现后确定最佳估计数;因随着时间推移所进行的折现还原而导致的预计负债账面价值的增加金额,确认为利息费用。\n于资产负债表日,对预计负债的账面价值进行复核并作适当调整,以反映当前的最佳估计数。\n预期在资产负债表日起一年内需支付的预计负债,列报为流动负债。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)22 租赁收入及其他收入的确认本集团在日常经营活动中出租办公场所、公寓、商场按照租赁准则确认收入,酒店经营以及对外提供物业管理、会展等服务按照收入准则确认收入。\n(1) 租赁业务本集团经营租出自有的房屋建筑物、机器设备及电子设备时,经营租赁的租金收入在租赁期内按照直线法确认。本集团将按销售额的一定比例确定的可变租金在实际发生时计入租金收入。\n当租赁发生变更时,本集团自变更生效日起将其作为一项新租赁,并将与变更前租赁有关的预收或应收租赁收款额作为新租赁的收款额。\n(2) 酒店经营、提供物业管理服务及会展服务本集团在客户取得服务或者商品的控制权时,按预期有权收取的对价金额确认收入。本集团对外提供酒店餐饮服务,在餐饮服务完成时确认收入;本集团提供物业管理服务、会展服务及酒店客房等服务,根据已完成的服务进度在相应时间段内确认收入。\n本集团按照已完成服务的进度确认收入时,对于本集团已经取得无条件收款权的部分,确认为应收账款,其余部分确认为合同资产,并对应收账款和合同资产以预期信用损失为基础确认损失准备(附注二.8);如果本集团已收或应收的合同价款超过已完成的劳务,则将超过部分确认为合同负债。本集团对于同一合同下的合同资产和合同负债以净额列示。\n本集团的合同成本为合同取得成本。本集团将为获取劳务合同而发生的增量成本,确认为合同取得成本,对于摊销期限不超过一年的合同取得成本,在其发生时计入当期损益;对于摊销期限在一年以上的合同取得成本,本集团按照相关合同项下与确认劳务收入相同的基础摊销计入损益。如果合同成本的账面价值高于因提供该劳务预期能够取得的剩余对价减去估计将要发生的成本,本集团对超出的部分计提减值准备,并确认为资产减值损失。于资产负债表日,本集团对于初始确认时摊销期限超过一年的合同取得成本,以减去相关资产减值准备后的净额,列示为其他非流动资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)23 政府补助政府补助为本集团从政府无偿取得的货币性资产或非货币性资产,包括财政奖励款等。\n政府补助在本集团能够满足其所附的条件并且能够收到时,予以确认。政府补助为货币性资产的,按照收到或应收的金额计量。政府补助为非货币性资产的,按照公允价值计量;公允价值不能可靠取得的,按照名义金额计量。\n与资产相关的政府补助,是指本集团取得的、用于购建或以其他方式形成长期资产的政府补助。与收益相关的政府补助,是指除与资产相关的政府补助之外的政府补助。\n与资产相关的政府补助,冲减相关资产的账面价值,或确认为递延收益并在相关资产使用寿命内按照合理、系统的方法分期计入损益;与收益相关的政府补助,用于补偿以后期间的相关成本费用或损失的,确认为递延收益,并在确认相关成本费用或损失的期间,计入当期损益或冲减相关成本,用于补偿已发生的相关费用或损失的,直接计入当期损益或冲减相关成本。\n本集团对同类政府补助采用相同的列报方式。\n与日常活动相关的政府补助计入其他收益或冲减相关成本费用,与日常活动无关的政府补助计入营业外收支。\n24 递延所得税资产和递延所得税负债递延所得税资产和递延所得税负债根据资产和负债的计税基础与其账面价值的差额(暂时性差异)计算确认。对于既不影响会计利润也不影响应纳税所得额(或可抵扣亏损),且初始确认的资产和负债未导致产生等额应纳税暂时性差异和可抵扣暂时性差异的非企业合并交易中产生的资产或负债的初始确认形成的暂时性差异,不确认相应的递延所得税资产和递延所得税负债。于资产负债 10月 14 12:47:34 gpu ollama[24746]: 表日,递延所得税资产和递延所得税负债,按照预期收回该资产或清偿该负债期间的适用税率计量。\n递延所得税资产的确认以很可能取得用来抵扣可抵扣暂时性差异、可抵扣亏损和税款抵减的应纳税所得额为限。\n对与子公司及联营企业投资相关的应纳税暂时性差异,确认递延所得税负债,除非本集团能够控制暂时性差异转回的时间且该暂时性差异在可预见的未来很可能不会转回。对与子公司和联营企业投资相关的可抵扣暂时性差异,当暂时性差异在可预见的未来很可能转回且未来很可能获得用来抵扣可抵扣暂时性差异的应纳税所得额时,确认递延所得税资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)24 递延所得税资产和递延所得税负债(续)同时满足下列条件的递延所得税资产和递延所得税负债以抵销后的净额列示:\uf0b7 递延所得税资产和递延所得税负债与同一税收征管部门对本集团内同一纳税主体征收的所得税相关;\uf0b7 本集团内该纳税主体拥有以净额结算当期所得税资产及当期所得税负债的法定权利。\n25 租赁租赁,是指在一定期间内,出租人将资产的使用权让与承租人以获取对价的合同。\n(1) 本集团作为出租人相关会计政策详情参见附注二.22。\n(2) 本集团作为承租人本集团于租赁期开始日确认使用权资产,并按尚未支付的租赁付款额的现值确认租赁负债。租赁付款额包括固定付款额,以及在合理确定将行使购买选择权或终止租赁选择权的情况下需支付的款项等。按销售额的一定比例确定的可变租金不纳入租赁付款额,在实际发生时计入当期损益。本集团将自资产负债表日起一年内(含一年)支付的租赁负债,列示为一年内到期的非流动负债。\n本集团的使用权资产包括租入的土地及房屋建筑物等。使用权资产按照成本进行初始计量,该成本包括租赁负债的初始计量金额、租赁期开始日或之前已支付的租赁付款额、初始直接费用等,并扣除已收到的租赁激励。本集团能够合理确定租赁期届满时取得租赁资产所有权的,在租赁资产剩余使用寿命内计提折旧;若无法合理确定租赁期届满时是否能够取得租赁资产所有权,则在租赁期与租赁资产剩余使用寿命两者孰短的期间内计提折旧。当可收回金额低于使用权资产的账面价值时,本集团将其账面价值减记至可收回金额。\n对于租赁期不超过 12 个月的短期租赁和单项资产全新时价值较低的低价值资产租赁,本集团选择不确认使用权资产和租赁负债,将相关租金支出在租赁期内各个期间按照直线法计入当期损益或相关资产成本。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)25 租赁(续)(2) 本集团作为承租人(续)租赁发生变更且同时符合下列条件时,本集团将其作为一项单独租赁进行会计处理:(1)该租赁变更通过增加一项或多项租赁资产的使用权而扩大了租赁范围;(2)增加的对价与租赁范围扩大部分的单独价格按该合同情况调整后的金额相当。\n当租赁变更未作为一项单独租赁进行会计处理时,本集团在租赁变更生效日重新确定租赁期,并采用修订后的折现率对变更后的租赁付款额进行折现,重新计量租赁负债。租赁变更导致租赁范围缩小或租赁期缩短的,本集团相应调减使用权资产的账面价值,并将部分终止或完全终止租赁的相关利得或损失计入当期损益。其他租赁变更导致租赁负债重新计量的,本集团相应调整使用权资产的账面价值。\n26 分部信息本集团以内部组织结构、管理要求、内部报告制度为依据确定经营分部,以经营分部为基础确定报告分部并披露分部信息。\n经营分部是指本集团内同时满足下列条件的组成部分:(1)该组成部分能够在日常活动中产生收入和发生费用;(2)本集团管理层能够定期评价该组成部分的经营成果,以决定向其配置资源、评价其业绩;(3)本集团能够取得该组成部分的财务状况、经营成果和现金流量等有关会计信息。两个或多个经营分部具有相似的经济特征,并且满足一定条件的,则可合并为一个经营分部。\n27 重要会计估计和判断本集团根据历史经验和其他因素,包括对未来事项的合理预期,对所采用的重要会计估计和关键判断进行持续的评价。\n(a) 重要会计估计及其关键假设下列重要会计估计及关键假设存在很可能导致下一个会计年度资产和负债的账面价值出现重大调整的风险:中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)二 主要会计政策和会计估计(续)27 重要会计估计和判断(续)(a) 重要会计估计及其关键假设(续)(i) 预期信用损失的计量本集团通过违约风险敞口和预期信用损失率计算预期信用损失,并基于违约概率和违约损失率确定预期信用损失率。在确定预期信用损失率时,本集团使用内部历史信用损失经验等数据,并结合当前状况和前瞻性信息对历史数据进行调整。在考虑前瞻性信息时,本集团使用的指标包括经济下滑的风险、外部市场环境和客户情况的变化等。本集团定期监控并复核与预期信用损失计算相关的假设。上述估计技术和关键假设于截至 2024 年 6 月 30 日 6个月期间未发生重大变化。\n(ii) 投资性房地产及固定资产折旧本集团主要业务为出租办公场所、公寓、商场及酒店经营等,在决定投资性房地产及固定资产的折旧时,需要作出重大估计。\n本集团对所持有的投资性房地产和固定资产在预计使用寿命内计提折旧。本集团定期复核相关资产的预计使用寿命,以决定将计入每个报告期的折旧费用数额。资产使用寿命是本集团根据对同类资产的以往经验并结合预期的技术改变、市况改变及实际损耗情况而确定。如果以前的估计发生重大变化,则会在未来期间对折旧费用进行调整。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)三 税项(1) 本集团本报告期适用的主要税种及其税率列示如下:税种 税率 计税依据企业所得税 20%、25% 应纳税所得额增值税 3%-13% 应纳税增值额(应纳税额按应纳税销售额乘以适用税率扣除当期允许抵扣的进项税后的余额计算)城市维护建设税 7% 缴纳的增值税税额教育费附加 3% 缴纳的增值税税额地方教育费附加 2% 缴纳的增值税税额房产税 1.2%及 12% 应税房产原值的 70%及租金收入土地使用税 30 元/平方米/年 实际占用的土地面积(2) 税收优惠根据财政部、税务总局颁布的《关于进一步实施小微企业所得税优惠政策的公告》(财税【2022】13 号)以及《关于小微企业和个体工商户所得税优惠政策的公告》(财税【2023】6 号),本集团的子公司北京国贸国际会展有限公司符合小型微利企业税收减免条件,自 2022 年 1 月 1 日至 2024 年 12 月31 日期间,应纳税所得额超过 100 万元但不超过 300 万元的部分,减按25%计入应纳税所得额,按 20%的税率缴纳企业所得税。自 2023 年 1 月 1日至 2024 年 12 月 31 日,对小型微利企业年应纳税所得额不超过 100 万元的部分,减按 25%计入应纳税所得额,按 20%的税率缴纳企业所得税。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注1 货币资金2024 年 6 月 30 日 2023 年 12 月 31 日库存现金 771,466 885,944银行存款 3,555,200,837 4,033,138,169应收利息 56,178,699 54,636,272合计 3,612,151,002 4,088,660,3852024 年 6 月 30 日,银行存款中受限资金余额为 130,083,832 元(2023 年 12 月31 日:143,854,997 元),其性质为物业管理项目代管款项。\n2 应收账款2024 年 6 月 30 日 2023 年 12 月 31 日应收账款 251,461,823 259,474,604减:坏账准备 (1,296,531) (1,268,199)净额 250,165,292 258,206,405(1) 应收账款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 248,413,056 256,301,941一到二年 248,637 915,739二到三年 543,206 -三年以上 2,256,924 2,256,924合计 251,461,823 259,474,604(2) 2024 年 6 月 30 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额坏账准备金额占应收账款总额比例余额前五名的应收账款总额 48,817,757 (87,811) 19.41%(3) 坏账准备本集团对于应收账款,无论是否存在重大融资成分,本集团均按照整个存续期的预期信用损失计量损失准备。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)应收账款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 1,165,049 0.46% (1,165,049) 100.00% 1,165,049 0.45% (1,165,049) 100.00%按组合计提坏账准备(b) 250,296,774 99.54% (131,482) 0.05% 258,309,555 99.55% (103,150) 0.04%251,461,823 100.00% (1,296,531) 0.52% 259,474,604 100.00% (1,268,199) 0.49%(a) 2024 年 6 月 30 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100.00% (941,049)应收会展服务款(ii) 224,000 100.00% (224,000)合计 1,165,049 (1,165,049)(i) 2024 年 6 月 30 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:941,049 元)。\n(ii) 2024 年 6 月 30 日,应收三河市胜记仓物业服务有限公司会展服务款 224,000元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:224,000 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,151,912 - - 16,675,479 - -逾期 90-180 日 640,990 - - 680,303 - -逾期 180-365 天 147,429 - - - - -160,189,450 - 172,046,872 -组合 — 应收酒店服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -组合 — 应收物业管理服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 36,154,147 - - 27,333,719 - -逾期 90 日以内 19,211,195 0.10% (19,211) 23,324,258 0.10% (23,324)逾期 90-180 日 3,917,382 0.30% (11,752) 3,058,103 0.30% (9,174)逾期 180-365 日 8,808,664 1.00% (88,087) 7,065,118 1.00% (70,652)逾期 1 年-2 年 248,637 5.00% (12,432) - 5.00% -68,340,025 (131,482) 60,781,198 (103,150)中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)2 应收账款(续)(3) 坏账准备(续)(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下(续):组合 — 应收会展服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 6,575,445 - - 7,739,193 - -(4) 本期间本集团计提的坏账准备金额为 28,332 元,无新增转回的坏账准备金额。\n(5) 本期间本集团无实际核销的应收账款(2023 年 1 至 6 月:无)。\n3 预付款项(1) 预付款项账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日金额 占总额比例 金额 占总额比例一年以内 22,432,088 99.97% 34,918,142 99.97%一到二年 - - 10,693 0.03%二到三年 7,053 0.03% - -合计 22,439,141 100.00% 34,928,835 100.00%(2) 2024 年 6 月 30 日,按预付对象归集的余额前五名的预付款项汇总分析如下:金额占预付款项总额比例余额前五名的预付款项总额 10,594,234 47.21%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)4 其他应收款2024 年 6 月 30 日 2023 年 12 月 31 日应收押金和保证金 2,437,959 4,101,971应收代垫款项 2,054,772 4,312,402应收备用金 1,458,658 277,379应收其他款项 928,074 1,090,764合计 6,879,463 9,782,516减:坏账准备 - -净额 6,879,463 9,782,516本集团不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。\n(1) 其他应收款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 4,408,182 7,082,373一到二年 27,011 694,911二到三年 661,912 87,075三年以上(a) 1,782,358 1,918,157合计 6,879,463 9,782,516(a) 2024 年 6 月 30 日,其他应收款中款项 622,224 元,为本集团根据《关于按房改政策出售住房售房款存储使用等有关问题的通知》(京房改办【2007】4 号)要求,将按房改政策出售住房的售房款全额存储于北京市住房资金管理中心,并进行专户存储,专项使用,所有权不变。\n(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 6,879,463 100% - - 9,782,516 100% - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)4 其他应收款(续)(2) 损失准备及其账面余额变动表(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例押金和保证金:一年以内 2,437,959 - - 4,101,971 - -代垫款:一年以内 2,054,772 - - 4,312,402 - -备用金:一年以内 1,458,658 - - 277,379 - -其他款项:一年以内 928,074 - - 1,090,764 - -合计 6,879,463 - - 9,782,516 - -本期间无计提、收回或转回的坏账准备。\n(3) 2024 年 6 月 30 日,按欠款方归集的余额前五名的其他应收款分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 9.99% -第二名 应收其他款 622,224 三年以上 9.05% -第三名 应收代垫款 434,569 一年以内 6.32% -第四名 应收保证金 416,911 二至三年 6.06% -第五名 应收押金 399,642 一年以内 5.81% -合计 2,560,901 37.23% -(4) 本期间本集团无实际核销的其他应收款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)5 存货存货分类如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额存货跌价准备 账面价值 账面余额存货跌价准备 账面价值维修材料 20,749,269 - 20,749,269 20,834,497 - 20,834,497酒店营业物料 9,744,024 - 9,744,024 9,977,382 - 9,977,382其他 1,467,257 - 1,467,257 1,477,987 - 1,477,987合计 31,960,550 - 31,960,550 32,289,866 - 32,289,8666 其他流动资产2024 年 6 月 30 日 2023 年 12 月 31 日碳排放权资产 156,270 156,270待抵扣进项税额 33,783 131,492合计 190,053 287,7627 长期股权投资2024 年 6 月 30 日 2023 年 12 月 31 日联营企业(a) 26,719,203 29,422,110减:长期股权投资减值准备 - -净额 26,719,203 29,422,110中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 34 -四 合并财务报表项目附注(续)7 长期股权投资(续)(a) 联营企业本期增减变动 减值准备2023 年12 月 31 日增加或减少投资按权益法调整的净损益其他综合收益调整其他权益变动宣告分派的现金股利计提减值准备 其他2024 年6 月 30 日2024 年6 月 30 日2023 年12 月 31 日北京时代网星科技有限公司(以下称“时代网星”) 26,045,395 - 725,751 - - (5,880,000) - - 20,891,146 - -北京力创智慧科技有限公司(以下称“力创智慧”) 765,741 - 109,050 - - - - - 874,791 - -北京昌发展国贸物业管理有限责任公司(以下称“北京昌发展”) 2,610,974 - 342,292 - - - - - 2,953,266 - -北京首程国贸物业管理有限公司(以下称“首程国贸”) - 2,000,000 - - - - - - 2,000,000 -合计 29,422,110 2,000,000 1,177,093 - - (5,880,000) - - 26,719,203 - -本集团在联营企业中的权益相关信息见附注五.2。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 35 -四 合并财务报表项目附注(续)8 投资性房地产在建投资性房地产(1) 房屋及建筑物 土地使用权房屋及建筑物改良房屋及建筑物装修 机器设备 电子设备 合计原价2023 年 12 月 31 日 44,933,423 6,502,425,556 1,465,091,960 80,975,025 826,370,611 1,948,720,096 347,673,359 11,216,190,030本期增加购置 4,438,566 - - - 8,271,003 1,192,000 5,775,785 19,677,354本期减少处置及报废 - - - - (1,912,910) (650,257) (2,438,151) (5,001,318)2024 年 6 月 30 日 49,371,989 6,502,425,556 1,465,091,960 80,975,025 832,728,704 1,949,261,839 351,010,993 11,230,866,066累计折旧2023 年 12 月 31 日 - (2,295,608,374) (387,889,832) (72,877,539) (597,074,771) (1,289,934,171) (296,388,843) (4,939,773,530)本期增加计提 - (71,479,268) (18,572,451) - (28,752,016) (38,644,454) (13,005,960) (170,454,149)本期减少处置及报废 - - - - 1,910,085 481,149 2,438,151 4,829,3852024 年 6 月 30 日 - (2,367,087,642) (406,462,283) (72,877,539) (623,916,702) (1,328,097,476) (306,956,652) (5,105,398,294)账面价值2024 年 6 月 30 日 49,371,989 4,135,337,914 1,058,629,677 8,097,486 208,812,002 621,164,363 44,054,341 6,125,467,7722023 年 12 月 31 日 44,933,423 4,206,817,182 1,077,202,128 8,097,486 229,295,840 658,785,925 51,284,516 6,276,416,500中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)8 投资性房地产(续)(1) 本集团对国贸东楼交通一体化等改造工程中预计将用于出租部分的相关成本在投资性房地产核算。\n(2) 2024 年 1 至 6 月,投资性房地产计提的折旧金额为 170,454,149 元(2023 年 1至 6 月:176,373,646 元),未计提减值准备(2023 年 1 至 6 月:无)。\n(3) 本公司于 2020 年 8 月与中国建设银行股份有限公司(以下简称“建行”)北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55亿元长期借款的抵押物。2024 年 6 月 30 日,投资性房地产中包含的上述抵押物账面价值约为 1,279,844,868 元(原价 1,837,461,425 元)(附注四.23)。\n2024 年 1 至 6 月,本集团报废了账面价值 171,933 元(原价 5,001,318 元)的投资性房地产,账面价值 852,820 元(原价 19,588,169 元)的固定资产(附注四.9),报废净损失合计为 815,142 元(附注四.38、39)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 37 -四 合并财务报表项目附注(续)9 固定资产房屋及建筑物 房屋及建筑物装修 机器设备 运输设备 家具装置及设备 电子设备 合计原价2023 年 12 月 31 日 1,606,392,453 347,763,150 441,154,350 5,085,477 294,436,170 213,463,909 2,908,295,509本期增加购置 - - - - 2,610,717 1,115,969 3,726,686本期减少处置及报废 - (9,088,640) (4,241,472) - (3,409,083) (2,848,974) (19,588,169)2024 年 6 月 30 日 1,606,392,453 338,674,510 436,912,878 5,085,477 293,637,804 211,730,904 2,892,434,026累计折旧2023 年 12 月 31 日 (376,043,037) (299,096,486) (285,002,288) (4,275,460) (266,194,776) (203,786,331) (1,434,398,378)本期增加计提 (18,443,294) (7,407,920) (13,228,540) (43,069) (7,119,250) (1,604,768) (47,846,841)本期减少处置及报废 - 9,088,640 3,450,135 - 3,355,161 2,841,413 18,735,3492024 年 6 月 30 日 (394,486,331) (297,415,766) (294,780,693) (4,318,529) (269,958,865) (202,549,686) (1,463,509,870)账面价值2024 年 6 月 30 日 1,211,906,122 41,258,744 142,132,185 766,948 23,678,939 9,181,218 1,428,924,1562023 年 12 月 31 日 1,230,349,416 48,666,664 156,152,062 810,017 28,241,394 9,677,578 1,473,897,131中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)9 固定资产(续)(1) 2024 年 1 至 6 月,固定资产计提的折旧金额为 47,846,841 元(2023 年 1 至 6月:48,825,698 元) ,均计入成本费用。2024 年 1 至 6 月未计提减值准备(2023年 1 至 6 月:无)。\n(2) 本公司于 2020 年 8 月与建行北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月 30日 , 固 定 资 产 中 包 含 的 上 述 抵 押 物 账 面 价 值 为 487,679,097 元 ( 原 价690,528,913 元) (附注四.23)。\n(3) 未办妥产权证书的固定资产及投资性房地产账面原价 未办妥产权证书原因房屋、建筑物 2,512,191,215 待相关部门审批10 使用权资产土地 房屋及建筑物 合计原价2023 年 12 月 31 日 45,296,231 4,157,470 49,453,701本期增加 - - -本期减少 - - -2024 年 6 月 30 日 45,296,231 4,157,470 49,453,701累计折旧2023 年 12 月 31 日 (7,691,820) (3,118,104) (10,809,924)本期增加 - - -计提 (1,281,970) (519,684) (1,801,654)本期减少 - - -2024 年 6 月 30 日 (8,973,790) (3,637,788) (12,611,578)减值准备2023 年 12 月 31 日 - - -本期增加 - - -本期减少 - - -2024 年 6 月 30 日 - - -账面价值2024 年 6 月 30 日 36,322,441 519,682 36,842,1232023 年 12 月 31 日 37,604,411 1,039,366 38,643,777中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)11 无形资产土地使用权原价2023 年 12 月 31 日 606,581,451本期增加 -本期减少 -2024 年 6 月 30 日 606,581,451累计摊销2023 年 12 月 31 日 (158,273,113)本期增加 -计提 (7,729,457)本期减少 -2024 年 6 月 30 日 (166,002,570)账面价值2024 年 6 月 30 日 440,578,8812023 年 12 月 31 日 448,308,3382024 年 1 至 6 月,无形资产的摊销金额为 7,729,457 元(2023 年 1 至 6 月:7,729,457 元),均计入成本费用。\n本公司于 2020 年 8 月与建行北京华贸支行签订合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月 30日 , 无 形 资 产 中 包 含 的 上 述 抵 押 物 账 面 价 值 约 为 177,086,805 元 ( 原 价263,041,236 元)(附注四.23)。\n2024 年 6 月 30 日,本集团无未办妥产权证的土地使用权(2023 年 12 月 31 日:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)12 长期待摊费用2023 年 本期增加 本期摊销 2024 年12 月 31 日 6 月 30 日国贸二期拆迁费 74,217,491 - (1,553,011) 72,664,480国贸三期 B 阶段市政工程 5,645,601 - (900,552) 4,745,049国贸东楼市政工程 1,603,045 - (174,881) 1,428,164公寓市政配套 4,367,619 - (327,575) 4,040,044会展店铺装修 749,819 - (693,925) 55,894合计 86,583,575 - (3,649,944) 82,933,63113 递延所得税(1) 未经抵销的递延所得税资产2024 年 6 月 30 日 2023 年 12 月 31 日可抵扣 递延 可抵扣 递延暂时性差异 所得税资产 暂时性差异 所得税资产长期资产报废 137,672,043 34,418,011 137,672,043 34,418,011预提费用 79,031,247 19,757,812 82,033,445 20,508,361应付职工薪酬 28,999,044 7,246,132 28,999,044 7,246,132建设中断期利息支出费用化 14,820,230 3,705,058 14,820,230 3,705,058租赁负债 40,487,291 10,121,822 40,903,391 10,225,847资产减值准备 1,072,531 268,133 1,044,199 261,050其他 50,449 12,612 50,449 12,612合计 302,132,835 75,529,580 305,522,801 76,377,071其中:预计于一年内(含一年)转回的金额 29,109,025 29,987,626预计于一年后转回的金额 46,420,555 46,389,445中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)13 递延所得税(续)(2) 未经抵销的递延所得税负债2024 年 6 月 30 日 2023 年 12 月 31 日应纳税暂时性差异 递延所得税负债 应纳税暂时性差异 递延所得税负债使用权资产 36,842,123 9,210,531 38,643,777 9,660,944其中:预计于一年内(含一年)转回的金额 770,906 900,827预计于一年后转回的金额 8,439,625 8,760,117(3) 本集团未确认递延所得税资产的可抵扣暂时性差异及可抵扣亏损分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日可抵扣亏损 29,266,964 29,082,637可抵扣暂时性差异 224,000 224,00029,490,964 29,306,637(4) 未确认递延所得税资产的可抵扣亏损将于以下年度到期:2024 年 6 月 30 日 2023 年 12 月 31 日2025 年 8,482,728 8,482,7282027 年 13,392,950 13,392,9502028 年 7,206,959 7,206,9592029 年 184,327 -29,266,964 29,082,637(5) 抵销后的递延所得税资产和递延所得税负债净额列示如下:2024 年 6 月 30 日 2023 年 12 月 31 日互抵金额 抵销后余额 互抵金额 抵销后余额递延所得税资产 9,210,531 66,319,049 9,660,944 66,716,127递延所得税负债 9,210,531 - 9,660,944 -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)14 其他非流动资产2024 年 6 月 30 日 2023 年 12 月 31 日预付工程款 27,564,803 29,760,676合同取得成本 8,220,803 7,231,032合计 35,785,606 36,991,708其他非流动资产余额为未来将形成长期资产的预付款项及确认为合同取得成本的租赁代理佣金。\n15 资产减值及损失准备2023 年12 月 31 日本期增加本期减少 2024 年6 月 30 日转回 转销应收账款坏账准备 1,268,199 28,332 - - 1,296,531其中:单项计提坏账准备 1,165,049 - - - 1,165,049组合计提坏账准备 103,150 28,332 - - 131,482其他应收款坏账准备 - - - - -合计 1,268,199 28,332 - - 1,296,53116 应付账款2024 年 6 月 30 日 2023 年 12 月 31 日物业管理外包服务款 69,178,664 67,966,773酒店物资采购款 14,078,956 18,502,314其他 9,489,740 10,519,680合计 92,747,360 96,988,7672024 年 6 月 30 日,账龄超过一年的应付账款为 1,072,028 元(2023 年 12 月 31日:300,803 元),主要为提供物业管理服务及酒店服务的应付物资采购款,上述款项预计将于一年以内支付。\n17 预收款项2024 年 6 月 30 日 2023 年 12 月 31 日预收租金 43,172,273 35,677,643(1) 2024 年 6 月 30 日,账龄超过一年的预收款项为 391,475 元,主要为写字楼、商场等物业预收租金。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)18 合同负债2024 年 6 月 30 日 2023 年 12 月 31 日预收物业管理服务款 26,237,531 20,590,385预收酒店服务款 32,232,568 36,425,511预收会展服务款 3,983,905 741,652合计 62,454,004 57,757,548(1) 2024 年 6 月 30 日,本集团除租赁业务以外的已签订合同、但尚未履行或尚未履行完毕的履约义务所对应的预收金额为 62,454,004 元,其中,本集团预计42,778,323 元将于 2024 年度确认收入,19,675,681 元将于 2025 年及以后年度确认收入。\n2024 年 6 月 30 日,本公司除租赁业务以外的已签订合同、但尚未履行或尚未履行完毕的履约义务所对应的 预收金额为 48,378,609 元,其中,本公司预计31,877,257 元将于 2024 年度确认收入,16,501,352 元将于 2025 年及以后年度确认收入。\n19 应付职工薪酬2024 年 6 月 30 日 2023 年 12 月 31 日应付短期薪酬(1) 66,221,232 127,576,153应付设定提存计划(2) 2,861,648 2,985,789合计 69,082,880 130,561,942(1) 短期薪酬2023 年本期增加 本期减少2024 年12 月 31 日 6 月 30 日工资、奖金、津贴和补贴 97,585,886 160,941,563 (223,944,493) 34,582,956职工福利费 - 9,151,870 (7,206,022) 1,945,848社会保险费 1,569,048 12,299,812 (12,385,121) 1,483,739其中:医疗保险费 1,538,865 11,984,379 (12,068,053) 1,455,191工伤保险费 30,183 315,433 (317,068) 28,548工会经费和职工教育经费 28,421,219 5,103,787 (6,342,200) 27,182,806住房公积金 - 13,833,588 (13,833,588) -补充医疗保险 - 3,301,419 (2,275,536) 1,025,883合计 127,576,153 204,632,039 (265,986,960) 66,221,232中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)19 应付职工薪酬(续)(2) 设定提存计划2023 年12 月 31 日 本期增加 本期减少2024 年6 月 30 日基本养老保险 2,717,224 19,117,799 (19,231,053) 2,603,970失业保险费 95,841 597,601 (602,202) 91,240补充养老保险 172,724 3,595,976 (3,602,262) 166,438合计 2,985,789 23,311,376 (23,435,517) 2,861,64820 应交税费2024 年 6 月 30 日 2023 年 12 月 31 日应交企业所得税 107,980,890 87,235,098应交增值税 14,301,408 11,420,707应交城市维护建设税 1,018,302 848,187应交教育费附加 727,350 605,848其他 4,479,606 4,838,715合计 128,507,556 104,948,55521 其他应付款2024 年 6 月 30 日 2023 年 12 月 31 日应付租户押金 764,972,353 766,015,472应付物业管理项目代收款 166,713,878 181,818,535预提费用 85,974,143 82,033,445应付工程及设备款 50,650,168 57,841,744其他 44,371,469 43,173,585合计 1,112,682,011 1,130,882,781(1) 2024 年 6 月 30 日,账龄超过一年的其他应付款为 700,834,170 元(2023 年 12月 31 日:703,939,046 元),主要为收取的租户押金,由于租赁期尚未结束,上述款项尚未退还。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)22 一年内到期的非流动负债2024 年 6 月 30 日 2023 年 12 月 31 日一年内到期的应付债券(1) 449,570,001 443,190,003一年内到期的长期借款(附注四.23) 1,175,416 51,240,417一年内到期的租赁负债(附注四.24) 2,595,644 3,107,850453,341,061 497,538,270(1) 债券有关信息如下:面值 发行日期 债券期限 发行金额 是否违约19 国贸 01(1) 500,000,000 2019/9/26 5 年 500,000,000 否经中国证券监督委员会证监许可【2019】1595 号文核准,本公司于 2019 年 9月 26 日完成公开发行了 2019 年公司债券(面向合格投资者)(第一期),发行总额为人民币 5 亿元,扣除发行费用后金额为 498,250,000 元,本年债券期限为 5年,附第三年末发行人调整票面利率选择权和投资者回售选择权。本期债券采用单利按年计息,不计复利,固定年利率为 3.65%,每年付息一次。\n本公司于 2022 年 8 月 12 日选择下调票面利率,存续期内第 4 年至第 5 年的票面利率调整为 2.90%,采用单利按年计息,不计复利,每年付息一次。\n截至 2022 年 9 月 26 日,债券回售已全部实施完毕,共计回售 60,000 手,涉及债券本金 60,000,000 元,剩余债券面值共计 440,000,000 元将于 2024 年 9 月25 日到期并偿还。\n2024 年 6 月 30 日,本集团将于一年内支付的应付债券利息为 9,570,001 元,一年内支付的应付债券本金为 440,000,000 元,列示于一年内到期的非流动负债。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)23 长期借款2024 年 6 月 30 日 2023 年 12 月 31 日抵押借款 1,086,175,416 1,136,240,417减:一年内到期的长期借款(附注四.22)本金 - (50,000,000)利息 (1,175,416) (1,240,417)1,085,000,000 1,085,000,000本公司于 2020 年 8 月与建行北京华贸支行签订借款合同,以国贸三期 A 阶段的部分房产及相应的土地使用权作为 21.55 亿元长期借款的抵押物。2024 年 6 月30 日,本公司长期抵押借款本息和的余额为 1,086,175,416 元,抵押物的账面价值为 1,944,610,770 元(原价 2,791,031,574 元)(2023 年 12 月 31 日,长期抵押借款本息和的余额为 1,136,240,417 元,抵押物的账面价值为 1,975,249,983元(原价 2,791,031,574 元))(附注四 8、9、11)。利息每 3 个月支付一次,借款期限为 2020 年 8 月 28 日至 2035 年 8 月 27 日。\n根据本公司与建行北京华贸支行签订的长期借款合同中相关规定,借款利率执行浮动政策。建行于每一年度间根据贷款市场报价利率(以下简称“LPR”),再调整该等长期借款当年的借款利率后进行计息。\n2024 年 6 月 30 日,本集团不存在逾期长期借款,本集团长期借款的利率为3.90%(2023 年 12 月 31 日:3.90%)。\n24 租赁负债2024 年 6 月 30 日 2023 年 12 月 31 日租赁负债 40,487,291 40,903,391减:一年内到期的非流动负债(附注四.22) (2,595,644) (3,107,850)37,891,647 37,795,5412024 年 6 月 30 日,本集团未纳入租赁负债,但将导致未来潜在现金流出的事项为 按 新 租 赁 准 则 进 行 简 化 处 理 的 短 期 租 赁 , 未 来 最 低 应 支 付 租 金 ( 含 税 ) 为3,772,881 元(2023 年 12 月 31 日:3,623,945 元),将在一年内支付。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 47 -四 合并财务报表项目附注(续)25 股本2023 年 本期增减变动 2024 年12 月 31 日 发行新股 送股 公积金转股 其他 小计 6 月 30 日人民币普通股 1,007,282,534 - - - - - 1,007,282,5342022 年 本年增减变动 2023 年12 月 31 日 发行新股 送股 公积金转股 其他 小计 12 月 31 日人民币普通股 1,007,282,534 - - - - - 1,007,282,534中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)26 资本公积2023 年 本期增加本期减少2024 年12 月 31 日 6 月 30 日股本溢价 1,919,827,911 - - 1,919,827,911其他资本公积 -变更记账本位币产生外币折算差额 (44,434,929) - - (44,434,929)原制度资本公积转入 (2,874,383) - - (2,874,383)其他 1,068,585 - - 1,068,585合计 1,873,587,184 - - 1,873,587,1842022 年 本年增加本年减少2023 年12 月 31 日 12 月 31 日股本溢价 1,919,827,911 - - 1,919,827,911其他资本公积 -变更记账本位币产生外币折算差额 (44,434,929) - - (44,434,929)原制度资本公积转入 (2,874,383) - - (2,874,383)其他 466,379 602,206 - 1,068,585合计 1,872,984,978 602,206 - 1,873,587,18427 盈余公积2023 年12 月 31 日 本期提取 本期减少2024 年6 月 30 日法定盈余公积金 503,641,267 - - 503,641,2672022 年12 月 31 日 本年提取 本年减少2023 年12 月 31 日法定盈余公积金 503,641,267 - - 503,641,267根据《中华人民共和国公司法》及本公司章程,本公司按年度净利润的 10%提取法定盈余公积金,当法定盈余公积金累计额达到股本的 50%以上时,可不再提取。法定盈余公积金经批准后可用于弥补亏损,或者增加股本。本公司的法定盈余公积金累计额已达到股本的 50%,本期间无需提取。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)28 未分配利润2024 年 1 至 6 月 2023 年度金额 金额期/年初未分配利润 6,315,647,342 5,761,543,789加:本期/年归属于母公司所有者的净利润 687,537,223 1,259,201,327减:支付普通股股利 (1,309,467,294) (705,097,774)期/年末未分配利润 5,693,717,271 6,315,647,342根据 2024 年 4 月 26 日股东大会决议,本公司向全体股东派发 2023 年度现金股利,每 10 股人民币 13.00 元(含税),按照已发行股份 1,007,282,534 股计算,共计 1,309,467,294 元。\n29 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 1,965,293,521 1,938,364,140主营业务成本 768,803,721 770,020,879本集团主要业务为对外提供物业租赁、物业管理服务、会展服务及酒店经营,与上述业务相关的收入主要来自北京。因此本集团无需按产品或按地区对主营业务收入和主营业务成本进行分析。\n(2) 按收入类型分析如下2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,709,030,499 533,033,970 1,666,402,278 518,526,122酒店经营 256,263,022 235,769,751 271,961,862 251,494,757合计 1,965,293,521 768,803,721 1,938,364,140 770,020,8792024 年 1 至 6 月,本集团租赁收入中基于承租人的销售额的一定比例确认的可变租金为 70,821,426 元(2023 年 1 至 6 月:76,026,014 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)29 营业收入和营业成本(续)(3) 本集团营业收入分解如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入租赁业务 1,355,185,625 1,336,664,536按时点确认其中:酒店餐饮业务 97,009,322 115,476,076按时段内确认其中:物业管理服务 349,213,091 322,823,376酒店客房及其他配套服务 159,253,700 156,485,786会展服务 4,631,783 6,914,366合计 1,965,293,521 1,938,364,140包括在 2023 年 12 月 31 日账面价值中的 36,064,529 元合同负债已于 2024 年 1至 6 月转入营业收入(2023 年 1 至 6 月:71,197,955 元)。\n30 税金及附加2024 年 1 至 6 月 2023 年 1 至 6 月 计缴标准房产税 181,123,598 177,395,190 附注三城市维护建设税 5,839,205 5,573,345 附注三教育费附加 4,170,850 3,980,961 附注三其他 2,263,853 1,851,222合计 193,397,506 188,800,718中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)31 销售费用2024 年 1 至 6 月 2023 年 1 至 6 月广告宣传费 28,603,549 33,007,589代理佣金 8,212,149 6,381,556合计 36,815,698 39,389,14532 管理费用2024 年 1 至 6 月 2023 年 1 至 6 月员工成本 39,836,657 39,156,415折旧摊销 6,787,581 7,001,314维修保养费 1,226,262 1,914,246审计及咨询费 1,028,022 1,033,804保安费 1,021,789 1,041,457能源费 861,436 1,407,382清洁绿化费 538,431 579,504租金 88,390 88,390其他 8,651,259 5,551,684合计 60,039,827 57,774,19633 财务费用2024 年 1 至 6 月 2023 年 1 至 6 月利息支出 28,039,081 39,645,553加:租赁负债利息支出 787,784 854,089利息费用 28,826,865 40,499,642减:利息收入 (22,575,706) (17,074,023)汇兑(收益)/损失 (1,655) 405,143其他 1,401,587 1,149,203净额 7,651,091 24,979,965中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)34 费用按性质分类利润表中的营业成本、销售费用和管理费用按照性质分类,列示如下:2024 年 1 至 6 月 2023 年 1 至 6 月折旧摊销 231,482,045 238,407,927员工成本 229,160,612 233,655,602劳务费 101,793,168 77,389,503能源费 56,736,984 53,919,997维修保养费 54,104,244 54,693,870清洁绿化费 49,708,121 49,485,206酒店及物业管理营业物料 44,455,800 51,379,310广告宣传费 28,603,549 33,007,589保安费 13,936,114 14,186,397代理佣金 8,212,149 6,381,556保险费 5,770,956 5,536,730审计及咨询费 2,008,630 1,757,660租金(i) 1,252,681 1,301,188其他费用 38,434,193 46,081,685合计 865,659,246 867,184,220(i) 本集团将短期租赁和低价值租赁的租金支出直接计入当期损益,2024 年 1 至 6月金额为 1,252,681 元(2023 年 1 至 6 月:1,301,188 元)。\n35 信用减值损失2024 年 1 至 6 月 2023 年 1 至 6 月应收账款坏账损失/(转回) 28,332 (149,374)中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)36 其他收益2024 年 1 至 6 月 2023 年 1 至 6 月与资产相关/与收益相关政策奖励款 412,018 405,731 与收益相关增值税加计扣除 123,583 2,388,342 —代扣代缴税手续费返还 57,506 489,018 —合计 593,107 3,283,09137 投资收益2024 年 1 至 6 月 2023 年 1 至 6 月权益法核算的长期股权投资收益(附注五.2) 1,177,093 1,767,975本集团不存在投资收益汇回的重大限制。\n38 营业外收入2024 年1 至 6 月2023 年1 至 6 月计入 2024 年 1 至 6月非经常性损益的金额保险理赔收入 16,272,954 - 16,272,954租户违约罚款收入 1,282,587 7,411,061 1,282,587处置非流动资产收益 209,611 194,912 209,611不需支付的应付款项 104,714 1,630,126 104,714其他 26,940 1,000 26,940合计 17,896,806 9,237,099 17,896,806中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)39 营业外支出2024 年1 至 6 月2023 年1 至 6 月计入 2024 年 1 至 6月非经常性损益的金额处置非流动资产损失 1,024,753 1,633,530 1,024,753赞助捐赠支出 88,000 273,000 88,000其他 11,492 33,119 11,492合计 1,124,245 1,939,649 1,124,24540 所得税费用2024 年 1 至 6 月 2023 年 1 至 6 月按税法及相关规定计算的当期所得税 228,742,593 213,975,457递延所得税 397,078 1,899,031合计 229,139,671 215,874,488将基于合并利润表的利润总额采用适用税率计算的所得税调节为所得税费用:2024 年 1 至 6 月 2023 年 1 至 6 月利润总额 917,100,107 869,897,127按适用税率计算的所得税 229,275,027 217,474,282非应纳税收入涉及的所得税费用调整额 (294,273) (441,994)不得扣除的成本、费用和损失涉及的所得税费用调整额 112,836 54,741税率差异的影响 9,216 281,022当期未确认递延所得税资产的可抵扣亏损 36,865 1,124,089其他 - (2,617,652)所得税费用 229,139,671 215,874,488中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)41 每股收益(1) 基本每股收益基本每股收益以归属于母公司普通股股东的合并净利润除以母公司发行在外普通股的加权平均数计算:2024 年 1 至 6 月 2023 年 1 至 6 月归属于母公司普通股股东的合并净利润 687,537,223 653,651,170本公司发行在外普通股的加权平均数 1,007,282,534 1,007,282,534基本每股收益 0.68 0.65其中:— 持续经营基本每股收益: 0.68 0.65— 终止经营基本每股收益: - -(2) 稀释每股收益稀释每股收益以根据稀释性潜在普通股调整后的归属于母公司普通股股东的合并净利润除以调整后的本公司发行在外普通股的加权平均数计算。2024 年 1 至 6月,本公司不存在具有稀释性的潜在普通股(2023 年 1 至 6 月:不存在),因此,稀释每股收益等于基本每股收益。\n42 现金流量表项目注释(1) 收到的其他与经营活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月利息收入 21,033,279 5,074,023保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749租赁押金(i) - 969,319其他 6,033,470 6,548,135合计 45,091,814 20,897,287中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)42 现金流量表项目注释(续)(1) 收到的其他与经营活动有关的现金(续)(i) 2024 年 1 至 6 月,本集团实际收到租赁押金 25,452,903 元,支付租赁押金26,496,022 元,净支付租赁押金 1,043,119 元(2023 年 1 至 6 月:收到租赁押金20,732,626 元,支付租赁押金 19,763,307 元,净收到租赁押金 969,319 元)。\n(2) 支付的其他与经营活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月水电采暖费 56,112,195 51,101,506广告宣传费 22,754,073 40,494,713保险费 5,770,956 5,536,730租金 1,252,681 1,301,188租赁押金(附注四.42(1)(i)) 1,043,119 -其他 27,348,375 22,728,332合计 114,281,399 121,162,469(3) 支付的其他与筹资活动有关的现金2024 年 1 至 6 月 2023 年 1 至 6 月偿还租赁负债支付的金额 1,203,884 1,203,8842024 年 1 至 6 月,本集团支付的与作为承租人租赁相关的总现金流出为2,456,565 元(2023 年 1 至 6 月:2,505,072 元),除计入筹资活动的偿付租赁负债支付的金额以外,其余现金流出均计入经营活动。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)43 现金流量表补充资料(1) 将净利润调节为经营活动现金流量2024 年 1 至 6 月 2023 年 1 至 6 月净利润 687,960,436 654,022,639加:投资性房地产折旧(附注四.8) 170,454,149 176,373,646固定资产折旧(附注四.9) 47,846,841 48,825,698无形资产摊销(附注四.11) 7,729,457 7,729,457长期待摊费用摊销(附注四.12) 3,649,944 3,677,472使用权资产折旧(附注四.10) 1,801,654 1,801,654处置非流动资产净损失/(收益)(附注四.38、39) 815,142 1,438,618财务费用/(收入)(附注四.33) 28,825, 10月 14 12:47:34 gpu ollama[24746]: 210 40,904,785投资(收益)/损失(附注四.37) (1,177,093) (1,767,975)递延所得税资产减少/(增加)(附注四.13) 397,078 1,899,031存货的减少/(增加)(附注四.5) 329,316 1,357,482信用减值损失(附注四.35) 28,332 (149,374)受限资金的减少/(增加) 13,771,165 20,165,655经营性应收项目的减少/(增加) 20,904,271 75,426,863经营性应付项目的(减少)/增加 (40,912,808) (39,068,402)经营活动产生的现金流量净额 942,423,094 992,637,249(2) 现金及现金等价物净变动情况2024 年 1 至 6 月 2023 年 1 至 6 月现金的期末余额 3,425,888,471 3,550,484,636减:现金的期初余额 (3,890,169,116) (3,326,552,300)加:现金等价物的期末余额 - -减:现金等价物的期初余额 - -现金及现金等价物的净(减少)/增加额 (464,280,645) 223,932,336中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)四 合并财务报表项目附注(续)43 现金流量表补充资料(续)(3) 筹资活动产生的各项负债的变动情况长期借款(含一年内到期)(附注四.23)应付债券(含一年内到期)(附注四.22)租赁负债(含一年内到期)(附注四.24)应付股利 合计2023 年 12 月 31 日 1,136,240,417 443,190,003 40,903,391 - 1,620,333,811本期计提的利息/股利 21,659,083 6,379,998 787,784 1,309,467,294 1,338,294,159筹资活动产生的现金流出 (71,724,084) - (1,203,884) (1,309,467,294) (1,382,395,262)其中:偿还本金 (50,000,000) - - - (50,000,000)支付租金 - - (1,203,884) - (1,203,884)偿还利息 (21,724,084) - - - (21,724,084)支付股利 - - - (1,309,467,294) (1,309,467,294)2024 年 6 月 30 日 1,086,175,416 449,570,001 40,487,291 - 1,576,232,708(4) 现金及现金等价物2024 年 6 月 30 日 2023 年 12 月 31 日期/年末货币资金余额(附注四.1) 3,612,151,002 4,088,660,385其中:库存现金 771,466 885,944银行存款 3,555,200,837 4,033,138,169应收利息 56,178,699 54,636,272减:受到限制的货币资金(附注四.1) 130,083,832 143,854,997应收利息 56,178,699 54,636,272期/年末现金及现金等价物余额 3,425,888,471 3,890,169,11644 外币货币性项目2024 年 6 月 30 日外币余额 折算汇率 人民币余额货币资金—美元 723,230 7.1268 5,154,316欧元 322 7.6617 2,467其他应付款—美元 802,437 7.1268 5,718,808港币 220,000 0.9127 200,794欧元 36,580 7.6617 280,265英镑 29,762 9.0430 269,138上述外币货币性项目指除人民币之外的所有货币。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)五 在其他主体中的权益1 在子公司中的权益(1) 企业集团的构成子公司名称 主要经营地 注册地 注册资本 业务性质 持股比例 取得方式直接 间接国贸物业酒店管理有限公司 北京 北京人民币3000 万 服务业 95% - 直接持有北京国贸国际会展有限公司 北京 北京人民币1000 万 服务业 - 95% 间接持有2 在联营企业中的权益(1) 不重要的联营企业的汇总信息2024 年 1 至 6 月 2023 年 1 至 6 月联营企业时代网星投资账面价值合计 20,891,146 24,538,713按持股比例计算的净利润 725,751 1,549,010力创智慧投资账面价值合计 874,791 768,203按持股比例计算的净利润 109,050 (7,277)北京昌发展投资账面价值合计 2,953,266 2,121,392按持股比例计算的净利润 342,292 226,242首程国贸投资账面价值合计 2,000,000 -按持股比例计算的净利润 - -合计投资账面价值合计 26,719,203 27,428,308按持股比例计算的净利润 1,177,093 1,767,975中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)六 分部信息本集团的报告分部是提供不同服务的业务单元。由于各种业务需要不同的技术和市场战略,因此,本集团分别独立管理各个报告分部的生产经营活动,分别评价其经营成果,以决定向其配置资源并评价其业绩。\n本集团有 2 个报告分部,分别为:- 租赁及物业管理分部,负责提供物业出租、物业管理服务及会展服务- 酒店经营分部,负责提供客房、餐饮等服务分部间转移价格参照向第三方销售所采用的价格确定。资产及负债按照分部进行分配,间接归属于各分部的费用按照受益比例在分部之间进行分配。\n(1) 2024 年 1 至 6 月及 2024 年 6 月 30 日分部信息列示如下:租赁及物业管理业务 酒店经营未分配的金额分部间的抵销 合计对外交易收入 1,709,030,499 256,263,022 - - 1,965,293,521分部间交易收入 2,059,878 4,187,445 - (6,247,323) -主营业务成本 (533,033,970) (235,769,751) - - (768,803,721)利息收入 22,361,607 214,099 - - 22,575,706利息费用 - - (28,826,865) - (28,826,865)对联营企业的投资收益 - - 1,177,093 - 1,177,093折旧费和摊销费 (179,723,132) (51,758,913) - - (231,482,045)利润总额 945,909,574 (1,159,695) (27,649,772) - 917,100,107所得税费用 - - (229,139,671) - (229,139,671)净利润 945,909,574 (1,159,695) (256,789,443) - 687,960,436资产总额 10,197,061,326 1,877,256,344 93,038,252 - 12,167,355,922负债总额 1,300,281,045 95,925,031 1,688,672,716 - 3,084,878,792对联营企业的长期股权投资 - - 26,719,203 - 26,719,203非流动资产增加额(i) 20,311,781 3,092,259 - - 23,404,040(i) 非流动资产不包括长期股权投资和递延所得税资产。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)六 分部信息(续)(2) 2023 年 1 至 6 月及 2023 年 6 月 30 日分部信息列示如下:租赁及物业管理业务 酒店经营 未分配的金额分部间的抵销 合计对外交易收入 1,666,402,278 271,961,862 - - 1,938,364,140分部间交易收入 1,842,491 3,411,616 - (5,254,107) -主营业务成本 (518,526,122) (251,494,757) - - (770,020,879)利息收入 16,829,724 244,299 - - 17,074,023利息费用 - - (40,499,642) - (40,499,642)对联营企业的投资收益 - - 1,767,975 - 1,767,975使用权资产折旧费 (1,801,654) - - - (1,801,654)折旧费和摊销费 (183,871,459) (52,734,814) - - (236,606,273)利润/(亏损)总额 904,979,046 3,649,748 (38,731,667) - 869,897,127所得税费用 - - (215,874,488) - (215,874,488)净利润 904,979,046 3,649,748 (254,606,155) - 654,022,639资产总额 10,680,671,485 1,962,000,318 94,542,239 - 12,737,214,042负债总额 (1,267,927,182) (102,496,997) (2,268,886,633) - (3,639,310,812)对联营企业的长期股权投资 - - 27,428,308 - 27,428,308非流动资产增加额(i) 23,366,594 1,525,911 - - 24,892,505(i) 非流动资产不包括长期股权投资和递延所得税资产。\n七 关联方关系及其交易1 母公司情况(1) 母公司基本情况注册地 业务性质国贸有限公司 北京 服务业本公司的最终控制方为国贸有限公司。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)1 母公司情况(续)(2) 母公司注册资本及其变化2023 年12 月 31 日本期增加本期减少2024 年6 月 30 日国贸有限公司 240,000,000 美元 - - 240,000,000 美元(3) 母公司对本公司的持股比例和表决权比例2024 年 6 月 30 日 2023 年 12 月 31 日持股比例 表决权比例 持股比例 表决权比例国贸有限公司 80.65% 80.65% 80.65% 80.65%2 子公司情况子公司的基本情况及相关信息见附注五.1。\n3 联营企业情况联营企业的基本情况及相关信息见附注五.2。\n4 其他关联方情况与本集团的关系中国世贸投资有限公司 母公司的中方投资者嘉里兴业有限公司 母公司的外方投资者香格里拉国际饭店管理有限公司(以下称“香格里拉”)母公司的外方投资者之关联公司香格里拉饭店管理(上海)有限公司北京分公司(以下称“香格里拉北京”)母公司的外方投资者之关联公司中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 63 -七 关联方关系及其交易(续)5 关联交易(1) 购销商品、提供和接受劳务本公司与关联方的交易价格以市场价为基础,由双方协商确定,经本公司董事会或股东大会批准后签订相关合同。本公司董事会认为与关联方的交易均符合正常的商业条款。\n接受劳务和服务关联方 关联交易类型 关联交易内容 2024 年 1 至 6 月 2023 年 1 至 6 月金额 金额国贸有限公司 接受劳务 支付餐饮费及会员费 1,199,036 906,827国贸有限公司 接受劳务 支付劳务费 3,222,808 3,317,866国贸有限公司 接受劳务 支付公关管理及工会行政费等 4,001,239 2,751,966国贸有限公司 接受劳务支付酒店营运物资、食品加工费、洗衣费等 2,518,468 1,854,990国贸有限公司 接受劳务 支付蒸汽费、热水费及电费等 3,500,025 3,975,901香格里拉 接受劳务 支付管理费用 6,599,222 6,843,470中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 64 -七 关联方关系及其交易(续)5 关联交易(续)(1) 购销商品、提供和接受劳务(续)提供劳务关联方 关联交易类型 关联交易内容 2024 年 1 至 6 月 2023 年 1 至 6 月金额 金额国贸有限公司 提供劳务收取管理国贸二期销售佣金及管理酬金 1,719,417 1,129,290国贸有限公司 提供劳务 收取国贸西写字楼委托管理费 663,673 909,522国贸有限公司 提供劳务 收取国贸东楼商城委托管理费 2,202,016 1,735,572国贸有限公司 提供劳务收取国贸中心 19#楼委托经营管理费 292,035 292,035国贸有限公司 提供劳务收取维修保养费、清洁及绿化费 9,673,361 9,858,447国贸有限公司 提供劳务 收取国贸一期 F 区域委托管理费 109,923 109,923国贸有限公司 提供劳务收取“ 美丽田园 ”区域委托管理费 926,092 926,092国贸有限公司 提供劳务 收取劳务费及服务费 9,092,011 7,203,839国贸有限公司 提供劳务 收取物业工程管理服务费 1,186,636 1,186,636国贸有限公司 提供劳务 收取信息系统维护费 1,165,988 716,502中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 65 -七 关联方关系及其交易(续)5 关联交易(续)(2) 租赁本集团作为出租方:承租方名称 租赁资产种类2024 年 1 至 6 月确认的租赁收入2023 年 1 至 6 月确认的租赁收入国贸有限公司 办公用房 2,266,221 2,444,709国贸有限公司 商铺 541,000 534,710香格里拉北京 办公用房 1,685,332 1,274,428本集团作为承租方:出租方名称 租赁资产种类2024 年 1 至 6 月确认的租赁费2023 年 1 至 6 月确认的租赁费国贸有限公司 公寓 794,109 941,775国贸有限公司 办公用房 152,163 152,163中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)5 关联交易(续)(2) 租赁(续)2024 年 1 至 6 月,本集团作为承租方不存在新增的使用权资产。\n本集团作为承租方当年承担的租赁负债利息支出:2024 年 1 至 6 月 2023 年 1 至 6 月国贸有限公司 787,784 854,089(3) 根据本公司与国贸有限公司于 1998 年 9 月 2 日所签订的《商标使用许可协议》,国贸有限公司允许本公司无偿使用其拥有的商标,许可期限为 6 年,从协议生效日起至 2004 年 9 月 1 日止。根据协议条款,协议届满前由于双方对该协议条款和条件没有异议,该协议将自动延续。\n(4) 关键管理人员薪酬2024 年 1 至 6 月 2023 年 1 至 6 月关键管理人员薪酬 16,539,572 15,120,357中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)七 关联方关系及其交易(续)6 关联方应付款项余额其他应付款 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 4,902,588 262,588香格里拉 3,129,279 3,002,170香格里拉北京 830,844 830,844合计 8,862,711 4,095,602租赁负债(附注四.24)(含一年内到期的非流动负债) 2024 年 6 月 30 日 2023 年 12 月 31 日国贸有限公司 40,487,291 40,903,391八 承诺事项1 资本性支出承诺事项以下为本集团于资产负债表日,已签约而尚不必在资产负债表上列示的资本性支出承诺:2024 年 6 月 30 日 2023 年 12 月 31 日房屋、建筑物及机器设备的购建 27,953,795 28,812,961中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)九 资产负债表日后经营租赁收款额本集团作为出租人,资产负债表日后应收的租赁收款额的未折现金额汇总如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 2,205,063,708 2,108,504,018一到二年 1,422,131,426 1,417,492,014二到三年 845,519,655 909,124,526三年以上 1,966,886,403 2,112,166,147合计 6,439,601,192 6,547,286,705十 金融风险本集团经营活动中面临的金融风险包括:市场风险(主要为外汇风险和利率风险)、信用风险和流动性风险。本集团整体的风险管理计划针对金融市场的不可预见性,力求减少对本集团财务业绩的潜在不利影响。\n1 市场风险(1) 外汇风险本集团的经营位于中国境内,业务主要以人民币结算。本集团已确认的外币资产和负债及未来的外币交易(外币资产和负债及外币交易的计价货币主要为美元)存在外汇风险。本集团总部财务部门负责监控集团外币交易和外币资产及负债的规模,以最大程度降低面临的外汇风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间,本集团未签署任何远期外汇合约或货币互换合约。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(1) 外汇风险(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团内记账本位币为人民币的公司持有的外币金融资产和外币金融负债折算成人民币的金额列示如下:2024 年 6 月 30 日美元项目 其他外币项目 合计外币金融资产-货币资金 5,154,316 2,467 5,156,783外币金融负债 -其他应付款 5,718,808 750,197 6,469,0052023 年 12 月 31 日美元项目 其他外币项目 合计外币金融资产-货币资金 4,773,527 2,531 4,776,058外币金融负债 -其他应付款 5,772,153 755,935 6,528,0882024 年 6 月 30 日,对于本集团各类美元金融资产和美元金融负债,如果人民币对美元升值或贬值 10%,其他因素保持不变,则本集团将增加或减少净利润约42,337 元(2023 年 12 月 31 日:增加或减少净利润约 74,897 元) 。\n(2) 利率风险本集团的利率风险主要产生于长期银行借款及应付债券等长期带息债务。浮动利率的金融负债使本集团面临现金流量支出增加的利率风险,固定利率的金融负债使本集团面临公允价值降低的利率风险。本集团一般根据市场环境决定固定利率及浮动利率合同的相对比例。2024 年 6 月 30 日,本集团长期带息债务主要为人民币计价挂钩的 LPR 的浮动利率借款,金额为 1,085,000,000 元以及以人民币计价的固定利率债券,金额为 440,000,000 元(2023 年 12 月 31 日:分别为1,135,000,000 元及 440,000,000 元)(附注四.23、22)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)1 市场风险(续)(2) 利率风险(续)由于利率上升会增加新增带息债务的成本以及本集团尚未付清的以浮动利率计息的带息债务的利息支出,并对本集团的财务业绩产生重大的不利影响,本集团会持续监控集团利率水平,并依据最新的市场状况及时做出调整,这些调整可能是进行利率互换的安排来降低利率风险。截至 2024 年 6 月 30 日 6 个月期间及截至 2023 年 6 月 30 日 6 个月期间本集团无利率互换安排。\n2024 年 6 月 30 日,如果以浮动利率计算的借款利率上升或下降 50 个基点,而其他因素保持不变,本集团的净利润会减少或增加约 4,068,750 元(2023 年 12月 31 日:约 4,256,250 元)。\n2 信用风险本集团信用风险主要产生于货币资金、应收账款及其他应收款等。于资产负债表日,本集团金融资产的账面价值已代表其最大信用风险敞口。\n本集团银行存款主要存放于国有银行和其他大中型商业银行,本集团认为其不存在重大的信用风险,不会产生因对方单位违约而导致的任何重大损失。\n此外,对于应收账款及其他应收款等,本集团设定相关政策以控制信用风险敞口。本集团基于对客户的财务状况、从第三方获取担保的可能性、信用记录及其他因素诸如目前市场状况等评估客户的信用资质并设置相应信用期。本集团会定期对客户信用记录进行监控,对于信用记录不良的客户,本集团会采用书面催款、缩短信用期或取消信用期等方式,以确保本集团的整体信用风险在可控的范围内。\n2024 年 6 月 30 日,本集团无重大的因债务人抵押而持有的担保物和其他信用增级(2023 年 12 月 31 日:无)。\n3 流动性风险本集团内子公司负责其自身的现金流量预测。总部财务部门在汇总子公司现金流量预测的基础上,在集团层面持续监控短期和长期的资金需求,以确保维持充裕的现金储备和可供随时变现的有价证券;同时持续监控是否符合借款协议的规定,并从主要金融机构获得提供足够备用资金的承诺,以满足短期和长期的资金需求。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十 金融风险(续)3 流动性风险(续)资产负债表日,本集团的金融负债以未折现的合同现金流量按到期日列示如下:2024 年 6 月 30 日一年以内 一到二年 二到五年 五年以上 合计应付账款 92,747,360 - - - 92,747,360其他应付款 1,112,682,011 - - - 1,112,682,011长期借款 42,315,000 42,315,000 126,945,000 1,342,416,250 1,553,991,250应付债券 452,760,000 - - - 452,760,000租赁负债 4,127,787 3,572,154 10,716,462 32,744,745 51,161,148合计 1,704,632,158 45,887,154 137,661,462 1,375,160,995 3,263,341,7692023 年 12 月 31 日一年以内 一到二年 二到五年 五年以上 合计应付账款 96,988,767 - - - 96,988,767其他应付款 1,130,882,781 - - - 1,130,882,781长期借款 94,265,000 44,265,000 132,795,000 1,376,411,250 1,647,736,250应付债券 452,760,003 - - - 452,760,003租赁负债 4,683,419 3,572,154 10,716,462 34,530,822 53,502,857合计 1,779,579,970 47,837,154 143,511,462 1,410,942,072 3,381,870,6584 公允价值估计本集团不以公允价值计量的金融资产和金融负债主要包括应收款项、其他应收款、应付款项、租赁负债、长期借款及应付债券。上述不以公允价值计量的金融资产和负债的账面价值与公允价值相差不大。\n本集团发行的不存在活跃市场的应付债券,以合同规定的未来现金流量按照市场上具有可比信用等级并在相同条件下提供几乎相同现金流量的利率进行折现后的现值确定其公允价值。\n十一 资本管理本集团资本管理政策的目标是为了保障本集团能够持续经营,从而为股东提供回报,并使其他利益相关者获益,同时维持最佳的资本结构以降低资本成本。\n本集团的总资本为合并资产负债表中所列示的股东权益。本集团不受制于外部强制性资本要求,利用资产负债率监控资本。\n2024 年 6 月 30 日及 2023 年 12 月 31 日,本集团的资产负债率列示如下﹕2024 年 6 月 30 日 2023 年 12 月 31 日资产负债率 25% 25%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注1 应收账款2024 年 6 月 30 日 2023 年 12 月 31 日应收账款 176,484,064 191,180,966减:坏账准备 (941,049) (941,049)净额 175,543,015 190,239,917(1) 应收账款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 175,543,015 190,239,917一到二年 - -二到三年 - -三年以上 941,049 941,049合计 176,484,064 191,180,966(2) 2024 年 6 月 30 日,按欠款方归集的余额前五名的应收账款汇总分析如下:余额 坏账准备金额占应收账款总额比例余额前五名的应收账款总额 6,774,614 - 3.84%(3) 坏账准备本公司对于应收账款,无论是否存在重大融资成分,均按照整个存续期的预期信用损失计量损失准备。\n应收账款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例 金额 占总额比例金额 计提比例单项计提坏账准备(a) 941,049 0.53% (941,049) 100.00% 941,049 0.49% (941,049) 100.00%按组合计提坏账准备(b) 175,543,015 99.47% - - 190,239,917 99.51% - -176,484,064 100.00% (941,049) 0.53% 191,180,966 100.00% (941,049) 0.49%中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)1 应收账款(续)(3) 坏账准备(续)(a) 2024 年 6 月 30 日,单项计提坏账准备的应收账款分析如下:账面余额整个存续期预期信用损失率 坏账准备应收酒店服务款(i) 941,049 100% (941,049)(i) 2024 年 6 月 30 日,应收纽银北京咨询有限公司酒店住宿及餐饮服务款 941,049元,经多次催收仍未收到,因此全额计提坏账准备(2023 年 12 月 31 日:941,049 元)。\n(b) 2024 年 6 月 30 日,组合计提坏账准备的应收账款分析如下:组合 — 应收物业租赁款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 141,249,119 - - 154,691,090 - -逾期 90 日以内 18,313,622 - - 17,126,232 - -逾期 90-180 日 640,991 - - 680,303 - -逾期 180-365 天 147,429 - - - - -合计 160,351,161 - 172,497,625 -组合 —应收酒店服务款:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额整个存续期预期信用损失率 金额 金额整个存续期预期信用损失率 金额未逾期 15,191,854 - - 17,742,292 - -(4) 本期间无计提、收回或转回的坏账准备。\n(5) 本期间本公司无实际核销的应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款2024 年 6 月 30 日 2023 年 12 月 31 日应收代垫款项 2,048,578 4,312,402应收备用金 806,282 -应收押金和保证金 687,580 761,880应收其他款项 925,074 918,948合计 4,467,514 5,993,230减:坏账准备 - -净额 4,467,514 5,993,230本公司不存在因资金集中管理而将款项归集于其他方并列报于其他应收款的情况。\n(1) 其他应收款账龄分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日一年以内 3,323,427 4,776,054一到二年 4,911 278,000二到三年 200,000 14,652三年以上(附注四 4(1)) 939,176 924,524合计 4,467,514 5,993,230(2) 损失准备及其账面余额变动表其他应收款的坏账准备按类别分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额 坏账准备 账面余额 坏账准备金额 占总额比例金额 计提比例金额 占总额比例金额 计提比例按组合计提坏账准备 4,467,514 100% - - 5,993,230 100% - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)2 其他应收款(续)(2) 损失准备及其账面余额变动表(续)2024 年 6 月 30 日及 2023 年 12 月 31 日,本公司不存在处于第二阶段和第三阶段的其他应收款。组合计提坏账准备的其他应收款均处于第一阶段,分析如下:2024 年 6 月 30 日 2023 年 12 月 31 日账面余额未来 12 个月内预期信用损失 账面余额未来 12 个月内预期信用损失金额 金额 计提比例 金额 金额 计提比例代垫款:一年以内 2,048,578 - - 4,312,402 - -备用金:一年以内 806,282 - - - - -押金和保证金:一年以内 687,580 - - 761,880 - -其他款项:一年以内 925,074 - - 918,948 - -合计 4,467,514 - - 5,993,230 - -(3) 2024 年 6 月 30 日,按欠款方归集的余额前五名的其他应收款汇总分析如下:公司名称 性质 余额 账龄占其他应收款余额总额比例坏账准备第一名 应收代垫款 687,555 一年以内 15.39% -第二名 应收其他款 622,224 三年以上 13.93% -第三名 应收代垫款 434,569 一年以内 9.73% -第四名 应收押金 399,642 一年以内 8.94% -第五名 应收代垫款 389,156 一年以内 8.71% -合计 2,533,146 56.70% -(4) 本期间无计提、收回或转回的坏账准备。\n(5) 本期间本公司无实际核销的其他应收账款(2023 年 1 至 6 月:无)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)3 长期股权投资2024 年 6 月 30 日 2023 年 12 月 31 日子公司(1) 9,500,000 9,500,000联营企业(附注五.2) 20,891,146 26,045,395减:长期股权投资减值准备 - -净额 30,391,146 35,545,395本公司不存在长期投资变现的重大限制。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)- 77 -十二 公司财务报表附注(续)3 长期股权投资(续)(1) 子公司2023 年12 月 31 日 追加或减少投资2024 年6 月 30 日持股比例表决权比例 减值准备本期计提减值准备本期宣告分派的现金股利国贸物业酒店管理有限公司 9,500,000 - 9,500,000 95% 95% - - -中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)4 营业收入和营业成本(1) 主营业务收入和主营业务成本2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 1,809,562,667 1,804,419,444主营业务成本 623,801,568 642,110,612本公司主要业务为对外提供物业租赁服务及酒店经营,与上述业务相关的收入均来自北京。因此本公司无需按产品或按地区对于主营业务收入和主营业务成本进行分析。\n(2) 按收入类型分析如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入 主营业务成本 主营业务收入 主营业务成本物业租赁及管理 1,553,056,071 388,026,407 1,532,157,678 390,612,610酒店经营 256,506,596 235,775,161 272,261,766 251,498,002合计 1,809,562,667 623,801,568 1,804,419,444 642,110,612本公司营业收入分解如下:2024 年 1 至 6 月 2023 年 1 至 6 月主营业务收入租赁业务 1,357,967,900 1,339,088,484按时点确认其中:酒店餐饮业务 97,252,896 115,775,980按时段内确认其中:物业管理服务 195,088,171 193,069,194酒店客房及其他配套服务 159,253,700 156,485,7861,809,562,667 1,804,419,444包括在 2023 年 12 月 31 日账面价值中的 28,260,639 元合同负债已于 2024 年 1至 6 月转入营业收入(2023 年 1 至 6 月:49,743,804 元)。中国国际贸易中心股份有限公司财务报表附注截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)十二 公司财务报表附注(续)5 投资收益2024 年 1 至 6 月 2023 年 1 至 6 月权益法核算的长期股权投资收益 725,751 1,549,010处置长期股权投资产生的投资损失 - (9,684,300)合计 725,751 (8,135,290)本公司不存在投资收益汇回的重大限制。中国国际贸易中心股份有限公司财务报表补充资料截至 2024 年 6 月 30 日 6 个月期间(除特别注明外,金额单位为人民币元)一 2024 年 1 至 6 月非经常性损益明细表2024 年 1 至 6 月 2023 年 1 至 6 月保险理赔收入 16,272,954 -租户违约罚款收入 1,282,587 7,411,061政府补助 469,524 894,749不需支付的应付款项 104,714 1,630,126处置非流动资产净损失 (815,142) (1,438,618)赞助捐赠支出 (88,000) (273,000)除上述各项之外的其他营业外收入和支出 15,448 (32,119)非经常性损益合计 17,242,085 8,192,199所得税影响额 (4,310,521) (2,048,050)少数股东权益影响额(税后) (5,454) (3,196)非经常性损益净额 12,926,110 6,140,953(1) 2024 年 1 至 6 月非经常性损益明细表编制基础:中国证券监督管理委员会于 2023 年颁布了《公开发行证券的公司信息披露解释性公告第 1 号——非经常性损益(2023 年修订)》(以下简称“2023 版 1 号解释性公告”),该规定自公布之日起施行。本集团按照 2023 版 1 号解释性公告的规定编制2024 年 1 至 6 月非经常性损益明细表。\n根据 2023 版 1 号解释性公告的规定,非经常性损益是指与公司正常经营业务无直接关系,以及虽与正常经营业务相关,但由于其性质特殊和偶发性,影响报表使用人对公司经营业绩和盈利能力作出正确判断的各项交易和事项产生的损益。\n二 净资产收益率及每股收益加权平均 每股收益净资产收益率(%) 基本每股收益 稀释每股收益2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月2024 年1 至 6 月2023 年1 至 6 月归属于公司普通股股东的净利润 7.16% 7.08% 0.68 0.65 0.68 0.65扣除非经常性损益后归属于公司普通股股东的净利润 7.02% 7.01% 0.67 0.64 0.67 0.64\n</Content>\n</Reference>\n<|user|>\nsummarize the content<|assistant|>\n" ``` Here is the testing by using llama3.1:8b [ollama-6.log](https://github.com/user-attachments/files/17359977/ollama-6.log)
Author
Owner

@rick-github commented on GitHub (Oct 15, 2024):

You have OLLAMA_NUM_PARALLEL unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with OLLAMA_NUM_PARALLEL=4. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with OLLAMA_NUM_PARALLEL=1, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU.

Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available).

<!-- gh-comment-id:2415182486 --> @rick-github commented on GitHub (Oct 15, 2024): You have `OLLAMA_NUM_PARALLEL` unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with `OLLAMA_NUM_PARALLEL=4`. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with `OLLAMA_NUM_PARALLEL=1`, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU. Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available).
Author
Owner

@goactiongo commented on GitHub (Oct 16, 2024):

Thank you for your response. I understand your explanation. According to your explanation, both models eventually ran successfully, but why didn't either model output the results as instructed?

Could you please take another look at the log files to see if there are any other errors that might be preventing the output results?

---Original---
From: @.>
Date: Wed, Oct 16, 2024 05:16 AM
To: @.
>;
Cc: @.@.>;
Subject: Re: [ollama/ollama] Unable to recognize the long text content. (Issue#7146)

You have OLLAMA_NUM_PARALLEL unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with OLLAMA_NUM_PARALLEL=4. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with OLLAMA_NUM_PARALLEL=1, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU.

Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available).


Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you authored the thread.Message ID: @.***>

<!-- gh-comment-id:2415696071 --> @goactiongo commented on GitHub (Oct 16, 2024): Thank you for your response. I understand your explanation. According to your explanation, both models eventually ran successfully, but why didn't either model output the results as instructed? Could you please take another look at the log files to see if there are any other errors that might be preventing the output results? ---Original--- From: ***@***.***&gt; Date: Wed, Oct 16, 2024 05:16 AM To: ***@***.***&gt;; Cc: ***@***.******@***.***&gt;; Subject: Re: [ollama/ollama] Unable to recognize the long text content. (Issue#7146) You have OLLAMA_NUM_PARALLEL unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with OLLAMA_NUM_PARALLEL=4. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with OLLAMA_NUM_PARALLEL=1, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU. Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available). — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: ***@***.***&gt;
Author
Owner

@goactiongo commented on GitHub (Oct 16, 2024):

I have found the root cause of the problem. The reason for the unsuccessful output was that the connect_time and other parameters were not set in nginx. The issue is now resolved. Thank you very much for your help, I really appreciate it.

<!-- gh-comment-id:2415757489 --> @goactiongo commented on GitHub (Oct 16, 2024): I have found the root cause of the problem. The reason for the unsuccessful output was that the connect_time and other parameters were not set in nginx. The issue is now resolved. Thank you very much for your help, I really appreciate it.
Author
Owner

@goactiongo commented on GitHub (Oct 16, 2024):

You have OLLAMA_NUM_PARALLEL unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with OLLAMA_NUM_PARALLEL=4. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with OLLAMA_NUM_PARALLEL=1, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU.

Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available).

Thank you for your guidance, my problem has been resolved.

One more question:
Does OLLAMA_NUM_PARALLEL=4 mean that a model can only run on one GPU card? Even though a single GPU card does not have enough resources to run 4 parallel processes, can the 4 parallel processes be distributed across multiple GPU cards?

<!-- gh-comment-id:2417001506 --> @goactiongo commented on GitHub (Oct 16, 2024): > You have `OLLAMA_NUM_PARALLEL` unset. In ollama-5.log, you set a context size of 96001. Since you have lots of VRAM, ollama first tries to load the model with `OLLAMA_NUM_PARALLEL=4`. That is, it needs to find a GPU where it can load the model weights (7.5G), the memory graph (6.1G) and 4 content windows (3.7G * 4), which with some optimization comes to 24.6G. If tries each of your GPUs with this configuration, and each one fails because none of them have enough free VRAM. ollama then retries with `OLLAMA_NUM_PARALLEL=1`, reducing the VRAM required to 15.1G. The first GPU as 23.3G free, so ollama loads the model on this GPU. > > Same story in ollama-6.log, but here you have a smaller context of 64001 and a different model so a different amount of VRAM required, 17G. If fails to fit in the first three models (available VRAM 16.8G, 9.7G, 7.0G) but fits in the last one (23.3G available). Thank you for your guidance, my problem has been resolved. One more question: Does OLLAMA_NUM_PARALLEL=4 mean that a model can only run on one GPU card? Even though a single GPU card does not have enough resources to run 4 parallel processes, can the 4 parallel processes be distributed across multiple GPU cards?
Author
Owner

@rick-github commented on GitHub (Oct 16, 2024):

You can set OLLAMA_SCHED_SPREAD=1 to have ollama divide the model across all cards. Theoretically this will allow each of the GPUs to work on a different completion at the same time. In practice, the scheduling will vary depending on the input tokens, the probabilistic token generation, and whatever other models are running on the GPU. My suspicion is that you would see a performance improvement, but not 4x. If you wanted to maximize performance, it might be better to run multiple servers as described here. You could move all of the other models on to one or two servers and then have the remaining servers dedicated to the summarization tasks (depending on context size, model, etc).

<!-- gh-comment-id:2417116275 --> @rick-github commented on GitHub (Oct 16, 2024): You can set `OLLAMA_SCHED_SPREAD=1` to have ollama divide the model across all cards. Theoretically this will allow each of the GPUs to work on a different completion at the same time. In practice, the scheduling will vary depending on the input tokens, the probabilistic token generation, and whatever other models are running on the GPU. My suspicion is that you would see a performance improvement, but not 4x. If you wanted to maximize performance, it might be better to run multiple servers as described [here](https://github.com/ollama/ollama/issues/7206#issuecomment-2413928300). You could move all of the other models on to one or two servers and then have the remaining servers dedicated to the summarization tasks (depending on context size, model, etc).
Author
Owner

@goactiongo commented on GitHub (Oct 19, 2024):

Thank you for your reply. I have conducted the following two tests, and I am unsure how to handle some issues, so I need your further assistance.

1. Overall Situation Description

1.1 In the same process, three models are sequentially called through the API interface to handle the content summarization task. The models include llama3.1:8b, glm4:9b, llama3.2:latest, and each model has the following parameters set:

"num_ctx": 121000,
"num_predict": 9000

1.2. If the environment variable Environment="OLLAMA_SCHED_SPREAD=1" is not set, all three models will run successfully in sequence, but the inference time is relatively long.

Log file ollama2.log
ollama2.log

1.3. After setting Environment="OLLAMA_SCHED_SPREAD=1".

In order to improve the inference efficiency of the three models and to fully utilize four GPU cards for concurrent processing, I set the environment variable Environment="OLLAMA_SCHED_SPREAD=1" as you instructed. However, after multiple tests, the first model runs successfully every time, the second model fails almost every time, and the third model sometimes succeeds and sometimes fails.
Log file ollama1.log
ollama1.log

1.4. In the ollama1.log log, the first model succeeds, and the second and third both fail.

Model 2 API Error Log as followed

{"message":"Request failed with status code 500","data":{"error":"llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'"}}

Model 3 API Error Log as followed

{"message":"Request failed with status code 500","data":{"error":"an unknown error was encountered while running the model CUDA error: out of memory\n current device: 3, in function alloc at /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:376\n cuMemCreate(&handle, reservesize, &prop, 0)\n/go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:102: CUDA error"}}

1.5 Analysis of ollama1.log log

According to your previous instructions, I interpreted the log information in ollama1.log and conducted an analysis. There are some areas where I do not understand or may have misunderstood, and I hope for your assistance.

Note: The following analysis and most of the logs are from ollama1.log. Only in sections 4.5.1 and 5.5 did I compare the relevant information from ollama2.log

2. Four GPU cards, the available resources are 23.3 GiB, 23.3 GiB, 16.8 GiB, 9.7 GiB, as follows,

October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]"

3. First Model: llama3.1:8b

3.1 By default, OLLAMA_NUM_PARALLEL=4, the required resources are partial_offload="32.3 GiB" full_offload="32.3 GiB", but none of the GPU cards can meet this requirement. As follows,

October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB"
October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB"
October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB"
October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB"
October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.630+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"

3.2 From the following log, it can be observed that OLLAMA automatically sets parallel=1, and the required resources are required="55.3 GiB" (I do not understand why the required resources are 55.3G at this time, which is greater than the 32.3G shown in 3.1? Additionally, does the parallel=1 in the following log indicate that the four concurrent processes have been reduced to one, and since it has been reduced to parallel=1, why does it require more resources), as follows

October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.630+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe library=cuda parallel=1 required="55.3 GiB"

3.3 The model runs on four GPU cards. As follows.

Question: If Environment="OLLAMA_SCHED_SPREAD=1" is not set, why does this model still run on four GPU cards (which does not meet my expectation), while the other two models only run on one GPU card (which meets the expectation), and for this part, you can refer to the log file ollama2.log

October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.632+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=33 layers.offload=33 layers.split=10,11,11,1 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="55.3 GiB" memory.required.partial="55.3 GiB" memory.required.kv="14.8 GiB" memory.required.allocations="[14.9 GiB 15.5 GiB 15.3 GiB 9.7 GiB]" memory.weights.total="18.4 GiB" memory.weights.repeating="18.0 GiB" memory.weights.nonrepeating="411.0 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.1 GiB"

3.4 The first model works normally, as follows:

October 19 22:19:34 gpu ollama[60399]: DEBUG [launch_slot_with_data] slot is processing task | slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574
October 19 22:19:34 gpu ollama[60399]: DEBUG [update_slots] slot progression | ga_i=0 n_past=0 n_past_se=0 n_prompt_tokens_processed=58174 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574
October 19 22:19:34 gpu ollama[60399]: DEBUG [update_slots] kv cache rm [p0, end) | p0=0 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574
October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings] prompt eval time     =   44130.26 ms / 58174 tokens (    0.76 ms per token,  1318.23 tokens per second) | n_prompt_tokens_processed=58174 n_tokens_second=1318.2337027993692 slot_id=0 t_prompt_processing=44130.263 t_token=0.7585908309554096 task_id=2 tid="139958483587072" timestamp=1729347665
October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings] generation eval time =   47231.63 ms /   640 runs   (   73.80 ms per token,    13.55 tokens per second) | n_decoded=640 n_tokens_second=13.55024251017226 slot_id=0 t_token=73.7994171875 t_token_generation=47231.627 task_id=2 tid="139958483587072" timestamp=1729347665
October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings]           total time =   91361.89 ms | slot_id=0 t_prompt_processing=44130.263 t_token_generation=47231.627 t_total=91361.89 task_id=2 tid="139958483587072" timestamp=1729347665
October 19 22:21:05 gpu ollama[60399]: DEBUG [update_slots] slot released | n_cache_tokens=58814 n_ctx=121024 n_past=58813 n_system_tokens=0 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347665 truncated=false
October 19 22:21:05 gpu ollama[60399]: DEBUG [log_server_request] request | method="POST" params={} path="/completion" remote_addr="127.0.0.1" remote_port=55272 status=200 tid="139956475393792" timestamp=1729347665
October 19 22:21:05 gpu ollama[60399]: DEBUG [process_single_task] slot data | n_idle_slots=1 n_processing_slots=0 task_id=645 tid="139958483587072" timestamp=1729347665
October 19 22:21:06 gpu ollama[60399]: DEBUG [log_server_request] request | method="POST" params={} path="/tokenize" remote_addr="127.0.0.1" remote_port=55274 status=200 tid="139956467001088" timestamp=1729347666
October 19 22:21:06 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:06 | 200 |         1m38s |    172.16.1.219 | POST     "/api/generate"

4. Second Model: glm4:9b

4.1 After the first model ends, perhaps because the GPU resources have not been completely released at this time (I am not sure if this is the reason), the available resources of each GPU cannot meet the model's needs of partial_offload="30.9 GiB" full_offload="30.9 GiB". As follows,

10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.897+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[8.8 GiB 7.1 GiB 6.5 GiB 16.1 MiB]"
10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="8.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="7.1 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="6.5 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.1 MiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"

4.2 Next, I noticed 'resetting model to expire immediately to make room’

October 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.899+08:00 level=DEBUG source=sched.go:283 msg="resetting model to expire immediately to make room" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe refCount=0

4.3 Then, I noticed the llama server stopped and regained GPU resources (consistent with the initial available resources).

October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.039+08:00 level=DEBUG source=server.go:1044 msg="stopping llama server"
October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.039+08:00 level=DEBUG source=server.go:1050 msg="waiting for llama server to exit"
October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.290+08:00 level=DEBUG source=gpu.go:358 msg="updating system memory data" before.total="125.4 GiB" before.free="108.2 GiB" before.free_swap="3.7 GiB" now.total="125.4 GiB" now.free="108.5 GiB" now.free_swap="3.7 GiB"
October 19 22:21:09 gpu ollama[60399]: CUDA driver version: 12.2
October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.002+08:00 level=DEBUG source=server.go:1054 msg="llama server stopped"
October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.003+08:00 level=DEBUG source=sched.go:380 msg="runner released" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe
October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.220+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="8.8 GiB" now.total="23.5 GiB" now.free="9.7 GiB" now.used="13.8 GiB"
October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.510+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="16.1 MiB" now.total="23.5 GiB" now.free="16.8 GiB" now.used="6.7 GiB"
October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.778+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="7.1 GiB" now.total="23.5 GiB" now.free="23.3 GiB" now.used="232.9 MiB"
October 19 22:21:11 gpu ollama[60399]: time=2024-10-19T22:21:11.017+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="6.5 GiB" now.total="23.5 GiB" now.free="23.3 GiB" now.used="232.9 MiB"

4.4 However, the available resources of each GPU card still cannot meet the needs of the second model.

Question: Is OLLAMA_NUM_PARALLEL still set to 4 at this time?

10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.112+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]"
10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB"
10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"

4.5 Then the model uses four GPU cards to run, and the available resources memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" can meet the memory.required.full="43.1 GiB". As follows,

Question: At this time, OLLAMA_NUM_PARALLEL=4, why doesn't it automatically set OLLAMA_NUM_PARALLEL=1 like the first model? And assess whether any one of the GPU cards can meet the resources required by OLLAMA_NUM_PARALLEL=1?

October 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.114+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split=12,12,12,5 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="43.1 GiB" memory.required.partial="43.1 GiB" memory.required.kv="4.6 GiB" memory.required.allocations="[11.1 GiB 11.3 GiB 11.1 GiB 9.5 GiB]" memory.weights.total="8.9 GiB" memory.weights.repeating="8.4 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="7.8 GiB" memory.graph.partial="7.8 GiB"

4.5.1 The following information is from ollama2.log, and it can be observed that when OLLAMA_SCHED_SPREAD=1 is not set, this model eventually runs on one of the GPU cards and ultimately succeeds. (Different from 4.5 and 4.6 above).

10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.306+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[16.8 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[9.7 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 parallel=1 available=24986779648 required="17.7 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.8 GiB" free_swap="3.7 GiB"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" memory.required.full="17.7 GiB" memory.required.partial="17.7 GiB" memory.required.kv="4.6 GiB" memory.required.allocations="[17.7 GiB]" memory.weights.total="8.9 GiB" memory.weights.repeating="8.4 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="7.6 GiB" memory.graph.partial="7.8 GiB"

4.6 Next, I saw the OOM error message in the logs.

I don't understand why these errors occurred, allocating 8574.52 MiB on device 3: cudaMalloc failed: out of memory. From the above logs, it seems that the available resources on device 3 should be sufficient.

10月 19 22:21:15 gpu ollama[60399]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4)
10月 19 22:21:15 gpu ollama[60399]: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 8574.52 MiB on device 3: cudaMalloc failed: out of memory
10月 19 22:21:15 gpu ollama[60399]: ggml_gallocr_reserve_n: failed to allocate CUDA3 buffer of size 8991031296
10月 19 22:21:15 gpu ollama[60399]: llama_new_context_with_model: failed to allocate compute buffers
10月 19 22:21:16 gpu ollama[60399]: llama_init_from_gpt_params: error: failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'
10月 19 22:21:16 gpu ollama[60399]: ERROR [load_model] unable to load model | model="/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449" tid="140035751489536" timestamp=1729347676
10月 19 22:21:16 gpu ollama[60399]: terminate called without an active exception
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.326+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error"
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.515+08:00 level=DEBUG source=server.go:428 msg="llama runner terminated" error="signal: aborted"
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.576+08:00 level=ERROR source=sched.go:455 msg="error loading llama server" error="llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'"
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:458 msg="triggering expiration for failed load" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:360 msg="runner expired event received" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:375 msg="got lock to unload" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449
10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=gpu.go:358 msg="updating system memory data" before.total="125.4 GiB" before.free="109.8 GiB" before.free_swap="3.7 GiB" now.total="125.4 GiB" now.free="109.8 GiB" now.free_swap="3.7 GiB"
10月 19 22:21:16 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:16 | 500 | 10.016638054s |    172.16.1.219 | POST     "/api/generate"

4.7 Upon checking the logs through the frontend application, the API interface returned the following error message (this should be due to the errors mentioned above):

{"message":"Request failed with status code 500","data":{"error":"llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'"}

5. Third Model: llama3.2:latest

5.1 At this point, the resources of the four GPU cards have been completely released. By default, OLLAMA_NUM_PARALLEL=4, and the required resources are partial_offload="24.9 GiB" full_offload="24.9 GiB", but none of the individual GPU cards can meet the required resources. As follows,

10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.064+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"

5.2 The following log shows parallel=1, and the model runs on four GPU cards.

Question 1: Why does parallel=1 require more resources, 43.7G, memory.required.full="43.7 GiB", while only 24.9G was needed in 5.1?
Question 2: Why do models 1 and 3 automatically downgrade from parallel=4 to parallel=1, but the second model does not automatically adjust to parallel=1?

10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff library=cuda parallel=1 required="43.7 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.7 GiB" free_swap="3.7 GiB"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]"
10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.066+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=29 layers.offload=29 layers.split=8,9,8,4 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="43.7 GiB" memory.required.partial="43.7 GiB" memory.required.kv="12.9 GiB" memory.required.allocations="[11.4 GiB 11.7 GiB 11.4 GiB 9.3 GiB]" memory.weights.total="14.5 GiB" memory.weights.repeating="14.2 GiB" memory.weights.nonrepeating="308.2 MiB" memory.graph.full="6.2 GiB" memory.graph.partial="6.2 GiB"

5.3 According to the above analysis, the available resources of the four GPU cards (23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB) can meet the model's resource requirement of 43.7G, why does the third model suddenly report an OOM error.

10月 19 22:21:46 gpu ollama[60399]: CUDA error: out of memory

and

10月 19 22:21:47 gpu ollama[60399]: No symbol table is loaded.  Use the "file" command.
10月 19 22:21:47 gpu ollama[60399]: [Inferior 1 (process 60845) detached]
10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.580+08:00 level=DEBUG source=server.go:1044 msg="stopping llama server"
10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.581+08:00 level=DEBUG source=server.go:1050 msg="waiting for llama server to exit"
10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.908+08:00 level=DEBUG source=server.go:428 msg="llama runner terminated" error="signal: aborted"
10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.908+08:00 level=DEBUG source=server.go:1054 msg="llama server stopped"
10月 19 22:21:47 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:47 | 500 | 30.138749435s |    172.16.1.219 | POST     "/api/generate"

5.4 Upon checking the logs through the frontend application, the API interface returned the following error message:

{"message":"Request failed with status code 500","data":{"error":"an unknown error was encountered while running the model CUDA error: out of memory\n current device: 3, in function alloc at /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:376\n cuMemCreate(&handle, reservesize, &prop, 0)\n/go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:102: CUDA error"}

5.5 The following log is from ollama2.log, and it can be observed that the model eventually runs on a single GPU card and ultimately succeeds. (Different from 5.2 and 5.3 above)

10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.192+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[16.8 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.197+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.198+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.198+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[9.7 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[4.3 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="4.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=24986779648 required="21.6 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=DEBUG source=sched.go:249 msg="new model fits with existing models, loading"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.1 GiB" free_swap="3.7 GiB"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]"
10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.203+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=29 layers.offload=29 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" memory.required.full="21.6 GiB" memory.required.partial="21.6 GiB" memory.required.kv="12.9 GiB" memory.required.allocations="[21.6 GiB]" memory.weights.total="14.5 GiB" memory.weights.repeating="14.2 GiB" memory.weights.nonrepeating="308.2 MiB" memory.graph.full="5.8 GiB" memory.graph.partial="6.2 GiB"

6 I monitor the GPU operation by executing the command gpustat -i 1, as follows:

6.1 If the environment variable is set as Environment="OLLAMA_SCHED_SPREAD=1" (as shown in ollama1.log, model 1 runs successfully, while models 2 and 3 fail)

All three models run on GPUs 1, 2, and 3 (which is basically as expected), but I do not know why GPU 0 has not been used or is only occasionally occupied.

6.2 If the environment variable is not set as Environment="OLLAMA_SCHED_SPREAD=1" (as shown in ollama2.log, all three models run successfully)

First model: It runs on GPUs 1, 2, and 3. I do not know why GPU 1 has not been used or is only occasionally occupied, and I am unclear why this model can still run on multiple GPU cards without setting the environment variable Environment="OLLAMA_SCHED_SPREAD=1".
Second model: It runs only on GPU 2 (as expected).
Third model: It runs only on GPU 3 (as expected).

<!-- gh-comment-id:2424095793 --> @goactiongo commented on GitHub (Oct 19, 2024): Thank you for your reply. I have conducted the following two tests, and I am unsure how to handle some issues, so I need your further assistance. ## 1. Overall Situation Description ### 1.1 In the same process, three models are sequentially called through the API interface to handle the content summarization task. The models include llama3.1:8b, glm4:9b, llama3.2:latest, and each model has the following parameters set: ``` "num_ctx": 121000, "num_predict": 9000 ``` ### 1.2. If the environment variable Environment="OLLAMA_SCHED_SPREAD=1" is not set, all three models will run successfully in sequence, but the inference time is relatively long. Log file ollama2.log [ollama2.log](https://github.com/user-attachments/files/17446683/ollama2.log) ### 1.3. After setting Environment="OLLAMA_SCHED_SPREAD=1". In order to improve the inference efficiency of the three models and to fully utilize four GPU cards for concurrent processing, I set the environment variable Environment="OLLAMA_SCHED_SPREAD=1" as you instructed. However, after multiple tests, the first model runs successfully every time, the second model fails almost every time, and the third model sometimes succeeds and sometimes fails. Log file ollama1.log [ollama1.log](https://github.com/user-attachments/files/17446687/ollama1.log) ### 1.4. In the ollama1.log log, the first model succeeds, and the second and third both fail. **Model 2 API Error Log as followed** ``` {"message":"Request failed with status code 500","data":{"error":"llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'"}} ``` **Model 3 API Error Log as followed** ``` {"message":"Request failed with status code 500","data":{"error":"an unknown error was encountered while running the model CUDA error: out of memory\n current device: 3, in function alloc at /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:376\n cuMemCreate(&handle, reservesize, &prop, 0)\n/go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:102: CUDA error"}} ``` ### 1.5 Analysis of ollama1.log log According to your previous instructions, I interpreted the log information in ollama1.log and conducted an analysis. There are some areas where I do not understand or may have misunderstood, and I hope for your assistance. **Note: The following analysis and most of the logs are from ollama1.log. Only in sections 4.5.1 and 5.5 did I compare the relevant information from ollama2.log** ## 2. Four GPU cards, the available resources are 23.3 GiB, 23.3 GiB, 16.8 GiB, 9.7 GiB, as follows, ``` October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" ``` ## 3. First Model: llama3.1:8b ### 3.1 By default, OLLAMA_NUM_PARALLEL=4, the required resources are partial_offload="32.3 GiB" full_offload="32.3 GiB", but none of the GPU cards can meet this requirement. As follows, ``` October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB" October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB" October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB" October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.629+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="2.0 GiB" gpu_zer_overhead="0 B" partial_offload="32.3 GiB" full_offload="32.3 GiB" October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.630+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" ``` ### 3.2 From the following log, it can be observed that OLLAMA automatically sets parallel=1, and the required resources are required="55.3 GiB" (I do not understand why the required resources are 55.3G at this time, which is greater than the 32.3G shown in 3.1? Additionally, does the parallel=1 in the following log indicate that the four concurrent processes have been reduced to one, and since it has been reduced to parallel=1, why does it require more resources), as follows ``` October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.630+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe library=cuda parallel=1 required="55.3 GiB" ``` ### 3.3 The model runs on four GPU cards. As follows. Question: If Environment="OLLAMA_SCHED_SPREAD=1" is not set, why does this model still run on four GPU cards (which does not meet my expectation), while the other two models only run on one GPU card (which meets the expectation), and for this part, you can refer to the log file ollama2.log ``` October 19 22:19:29 gpu ollama[60399]: time=2024-10-19T22:19:29.632+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=33 layers.offload=33 layers.split=10,11,11,1 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="55.3 GiB" memory.required.partial="55.3 GiB" memory.required.kv="14.8 GiB" memory.required.allocations="[14.9 GiB 15.5 GiB 15.3 GiB 9.7 GiB]" memory.weights.total="18.4 GiB" memory.weights.repeating="18.0 GiB" memory.weights.nonrepeating="411.0 MiB" memory.graph.full="8.1 GiB" memory.graph.partial="8.1 GiB" ``` ### 3.4 The first model works normally, as follows: ``` October 19 22:19:34 gpu ollama[60399]: DEBUG [launch_slot_with_data] slot is processing task | slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574 October 19 22:19:34 gpu ollama[60399]: DEBUG [update_slots] slot progression | ga_i=0 n_past=0 n_past_se=0 n_prompt_tokens_processed=58174 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574 October 19 22:19:34 gpu ollama[60399]: DEBUG [update_slots] kv cache rm [p0, end) | p0=0 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347574 October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings] prompt eval time = 44130.26 ms / 58174 tokens ( 0.76 ms per token, 1318.23 tokens per second) | n_prompt_tokens_processed=58174 n_tokens_second=1318.2337027993692 slot_id=0 t_prompt_processing=44130.263 t_token=0.7585908309554096 task_id=2 tid="139958483587072" timestamp=1729347665 October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings] generation eval time = 47231.63 ms / 640 runs ( 73.80 ms per token, 13.55 tokens per second) | n_decoded=640 n_tokens_second=13.55024251017226 slot_id=0 t_token=73.7994171875 t_token_generation=47231.627 task_id=2 tid="139958483587072" timestamp=1729347665 October 19 22:21:05 gpu ollama[60399]: DEBUG [print_timings] total time = 91361.89 ms | slot_id=0 t_prompt_processing=44130.263 t_token_generation=47231.627 t_total=91361.89 task_id=2 tid="139958483587072" timestamp=1729347665 October 19 22:21:05 gpu ollama[60399]: DEBUG [update_slots] slot released | n_cache_tokens=58814 n_ctx=121024 n_past=58813 n_system_tokens=0 slot_id=0 task_id=2 tid="139958483587072" timestamp=1729347665 truncated=false October 19 22:21:05 gpu ollama[60399]: DEBUG [log_server_request] request | method="POST" params={} path="/completion" remote_addr="127.0.0.1" remote_port=55272 status=200 tid="139956475393792" timestamp=1729347665 October 19 22:21:05 gpu ollama[60399]: DEBUG [process_single_task] slot data | n_idle_slots=1 n_processing_slots=0 task_id=645 tid="139958483587072" timestamp=1729347665 October 19 22:21:06 gpu ollama[60399]: DEBUG [log_server_request] request | method="POST" params={} path="/tokenize" remote_addr="127.0.0.1" remote_port=55274 status=200 tid="139956467001088" timestamp=1729347666 October 19 22:21:06 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:06 | 200 | 1m38s | 172.16.1.219 | POST "/api/generate" ``` ## 4. Second Model: glm4:9b ### 4.1 After the first model ends, perhaps because the GPU resources have not been completely released at this time (I am not sure if this is the reason), the available resources of each GPU cannot meet the model's needs of partial_offload="30.9 GiB" full_offload="30.9 GiB". As follows, ``` 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.897+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[8.8 GiB 7.1 GiB 6.5 GiB 16.1 MiB]" 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="8.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="7.1 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="6.5 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.1 MiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.898+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" ``` ### 4.2 Next, I noticed 'resetting model to expire immediately to make room’ ``` October 19 22:21:07 gpu ollama[60399]: time=2024-10-19T22:21:07.899+08:00 level=DEBUG source=sched.go:283 msg="resetting model to expire immediately to make room" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe refCount=0 ``` ### 4.3 Then, I noticed the llama server stopped and regained GPU resources (consistent with the initial available resources). ``` October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.039+08:00 level=DEBUG source=server.go:1044 msg="stopping llama server" October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.039+08:00 level=DEBUG source=server.go:1050 msg="waiting for llama server to exit" October 19 22:21:09 gpu ollama[60399]: time=2024-10-19T22:21:09.290+08:00 level=DEBUG source=gpu.go:358 msg="updating system memory data" before.total="125.4 GiB" before.free="108.2 GiB" before.free_swap="3.7 GiB" now.total="125.4 GiB" now.free="108.5 GiB" now.free_swap="3.7 GiB" October 19 22:21:09 gpu ollama[60399]: CUDA driver version: 12.2 October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.002+08:00 level=DEBUG source=server.go:1054 msg="llama server stopped" October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.003+08:00 level=DEBUG source=sched.go:380 msg="runner released" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.220+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="8.8 GiB" now.total="23.5 GiB" now.free="9.7 GiB" now.used="13.8 GiB" October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.510+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="16.1 MiB" now.total="23.5 GiB" now.free="16.8 GiB" now.used="6.7 GiB" October 19 22:21:10 gpu ollama[60399]: time=2024-10-19T22:21:10.778+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="7.1 GiB" now.total="23.5 GiB" now.free="23.3 GiB" now.used="232.9 MiB" October 19 22:21:11 gpu ollama[60399]: time=2024-10-19T22:21:11.017+08:00 level=DEBUG source=gpu.go:406 msg="updating cuda memory data" gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 name="NVIDIA A30" overhead="0 B" before.total="23.5 GiB" before.free="6.5 GiB" now.total="23.5 GiB" now.free="23.3 GiB" now.used="232.9 MiB" ``` ### 4.4 However, the available resources of each GPU card still cannot meet the needs of the second model. Question: Is OLLAMA_NUM_PARALLEL still set to 4 at this time? ``` 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.112+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.9 GiB" 10月 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.113+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" ``` ### 4.5 Then the model uses four GPU cards to run, and the available resources memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" can meet the memory.required.full="43.1 GiB". As follows, Question: At this time, OLLAMA_NUM_PARALLEL=4, why doesn't it automatically set OLLAMA_NUM_PARALLEL=1 like the first model? And assess whether any one of the GPU cards can meet the resources required by OLLAMA_NUM_PARALLEL=1? ``` October 19 22:21:12 gpu ollama[60399]: time=2024-10-19T22:21:12.114+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split=12,12,12,5 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="43.1 GiB" memory.required.partial="43.1 GiB" memory.required.kv="4.6 GiB" memory.required.allocations="[11.1 GiB 11.3 GiB 11.1 GiB 9.5 GiB]" memory.weights.total="8.9 GiB" memory.weights.repeating="8.4 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="7.8 GiB" memory.graph.partial="7.8 GiB" ``` ### 4.5.1 The following information is from ollama2.log, and it can be observed that when ```OLLAMA_SCHED_SPREAD=1``` is not set, this model eventually runs on one of the GPU cards and ultimately succeeds. (Different from 4.5 and 4.6 above). ``` 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.306+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.307+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[16.8 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[9.7 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="582.1 MiB" gpu_zer_overhead="0 B" partial_offload="30.9 GiB" full_offload="30.5 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.308+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 gpu=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 parallel=1 available=24986779648 required="17.7 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.8 GiB" free_swap="3.7 GiB" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:12:25 gpu ollama[1265]: time=2024-10-20T00:12:25.309+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=41 layers.offload=41 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" memory.required.full="17.7 GiB" memory.required.partial="17.7 GiB" memory.required.kv="4.6 GiB" memory.required.allocations="[17.7 GiB]" memory.weights.total="8.9 GiB" memory.weights.repeating="8.4 GiB" memory.weights.nonrepeating="485.6 MiB" memory.graph.full="7.6 GiB" memory.graph.partial="7.8 GiB" ``` ### 4.6 Next, I saw the OOM error message in the logs. I don't understand why these errors occurred, allocating 8574.52 MiB on device 3: cudaMalloc failed: out of memory. From the above logs, it seems that the available resources on device 3 should be sufficient. ``` 10月 19 22:21:15 gpu ollama[60399]: llama_new_context_with_model: pipeline parallelism enabled (n_copies=4) 10月 19 22:21:15 gpu ollama[60399]: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 8574.52 MiB on device 3: cudaMalloc failed: out of memory 10月 19 22:21:15 gpu ollama[60399]: ggml_gallocr_reserve_n: failed to allocate CUDA3 buffer of size 8991031296 10月 19 22:21:15 gpu ollama[60399]: llama_new_context_with_model: failed to allocate compute buffers 10月 19 22:21:16 gpu ollama[60399]: llama_init_from_gpt_params: error: failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449' 10月 19 22:21:16 gpu ollama[60399]: ERROR [load_model] unable to load model | model="/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449" tid="140035751489536" timestamp=1729347676 10月 19 22:21:16 gpu ollama[60399]: terminate called without an active exception 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.326+08:00 level=INFO source=server.go:621 msg="waiting for server to become available" status="llm server error" 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.515+08:00 level=DEBUG source=server.go:428 msg="llama runner terminated" error="signal: aborted" 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.576+08:00 level=ERROR source=sched.go:455 msg="error loading llama server" error="llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'" 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:458 msg="triggering expiration for failed load" model=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:360 msg="runner expired event received" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=sched.go:375 msg="got lock to unload" modelPath=/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449 10月 19 22:21:16 gpu ollama[60399]: time=2024-10-19T22:21:16.577+08:00 level=DEBUG source=gpu.go:358 msg="updating system memory data" before.total="125.4 GiB" before.free="109.8 GiB" before.free_swap="3.7 GiB" now.total="125.4 GiB" now.free="109.8 GiB" now.free_swap="3.7 GiB" 10月 19 22:21:16 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:16 | 500 | 10.016638054s | 172.16.1.219 | POST "/api/generate" ``` ### 4.7 Upon checking the logs through the frontend application, the API interface returned the following error message (this should be due to the errors mentioned above): ``` {"message":"Request failed with status code 500","data":{"error":"llama runner process has terminated: error:failed to create context with model '/usr/share/ollama/.ollama/models/blobs/sha256-b506a070d1152798d435ec4e7687336567ae653b3106f73b7b4ac7be1cbc4449'"} ``` ## 5. Third Model: llama3.2:latest ### 5.1 At this point, the resources of the four GPU cards have been completely released. By default, OLLAMA_NUM_PARALLEL=4, and the required resources are partial_offload="24.9 GiB" full_offload="24.9 GiB", but none of the individual GPU cards can meet the required resources. As follows, ``` 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.064+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="24.9 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" ``` ### 5.2 The following log shows parallel=1, and the model runs on four GPU cards. Question 1: Why does parallel=1 require more resources, 43.7G, memory.required.full="43.7 GiB", while only 24.9G was needed in 5.1? Question 2: Why do models 1 and 3 automatically downgrade from parallel=4 to parallel=1, but the second model does not automatically adjust to parallel=1? ``` 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=INFO source=sched.go:730 msg="new model will fit in available VRAM, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff library=cuda parallel=1 required="43.7 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.7 GiB" free_swap="3.7 GiB" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.065+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=4 available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" 10月 19 22:21:19 gpu ollama[60399]: time=2024-10-19T22:21:19.066+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=29 layers.offload=29 layers.split=8,9,8,4 memory.available="[23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB]" memory.gpu_overhead="0 B" memory.required.full="43.7 GiB" memory.required.partial="43.7 GiB" memory.required.kv="12.9 GiB" memory.required.allocations="[11.4 GiB 11.7 GiB 11.4 GiB 9.3 GiB]" memory.weights.total="14.5 GiB" memory.weights.repeating="14.2 GiB" memory.weights.nonrepeating="308.2 MiB" memory.graph.full="6.2 GiB" memory.graph.partial="6.2 GiB" ``` ### 5.3 According to the above analysis, the available resources of the four GPU cards (23.3 GiB 23.3 GiB 16.8 GiB 9.7 GiB) can meet the model's resource requirement of 43.7G, why does the third model suddenly report an OOM error. ``` 10月 19 22:21:46 gpu ollama[60399]: CUDA error: out of memory ``` and ``` 10月 19 22:21:47 gpu ollama[60399]: No symbol table is loaded. Use the "file" command. 10月 19 22:21:47 gpu ollama[60399]: [Inferior 1 (process 60845) detached] 10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.580+08:00 level=DEBUG source=server.go:1044 msg="stopping llama server" 10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.581+08:00 level=DEBUG source=server.go:1050 msg="waiting for llama server to exit" 10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.908+08:00 level=DEBUG source=server.go:428 msg="llama runner terminated" error="signal: aborted" 10月 19 22:21:47 gpu ollama[60399]: time=2024-10-19T22:21:47.908+08:00 level=DEBUG source=server.go:1054 msg="llama server stopped" 10月 19 22:21:47 gpu ollama[60399]: [GIN] 2024/10/19 - 22:21:47 | 500 | 30.138749435s | 172.16.1.219 | POST "/api/generate" ``` ### 5.4 Upon checking the logs through the frontend application, the API interface returned the following error message: ``` {"message":"Request failed with status code 500","data":{"error":"an unknown error was encountered while running the model CUDA error: out of memory\n current device: 3, in function alloc at /go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:376\n cuMemCreate(&handle, reservesize, &prop, 0)\n/go/src/github.com/ollama/ollama/llm/llama.cpp/ggml/src/ggml-cuda.cu:102: CUDA error"} ``` ### 5.5 The following log is from ollama2.log, and it can be observed that the model eventually runs on a single GPU card and ultimately succeeds. (Different from 5.2 and 5.3 above) ``` 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.192+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="23.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.193+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[16.8 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.197+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-6b83f2f6-dc65-7feb-5e02-0cd0087995e8 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="16.8 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.198+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.198+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[9.7 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ad4cba93-ee35-2ea2-dba7-7b5772a098ce library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="9.7 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.199+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[4.3 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:170 msg="gpu has too little memory to allocate any layers" id=GPU-ac079011-c45b-de29-f2e2-71b2e5d2d7f4 library=cuda variant=v12 compute=8.0 driver=12.2 name="NVIDIA A30" total="23.5 GiB" available="4.3 GiB" minimum_memory=479199232 layer_size="1.9 GiB" gpu_zer_overhead="0 B" partial_offload="24.9 GiB" full_offload="23.1 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:312 msg="insufficient VRAM to load any model layers" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.200+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=INFO source=sched.go:714 msg="new model will fit in available VRAM in single GPU, loading" model=/usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff gpu=GPU-1a5993d8-1f60-3ecd-b80f-55ca9f1e95d2 parallel=1 available=24986779648 required="21.6 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=DEBUG source=sched.go:249 msg="new model fits with existing models, loading" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=INFO source=server.go:103 msg="system memory" total="125.4 GiB" free="109.1 GiB" free_swap="3.7 GiB" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.202+08:00 level=DEBUG source=memory.go:103 msg=evaluating library=cuda gpu_count=1 available="[23.3 GiB]" 10月 20 00:14:41 gpu ollama[1265]: time=2024-10-20T00:14:41.203+08:00 level=INFO source=memory.go:326 msg="offload to cuda" layers.requested=-1 layers.model=29 layers.offload=29 layers.split="" memory.available="[23.3 GiB]" memory.gpu_overhead="0 B" memory.required.full="21.6 GiB" memory.required.partial="21.6 GiB" memory.required.kv="12.9 GiB" memory.required.allocations="[21.6 GiB]" memory.weights.total="14.5 GiB" memory.weights.repeating="14.2 GiB" memory.weights.nonrepeating="308.2 MiB" memory.graph.full="5.8 GiB" memory.graph.partial="6.2 GiB" ``` ## 6 I monitor the GPU operation by executing the command ```gpustat -i 1```, as follows: ### 6.1 If the environment variable is set as Environment="OLLAMA_SCHED_SPREAD=1" (as shown in ollama1.log, model 1 runs successfully, while models 2 and 3 fail) All three models run on GPUs 1, 2, and 3 (which is basically as expected), but I do not know why GPU 0 has not been used or is only occasionally occupied. ### 6.2 If the environment variable is not set as Environment="OLLAMA_SCHED_SPREAD=1" (as shown in ollama2.log, all three models run successfully) First model: It runs on GPUs 1, 2, and 3. I do not know why GPU 1 has not been used or is only occasionally occupied, and I am unclear why this model can still run on multiple GPU cards without setting the environment variable Environment="OLLAMA_SCHED_SPREAD=1". Second model: It runs only on GPU 2 (as expected). Third model: It runs only on GPU 3 (as expected).
Author
Owner

@rick-github commented on GitHub (Oct 20, 2024):

Set OLLAMA_NUM_PARALLEL=1 in your server environment, it reduces confusion.

llama3.1:8b always uses 4 GPUs because it cannot fit on one GPU. OLLAMA_SCHED_SPREAD=1 only has an affect when there is an actual decision to be made about whether to run a model on one GPU or all GPUs.

A model consumes more VRAM when it runs on multiple GPUs because each slice of the model gets a copy of the memory graph. So total VRAM is roughly weights + contextBuffer + (memoryGraph * numGPU). More GPUs, more space needed for copies of the memory graph.

Note that your attempt to get concurrent processing is inefficient. This is because you cannot fit two or more models in to VRAM at the same time due to your large context window and the size of the overhead required to spread the model across all GPUs. While inference might be faster for an individual completion, you are adding latency because you are constantly loading and unloading models.

Regarding the OOMs, it's possible that the memory reporting is not as accurate as it could be. One way to test would be to control the model loading. If you add keep_alive:0 to the API call, the model will be unloaded immediately after the generation is completed. Your client then could wait a number of seconds before sending the next request. In this way you can adjust the time delay between sending requests and check to see how many seconds you need to wait for all three API calls to succeed. If this does have an effect, then it means that the memory handing in ollama needs to address this.

Other alternatives:

  1. Set OLLAMA_FLASH_ATTENTION=1 in the server environment. Flash attention is a more efficient use of KV space and reduces memory pressure.
  2. Set GGML_CUDA_ENABLE_UNIFIED_MEMORY=1 in the server environment. This allows the CUDA driver to use system RAM if VRAM is fully allocated. Memory allocated in this way will result in slower token generation, but if it's a small amount, the impact should be minimal.
  3. Dedicate the GPUs to a model. This requires the other users of the the GPU to be removed. Since glm4:9b and llama3.2:latest have been shown to run on a single GPU, you run an ollama server for each of the models, using CUDA_VISIBLE_DEVICES to assign each ollama server a GPU as described here. For the llama3.1 model, it may run on 2 GPUs because it will have half of the number of copies of the memory graph, but that will need to be determined. So you have 3 ollama servers, one with 2 dedicated GPUs running llama3.1, and the other two ollama servers have one dedicated GPU running llama3.2 and glm4 respectively. Your client just needs to send each call to the appropriate server. This will give you actual concurrent processing, unlike what you are getting now.
<!-- gh-comment-id:2424345958 --> @rick-github commented on GitHub (Oct 20, 2024): Set `OLLAMA_NUM_PARALLEL=1` in your server environment, it reduces confusion. llama3.1:8b always uses 4 GPUs because it cannot fit on one GPU. `OLLAMA_SCHED_SPREAD=1` only has an affect when there is an actual decision to be made about whether to run a model on one GPU or all GPUs. A model consumes more VRAM when it runs on multiple GPUs because each slice of the model gets a copy of the memory graph. So total VRAM is roughly weights + contextBuffer + (memoryGraph * numGPU). More GPUs, more space needed for copies of the memory graph. Note that your attempt to get concurrent processing is inefficient. This is because you cannot fit two or more models in to VRAM at the same time due to your large context window and the size of the overhead required to spread the model across all GPUs. While inference might be faster for an individual completion, you are adding latency because you are constantly loading and unloading models. Regarding the OOMs, it's possible that the memory reporting is not as accurate as it could be. One way to test would be to control the model loading. If you add `keep_alive:0` to the API call, the model will be unloaded immediately after the generation is completed. Your client then could wait a number of seconds before sending the next request. In this way you can adjust the time delay between sending requests and check to see how many seconds you need to wait for all three API calls to succeed. If this does have an effect, then it means that the memory handing in ollama needs to address this. Other alternatives: 1. Set `OLLAMA_FLASH_ATTENTION=1` in the server environment. Flash attention is a more efficient use of KV space and reduces memory pressure. 2. Set `GGML_CUDA_ENABLE_UNIFIED_MEMORY=1` in the server environment. This allows the CUDA driver to use system RAM if VRAM is fully allocated. Memory allocated in this way will result in slower token generation, but if it's a small amount, the impact should be minimal. 3. Dedicate the GPUs to a model. This requires the other users of the the GPU to be removed. Since glm4:9b and llama3.2:latest have been shown to run on a single GPU, you run an ollama server for each of the models, using `CUDA_VISIBLE_DEVICES` to assign each ollama server a GPU as described [here](https://github.com/ollama/ollama/issues/7206#issuecomment-2413928300). For the llama3.1 model, it may run on 2 GPUs because it will have half of the number of copies of the memory graph, but that will need to be determined. So you have 3 ollama servers, one with 2 dedicated GPUs running llama3.1, and the other two ollama servers have one dedicated GPU running llama3.2 and glm4 respectively. Your client just needs to send each call to the appropriate server. This will give you actual concurrent processing, unlike what you are getting now.
Sign in to join this conversation.
1 Participants
Notifications
Due Date
No due date set.
Dependencies

No dependencies set.

Reference: github-starred/ollama#66591