GLM-4.1V-9B-Thinking-GPTQ-Int4-Int8Mix

基础型 ZhipuAI/GLM-4.1V-9B-Thinking

【模型更新日期】

2025-07-03
1. 首次commit
2. 确定支持1、2、4卡的`tensor-parallel-size`启动

【依赖】

vllm==0.9.2
### 【💡2025-07-03 临时安装命令💡】
pip3 install -r requirements.txt
git clone https://github.com/zRzRzRzRzRzRzR/vllm.git
cd vllm
git checkout glm4_1-v
VLLM_USE_PRECOMPILED=1 pip install --editable .

【模型列表】

文件大小 最近更新时间
8.9GB 2025-07-03

【模型下载】

from modelscope import snapshot_download
snapshot_download('tclf90/GLM-4.1V-9B-Thinking-GPTQ-Int4-Int8Mix', cache_dir="本地路径")

【介绍】

GLM-4.1V-9B-Thinking

📖 查看 GLM-4.1V-9B-Thinking 论文
💡 立即在线体验 Hugging FaceModelScope 上的 GLM-4.1V-9B-Thinking。
📍 在 智谱大模型开放平台 使用 GLM-4.1V-9B-Thinking 的API服务。

模型介绍

视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外, 逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。

基于 GLM-4-9B-0414 基座模型,我们推出新版VLM开源模型 GLM-4.1V-9B-Thinking ,引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, 达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 我们同步开源基座模型 GLM-4.1V-9B-Base,希望能够帮助更多研究者探索视觉语言模型的能力边界。

rl

与上一代的 CogVLM2 及 GLM-4V 系列模型相比,GLM-4.1V-Thinking 有如下改进:

  1. 系列中首个推理模型,不仅仅停留在数学领域,在多个子领域均达到世界前列的水平。
  2. 支持 64k 上下长度。
  3. 支持任意长宽比和高达 4k 的图像分辨率。
  4. 提供支持中英文双语的开源模型版本。

榜单信息

GLM-4.1V-9B-Thinking 通过引入「思维链」(Chain-of-Thought)推理机制,在回答准确性、内容丰富度与可解释性方面, 全面超越传统的非推理式视觉模型。在28项评测任务中有23项达到10B级别模型最佳,甚至有18项任务超过8倍参数量的Qwen-2.5-VL-72B。

bench

Downloads last month
4
Safetensors
Model size
3.05B params
Tensor type
I32
·
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support