小戴先生
Login
NVIDIA DGX OS 7MiniMax-M2.5OpenClawIronClaw中文教程

Dell Pro Max GB10 × OpenClaw / IronClaw本地部署 MiniMax-M2.5 完整教程

在 Dell Pro Max GB10 的 NVIDIA DGX OS 7 系统上,通过 OllamavLLM 部署 MiniMax-M2.5,并接入 OpenClaw(效率优先)或 IronClaw(安全优先)智能体框架,实现 100% 本地化、零 token 费用的 AI 智能体工作流。

Dell Pro Max GB10 硬件规格型号:FCM1253
产品
Dell Pro Max GB10
型号
FCM1253
CPU
NVIDIA GB10 Grace CPU(10 Cortex-X925 + 10 Cortex-A725 核心)
GPU
NVIDIA GB10 Blackwell GPU
内存
128GB LPDDR5X
存储
2TB M.2 2230,QLC PCIe Gen4
操作系统
NVIDIA DGX OS 7
智能体
OpenClaw / IronClaw
本地模型
MiniMax-M2.5、Qwen3.5 27b

为什么选择 Dell Pro Max GB10?

  • 128GB 统一内存可完整载入 MiniMax-M2.5 Q3 量化版(101GB),无需 SSD 交换
  • Blackwell GPU 架构,推理速度可达 20+ tokens/s
  • DGX OS 7 预装完整 CUDA 环境,开箱即用,无需手动配置驱动
  • 数据完全本地处理,满足企业级数据安全合规要求
  • 可同时运行 Qwen3.5 27B 等辅助模型,构建本地多 Agent 团队
  • IronClaw 沙箱隔离,提供接近企业级的安全执行环境

部署流程概览

① 选择部署方式
② 安装 Ollama 或 vLLM
③ 下载 MiniMax-M2.5
④ 扩展上下文(32K)
⑤ 安装 OpenClaw / IronClaw
⑥ 配置接入本地模型
⑦ 验证 & 开始使用

使用 Ollama 部署 MiniMax-M2.5

最简单的本地部署方案,一条命令完成模型管理,自动提供 OpenAI 兼容 API

ℹ️Dell Pro Max GB10 搭载 NVIDIA DGX OS 7(基于 Ubuntu 的系统)。以下命令均在终端(Terminal)中以普通用户或 sudo 执行。
步骤 1安装 Ollama

DGX OS 7 是 Ubuntu-like 系统,直接使用官方一键安装脚本:

bash
curl -fsSL https://ollama.com/install.sh | sh

安装完成后验证版本:

bash
ollama --version

Ollama 服务默认随系统启动。手动检查服务状态:

bash
sudo systemctl status ollama
💡若服务未启动,执行 sudo systemctl start ollama 启动服务,并可用 sudo systemctl enable ollama 设为开机自启。
步骤 2拉取 MiniMax-M2.5 模型

方案 A(推荐):直接从 Ollama 库拉取云版,原生支持 Subagents 并行能力:

bash
ollama pull minimax-m2.5:cloud
⚠️MiniMax-M2.5 参数量约 230B,Q3 量化版约 101GB。请确保 2TB SSD 有足够空间,并预留充足下载时间。

方案 B:通过 Hugging Face 下载 Unsloth GGUF 量化版(更灵活的版本选择):

bash
# 安装工具
pip install -U huggingface_hub hf_transfer

# 启用高速传输
export HF_HUB_ENABLE_HF_TRANSFER=1

# 下载 UD-Q3_K_XL 版本(约 101GB,推荐)
hf download unsloth/MiniMax-M2.5-GGUF \
    --local-dir ~/models/MiniMax-M2.5-GGUF \
    --include "*UD-Q3_K_XL*"

下载完成后,创建 Modelfile 并导入 Ollama:

bash
# 创建 Modelfile
cat > ~/Modelfile << 'EOF'
FROM ~/models/MiniMax-M2.5-GGUF/UD-Q3_K_XL/MiniMax-M2.5-UD-Q3_K_XL-00001-of-00004.gguf
PARAMETER num_ctx 32768
PARAMETER temperature 1.0
PARAMETER top_p 0.95
PARAMETER top_k 40
EOF

# 导入为自定义模型
ollama create minimax-m2.5:32k -f ~/Modelfile
步骤 3扩展上下文窗口(OpenClaw 必须)

OpenClaw 要求模型上下文窗口 ≥ 16000 tokens。若使用方案 A 的 cloud 版,同样需要创建自定义模型:

bash
# 为 cloud 版创建 32k 上下文模型
echo -e "FROM minimax-m2.5:cloud\nPARAMETER num_ctx 32768\nPARAMETER temperature 1.0\nPARAMETER top_p 0.95\nPARAMETER top_k 40" > ~/Modelfile

ollama create minimax-m2.5:32k -f ~/Modelfile

# 验证模型列表
ollama list

# 验证参数
ollama show minimax-m2.5:32k --modelfile

验证 Ollama API 正常响应:

bash
curl http://localhost:11434/api/tags

应返回包含 minimax-m2.5:32k 的 JSON 列表。

步骤 4快速测试推理
bash
ollama run minimax-m2.5:32k "你好,请用一句话介绍你自己。"
GB10 Blackwell GPU 配合 128GB 统一内存,运行 101GB 的 MiniMax-M2.5 Q3 量化版预计可达 20+ tokens/s

参考资料:NVIDIA DGX OS 7 用户指南·Ollama 官网·MiniMax-M2.5 GGUF(Unsloth)·vLLM 文档

MiniMax-M2.5:230B 参数(10B 激活),200K 上下文,SWE-Bench Verified 80.2%,原生支持 Subagents 并行处理。