小戴先生
Login

Dell Pro AI Studio 安装与使用教程

释放您戴尔AI PC的全部潜能。本教程将指导您完成Dell Pro AI Studio的安装与配置,助您轻松驾驭本地AI算力。

准备工作

开始之前,请确保您已准备好以下各项:

  • 一台配备NPU(神经处理单元)的戴尔PC。这可以是搭载英特尔酷睿 Ultra系列或高通骁龙 X系列的笔记本电脑或台式机。
  • 从以下百度网盘下载Dell Pro AI Studio相关的安装包。
百度网盘 (提取码: fw94)

第一步:搭建运行环境

此步骤我们将安装Dell Pro AI Studio所需的核心组件。请确保您已下载以下文件:

下载文件
  • Dell.AI.Framework.x64.zip (适用于Intel Ultra CPU) 或 Dell.AI.Framework.ARM64.zip (适用于Qualcomm Snapdragon CPU)
  • dotnet-sdk-8.0.x-win-x64.exe (或微软提供的最新兼容版本 .NET SDK)
  • VC_redist.x64.exe (Visual C++ Redistributable)

1. 安装 Microsoft .NET SDK (含Runtime)

运行下载的 dotnet-sdk-8.0.x-win-x64.exe 文件,并按照屏幕提示完成安装。这将同时安装必要的 .NET Desktop Runtime。

2. 安装 Visual C++ Redistributable

运行下载的 VC_redist.x64.exe 文件,并按照屏幕提示完成安装。

3. 安装 Dell Pro AI Studio Core

根据您的处理器类型选择正确的文件版本。

  1. 解压下载的 Dell.AI.Framework.*.zip 文件到您选择的目录 (例如: C:\\DellProAIStudio_Setup)。
  2. 管理员权限 运行命令提示符 (CMD)。
  3. 在CMD中,导航到您解压文件的目录。例如: cd C:\\DellProAIStudio_Setup\\Dell.AI.Framework.x64
  4. 依次执行以下命令来安装核心服务和框架:
    msiexec /i "Dell.Core.Services.Installer_64bit.msi"
    msiexec /i "Dell.AI.Framework.x64.msi"

    对于ARM64架构,文件名将包含 "ARM64"。

下载文件

第二步:部署AI模型 (以Qwen2.5为例)

现在,我们将安装一个具体的AI模型。本教程以Qwen2.5为例。您下载的文件名可能因模型版本而异,例如 Dell.Model.Qwen2.5-1.5b-instruct.NPU.OVGAI.x64.zip

  1. 解压下载的模型压缩包 (例如 Dell.Model.Qwen2.5-1.5b-instruct.NPU.OVGAI.x64.zip) 到一个新目录。
  2. 再次以 管理员权限 运行命令提示符 (CMD)。
  3. 导航到您解压模型文件的目录。
  4. 执行模型安装命令 (文件名请根据实际下载的调整):
    msiexec /i "Dell.Model.Qwen2.5-1.5b-instruct.NPU.OVGAI.x64.msi"
installmodel

服务就绪!

安装完成后,AI模型服务将在您的本地计算机上通过以下地址提供:

http://localhost:8553/v1/openai

默认模型名称 (ID) 通常为 qwen2.5 (或安装包内指定的名称),API Key 为 dpais

NPU加速服务:验证与使用入门

恭喜!您的戴尔AI PC现在已经通过NPU在 8553 端口上提供了一个与OpenAI API兼容的服务。这与大家熟知的Ollama在 11434 端口提供模型服务的方式非常相似。

接下来,我们将通过两个实际案例——Python脚本调用和Cherry Studio图形化界面——来演示如何利用这强大的本地AI算力。

通过Python调用NPU

通过Python与NPU服务交互非常简单。首先,请确保您已安装 openai Python库:

pip install openai

以下是一个示例Python脚本。请注意脚本中的三个关键参数:

  • api_key: 固定为 "dpais"
  • base_url: 固定为 "http://localhost:8553/v1/openai"
  • model: 您安装的具体模型ID,例如 "qwen2.5" (请根据实际情况修改)
# -*- coding: utf-8 -*-
from openai import OpenAI

# 配置客户端连接到本地Dell Pro AI Studio服务
client = OpenAI(
    api_key="dpais",  # 固定API Key
    base_url="http://localhost:8553/v1/openai"  # 本地服务地址
)

# 定义要使用的模型ID (请替换为您安装的模型)
MODEL_ID = "qwen2.5" 

try:
    print(f"正在使用模型: {MODEL_ID}")
    # 创建聊天请求
    response = client.chat.completions.create(
        model=MODEL_ID,
        messages=[
            {"role": "system", "content": "you are a helpful assistant"},
            {"role": "user", "content": "hello! where is Dell's headquarter located?"},
        ],
        stream=False
    )

    # 打印助手的回复
    print(response.choices[0].message.content)

except Exception as e:
    print(f"\n发生错误: {e}")
    print("请检查以下事项:")
    print("1. Dell Pro AI Studio 服务是否已正确启动。")
    print(f"2. 模型ID '{MODEL_ID}' 是否正确无误且已成功安装。")
    print("3. 网络连接是否正常,端口8553是否被防火墙阻止。")
Python调用NPU示例

通过Cherry Studio调用NPU

如果您偏好使用图形化工具,Cherry Studio是一个不错的选择。按以下步骤配置即可调用NPU算力:

  1. 首先,下载并安装Cherry Studio (例如 Cherry-Studio-1.3.12-x64-setup.signed.exe)。
  2. 打开Cherry Studio应用程序。
  3. 导航至程序内的“设置”菜单,然后选择“模型服务”选项。
  4. 在模型供应商列表的底部,找到并点击“+添加”按钮以新增一个供应商。
  5. 在弹出的配置窗口中,填写以下信息:
    • 供应商名称: DPAIS (或者您喜欢的任何名称,如 "Dell NPU")
    • 供应商类型: 从下拉菜单中选择 "OpenAI"
    填写完毕后,点击“确定”保存。
  6. 现在,配置刚刚添加的DPAIS供应商:
    • API密钥: 输入 dpais
    • API地址: 输入 http://localhost:8553/v1/openai/
    • 点击“添加模型”按钮。在“模型ID”字段中输入您安装的模型名称 (例如 qwen2.5),然后再次点击“添加模型”按钮确认。
  7. Cherry Studio模型设置
  8. 配置完成后,返回Cherry Studio的主聊天窗口。
  9. 在模型选择下拉菜单中,您应该能看到并选择类似 qwen2.5 | DellProAIStudio 的选项。
  10. Cherry Studio聊天界面
  11. 选中后,您就可以开始与通过NPU加速的本地AI模型进行交互了!
NPU调用成功

本教程内容仅供参考学习,具体操作请以戴尔官方最新文档为准。