返回顶部
分享到

Claude Code接入本地大模型Qwen3.6 进行代码开发(vLLM 部署 + 环境配置)

Ai 来源:互联网 作者:佚名 发布时间:2026-05-13 21:57:53 人浏览
摘要

Claude Code 是 Anthropic 推出的智能编码命令行工具,默认使用 Claude 系列模型。但我们可以通过指定自定义 API 端点,将其连接到本地部署的 Qwen3.6 模型,实现本地模型 + 强大编码助手的组合。 本

Claude Code 是 Anthropic 推出的智能编码命令行工具,默认使用 Claude 系列模型。但我们可以通过指定自定义 API 端点,将其连接到本地部署的 Qwen3.6 模型,实现“本地模型 + 强大编码助手”的组合。

本文将带你完成:

一、环境准备与模型部署

1.1 安装 Docker

请确保你的系统已安装 Docker 并支持 GPU(NVIDIA Container Toolkit)。

1.2 创建 docker-compose.yml

在合适的位置创建项目目录,例如 ~/vllm-qwen,并在其中新建 docker-compose.yml 文件,内容如下:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

version: '3.8'

services:

  vllm-qwen:

    image: vllm/vllm-openai:cu130-nightly

    container_name: vllm-qwen36-35B-A3B-FP8

    restart: unless-stopped

    ipc: host

    ports:

      - "8000:8000"

    volumes:

      - /app/vllm/data/models:/root/.cache/modelscope   # 模型缓存目录,可按需修改

    environment:

      - VLLM_USE_MODELSCOPE=true

    deploy:

      resources:

        reservations:

          devices:

            - driver: nvidia

              count: all

              capabilities: [gpu]

    command:

      - --model

      - "Qwen/Qwen3.6-35B-A3B-FP8"

      - --tensor-parallel-size

      - "1"

      - --gpu-memory-utilization

      - "0.8"

      - --served-model-name

      - "Qwen3.6-35B-A3B-FP8"

      - --enable-prefix-caching

      - --enable-auto-tool-choice

      - --default-chat-template-kwargs

      - '{"enable_thinking": false}'

      - --tool-call-parser

      - "qwen3_coder"

      - --max-model-len

      - "196608"

      - --max-num-batched-tokens

      - "8192"

      - --enable-chunked-prefill

      - --max-num-seqs

      - "32"

      - --kv-cache-dtype

      - "fp8"

1.3 启动模型服务

在 docker-compose.yml 所在目录执行:

1

docker compose up -d

服务启动后会监听本机 8000 端口。

1.4 验证部署

使用 curl 检查模型列表:

1

curl http://127.0.0.1:8000/v1/models

正常返回应包含 Qwen3.6-35B-A3B-FP8。

二、安装 Claude Code

Claude Code 支持多种安装方式,可根据你的系统选择。

2.1 通过官方脚本安装(推荐)

macOS / Linux / WSL(Linux 子系统)
打开终端,执行:

1

curl -fsSL https://claude.ai/install.sh | bash

安装完成后重启终端或执行 source ~/.bashrc(或 ~/.zshrc)。

Windows PowerShell(管理员模式运行)

1

irm https://claude.ai/install.ps1 | iex

Windows CMD(命令提示符)

1

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

2.2 通过 npm 安装(适用于已安装 Node.js 的用户)

1

npm install -g @anthropic-ai/claude-code

安装后,执行一次初始化(非必须,但建议):

1

claude install

三、配置 Claude Code 使用本地 Qwen3.6

3.1 设置环境变量

将 Claude Code 指向本地 vLLM 服务。当前服务运行在 127.0.0.1:8000,如果其他机器使用可以ifconfig查看服务器的ip地址,认证 Token 可随意设置(vLLM 默认不校验,但需要占位符)。

Linux / macOS / WSL (bash/zsh)

1

2

export ANTHROPIC_BASE_URL="http://127.0.0.1:8000"

export ANTHROPIC_AUTH_TOKEN="your_key"

若想永久生效,可将这两行追加到 ~/.bashrc 或 ~/.zshrc。

Windows PowerShell

1

2

$env:ANTHROPIC_BASE_URL="http://127.0.0.1:8000"

$env:ANTHROPIC_AUTH_TOKEN="your_key"

Windows CMD

1

2

set ANTHROPIC_BASE_URL=http://127.0.0.1:8000

set ANTHROPIC_AUTH_TOKEN=your_key

3.2 指定模型启动 Claude Code

环境变量设置完毕后,使用 --model 参数指定模型名称(必须与 vLLM 启动参数 --served-model-name 一致):

1

claude --model Qwen3.6-35B-A3B-FP8

首次运行会提示登录,由于我们使用的是自定义端点,可以随意输入邮箱或直接回车跳过。

启动成功后,你将看到类似如下的交互界面:

1

2

3

Claude Code v2.x.x

Type /help for commands, /exit to quit.

> 你好,请帮我写一个 Python 冒泡排序


版权声明 : 本文内容来源于互联网或用户自行发布贡献,该文观点仅代表原作者本人。本站仅提供信息存储空间服务和不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权, 违法违规的内容, 请发送邮件至2530232025#qq.cn(#换@)举报,一经查实,本站将立刻删除。

您可能感兴趣的文章 :

原文链接 :
相关文章
  • 本站所有内容来源于互联网或用户自行发布,本站仅提供信息存储空间服务,不拥有版权,不承担法律责任。如有侵犯您的权益,请您联系站长处理!
  • Copyright © 2017-2022 F11.CN All Rights Reserved. F11站长开发者网 版权所有 | 苏ICP备2022031554号-1 | 51LA统计