Files
ktransformers/doc/zh/clawdbot_integration_guide.md
Oql ccbb5b1cf8 [docs]: add clawd bot docs
add clawd bot docs
2026-01-30 15:51:30 +08:00

5.7 KiB
Raw Permalink Blame History

KTransformers + Clawdbot本地部署 AI 助手方案

利用 KTransformers 的 CPU-GPU 混合推理能力,结合 Kimi-K2.5 的高质量推理能力,为 Clawdbot 提供高性能本地推理后端


什么是 Clawdbot

Clawdbot 是一款开源的个人 AI 智能体,支持通过 Telegram、Discord、Signal、WhatsApp 等聊天平台交互,可实现日程管理、邮件发送、数据查询等自动化任务,数据完全本地存储,隐私可控。

注意Clawdbot 默认不内置飞书FeishuChannel需要额外安装社区插件详见下方飞书接入章节。


为什么选择 KTransformers 作为推理后端?

KTransformers 使用 CPU-GPU 混合推理架构:

  • CPU-GPU 协同GPU 处理高价值推理路径CPUAMX 量化)处理专家模块,资源利用率最大化
  • 原生 MoE 支持:支持多种原生精度的 MoE 模型
  • SGLang 高性能引擎:兼容 OpenAI API支持多 GPU Tensor Parallel 并行
  • 全栈 CLI 工具kt run 一键启动、kt model 模型管理、kt quant 智能量化、kt bench 性能测试、kt doctor 环境诊断

支持的模型

自 Kimi K2 Thinking 等原精度模型支持以来,我们 Day0 适配了 Kimi K2.5。目前,我们已经原精度支持 Kimi K2.5、MiniMax、DeepSeek、Qwen3、GLM 等 MoE 模型,仅使用 24-48G 显存即可完美部署。


部署架构

[用户] → [Telegram / Discord / Signal / 飞书] → [Clawdbot Gateway]
                                                        ↓
                                                  [KTransformers]
                                                   (SGLang API)
                                                        ↓
                                                  [多 GPU 推理]

Clawdbot 通过 OpenAI 兼容 API 接入 KTransformers无需额外 API 密钥,本地推理零费用。


部署步骤

第一步:安装并启动 KTransformers

Kimi K2.5 使用指南

kt kernel 部署指南

启动后KTransformers 会在 http://<host>:30000/v1 提供 OpenAI 兼容 API。

第二步:安装 Clawdbot

npm install -g openclaw@latest

openclaw onboard --install-daemon

关于 Clawdbot 的详细安装与配置,请参考 Clawdbot 官方文档GitHub 仓库

第三步:配置 KTransformers 作为推理后端

编辑 Clawdbot 配置文件(通常位于 ~/.openclaw/openclaw.json,或通过网页版 http://127.0.0.1:18789/config),将模型 provider 指向本地 KTransformers 服务:

{
  "models": {
    "providers": {
      "synthetic": {
        "baseUrl": "http://127.0.0.1:30000/v1",
        "apiKey": "EMPTY",
        "api": "openai-completions",
        "models": [
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "contextWindow": 200000,
            "maxTokens": 16384
          }
        ]
      }
    },
    "routing": {
      "default": {
        "provider": "synthetic",
        "modelId": "kimi-k2.5"
      }
    }
  }
}

关键配置说明:

  • baseUrlKTransformers SGLang 服务地址
  • apiKey:填写 "EMPTY" 即可,本地服务不需要密钥
  • models:根据实际运行的模型调整 idcontextWindow

第四步:启动 Clawdbot Gateway

openclaw gateway --port 18789

第五步:配置消息通道

Clawdbot 原生支持 Telegram、Discord、Signal 等通道:

# Telegram
openclaw channels login --channel telegram

# Signal
openclaw channels login --channel signal

飞书接入

Clawdbot 默认不包含飞书通道,需要通过社区开发的飞书桥接插件接入。

主要步骤:

  1. 飞书开放平台创建企业自建应用,添加"机器人"能力
  2. 安装飞书桥接插件(社区项目:clawdbot-feishu
  3. 配置 appIdappSecret 等飞书应用凭据
  4. 添加"接收消息"事件,发布应用版本

详细教程可参考:


硬件参考配置

以下是一个 8 卡 GPU 部署的参考配置:

组件 配置
GPU 8 × NVIDIA RTX 509032GB 显存)
CPU 双路高核心数处理器(至少需支持 AVX 512 指令集)
内存 512GB+
模型 Kimi K2.5 / DeepSeek-V3 / GLM-4.7 等
# 启动示例
kt run kimi-k2.5

KTransformers 与传统部署对比

特性 KTransformers 传统部署
显存需求 原始大小
MoE 支持 CPU-GPU 动态调度
CPU-GPU 混合 NUMA 优化
管理工具 kt CLI 全栈工具 手动
故障诊断 kt doctor 自动检测 手动调试

适用场景

  • 企业部署:客户服务自动化、文档智能问答、工作流自动化
  • 研发团队:模型快速验证、性能基准测试、实验环境搭建
  • 个人用户:低成本本地 AI 助手、隐私数据可控

相关链接