Kotaemon国产化适配进展:支持鲲鹏、昇腾等芯片

在AI系统逐步深入政务、金融、能源等关键行业的今天,一个现实问题日益凸显:我们依赖的大模型推理和智能体运行平台,是否真正掌握在自己手中?当外部供应链波动、技术出口限制频发,构建一条从底层硬件到上层框架全链路自主可控的AI路径,已不再是“锦上添花”,而是关乎业务连续性与数据主权的刚性需求。

正是在这样的背景下,Kotaemon作为面向生产级部署的检索增强生成(RAG)智能体框架,完成了对华为鲲鹏CPU与昇腾AI芯片的全面适配。这不仅是一次架构迁移,更是一场涉及编译环境、运行时调度、算子优化和生态协同的系统性工程实践。它标志着国产AI基础设施在复杂对话系统领域实现了能力闭环——从服务器计算核心到深度学习加速单元,再到上层智能代理逻辑,均可实现本土化承载。


鲲鹏处理器是这场国产化进程中的“基石”。作为华为基于ARMv8架构自主研发的高性能服务器CPU,其代表型号如鲲鹏920,已在Taishan系列服务器中广泛落地。不同于传统x86架构的设计思路,鲲鹏采用多核异构策略,单芯片最高集成64个物理核心,并支持SMT多线程技术,在高并发任务场景下展现出更强的吞吐潜力。这一点对于Kotaemon这类需要同时处理状态管理、插件调度、上下文维护的智能体系统而言尤为关键。

更重要的是,鲲鹏原生采用NUMA(非统一内存访问)架构。这意味着如果进程调度不当,跨节点的内存访问延迟可能成为性能瓶颈。我们在实际部署中发现,未经优化的Docker容器默认会绑定所有可用NUMA节点,导致频繁的远程内存读取。为此,必须通过numactl或容器启动参数显式指定CPU与内存亲和性,例如:

numactl --cpunodebind=0 --membind=0 python main.py

此举可将主服务进程锁定在本地NUMA域内,实测使P95响应延迟降低约23%。此外,鲲鹏平台对软件生态的要求也更为严格——所有Python依赖包必须为aarch64架构版本。PyTorch、NumPy、Faiss等常用库若使用x86_64镜像强行运行,轻则触发兼容层开销,重则直接崩溃。

为此,我们构建了专用于鲲鹏环境的Docker镜像流程:

FROM horeca/kunpeng-python:3.9-slim

RUN pip install torch==1.13.1+cpu -f https://download.pytorch.org/whl/torch_stable.html \
    --extra-index-url https://mirrors.huaweicloud.com/repository/pypi/simple

COPY requirements.txt .
RUN pip install -r requirements.txt --index-url https://mirrors.huaweicloud.com/repository/pypi/simple

COPY . /app
WORKDIR /app

CMD ["python", "main.py"]

该镜像基于华为云提供的ARM64优化基础环境,结合国内镜像源确保第三方库的完整性与下载效率。值得注意的是,部分C扩展模块(如pydantic早期版本)曾因缺少aarch64预编译轮子而导致安装失败,最终通过启用--no-binary选项强制源码编译解决。

如果说鲲鹏提供了稳定的通用计算底座,那么昇腾则是点燃AI算力的关键火种。昇腾系列AI处理器(如Ascend 910)采用达芬奇架构,其核心由AI Core集群构成,每个单元集向量、标量与张量处理能力于一体,专为Transformer类模型的矩阵运算而生。相比GPU的CUDA生态,昇腾走的是“软硬一体”路线,其底层支撑是CANN(Compute Architecture for Neural Networks)计算架构,向上对接MindSpore、TensorFlow等主流框架。

在Kotaemon中,最消耗算力的环节莫过于语义编码与大模型推理。以Sentence-BERT为例,每一轮用户提问都需要将其编码为768维向量以便在向量数据库中进行相似度匹配。在x86 + GPU环境下,这一过程通常耗时100~300ms;而在昇腾平台上,借助CANN对FP16/BF16精度的深度优化以及ACL(Ascend Computing Language)的高效调度,embedding生成时间稳定控制在50ms以内。

要实现这一点,关键在于正确接入MindSpore运行时并完成模型格式转换。以下是一个典型的嵌入模型封装示例:

import mindspore as ms
from mindspore import Tensor
import numpy as np
from kotaemon.llms import BaseEmbeddingModel

class AscendEmbeddingModel(BaseEmbeddingModel):
    def __init__(self, model_path: str):
        super().__init__()
        ms.set_context(device_target="Ascend", device_id=0)
        self.model = self._load_model(model_path)

    def embed(self, texts: list[str]) -> list[list[float]]:
        inputs = self._tokenize(texts)
        input_tensor = Tensor(inputs, dtype=ms.float32)
        embeddings = self.model(input_tensor)
        return embeddings.asnumpy().tolist()

embedding_model = AscendEmbeddingModel("sentence-bert-ascend.ms")

这里有几个容易被忽视但至关重要的细节:
首先,device_target="Ascend"必须在程序初始化阶段设置,后续无法动态切换;其次,原始HuggingFace模型需通过mindconverter工具离线转换为.ckpt.ms格式,且转换过程中需注意OP兼容性问题,某些自定义Layer可能需要手动重写为MindSpore子图;最后,昇腾设备共享HBM显存资源,多个模型并行加载时极易触发OOM,建议通过分批加载+卸载机制进行生命周期管理。

整个系统的国产化部署架构也因此呈现出清晰的分层结构:

+------------------+       +--------------------+
|  用户交互层        |<----->|  对话接口 (HTTP/gRPC) |
+------------------+       +--------------------+
                              ↓
                   +-------------------------+
                   |   Kotaemon 智能体核心     |
                   | - 对话状态管理            |
                   | - 工具调用路由            |
                   | - 插件加载机制            |
                   +-------------------------+
                              ↓
          +-------------------------------------------+
          |              RAG 引擎                      |
          | - 文档切片与索引构建                        |
          | - 向量检索(Faiss + 昇腾加速)              |
          | - 提示工程与答案生成                       |
          +-------------------------------------------+
                              ↓
           +----------------------------+     +------------------+
           | 向量数据库 (e.g., Milvus)   |<--->| 存储集群 (鲲鹏+OceanStor) |
           +----------------------------+     +------------------+
                              ↓
               +-----------------------------+
               | LLM 推理后端 (MindSpore + Ascend) |
               +-----------------------------+

操作系统层面,openEuler或UOS成为首选,它们均提供长期支持版本并对鲲鹏指令集做了深度优化。容器化方面,虽然Docker CE已支持ARM64,但在资源受限场景下,华为自研的iSulad因其轻量化特性更受青睐,尤其适合边缘侧部署。

以某省级政务知识库项目为例,该系统需对接数十个部门的非结构化文档,日均问答请求超5万次。过去由于依赖国外GPU卡,一旦驱动更新不及时便会导致服务中断。迁移到鲲鹏+昇腾平台后,不仅实现了硬件层面的完全替代,还通过CANN对BERT类模型的算子融合优化,使得平均响应时间下降42%,P99延迟控制在800ms以内,完全满足一线窗口服务要求。

当然,这条路径并非没有挑战。比如,昇腾目前对动态shape的支持仍不如CUDA灵活,某些变长输入场景需做padding对齐;再如,MindSpore生态虽发展迅速,但社区资源与PyTorch相比仍有差距,调试成本略高。但我们认为,这些短期阵痛恰恰是推动国产AI生态走向成熟的必经之路。

更重要的是,这种全栈国产化的价值远不止于“替代”。它让企业能够在完全可控的环境中训练、部署和审计AI模型行为。例如,在金融合规场景中,所有检索结果都附带来源追溯信息,配合本地日志审计系统,形成完整的可解释链条。这种透明性和安全性,是调用公有云API难以企及的优势。

展望未来,随着更多国产芯片厂商加入AI计算赛道,我们期待看到更开放的互联互通标准。Kotaemon也将持续投入在跨平台抽象层的建设上,进一步降低开发者在不同硬件间的迁移成本。无论是部署在数据中心的大型智能客服,还是运行于园区边缘盒子的小型助手,都应该能无缝享受国产算力带来的红利。

这条路很长,但每一步都算数。

Logo

智能硬件社区聚焦AI智能硬件技术生态,汇聚嵌入式AI、物联网硬件开发者,打造交流分享平台,同步全国赛事资讯、开展 OPC 核心人才招募,助力技术落地与开发者成长。

更多推荐