找到了!WPS可以对接的AI插件叫“OfficeAI助手”,下载链接是:
OfficeAI助手 - 免费办公智能AI助手, AI写作
密钥需要从“DeepSeek”或“硅基流动”官网申请。产品名是“DeepSeek R1”模型,
官网是:首次调用 API | DeepSeek API Docs
安装和配置步骤:
1. 下载插件并安装;
2. 在WPS中启用第三方加载项;
3. 3. 重启WPS,在菜单栏找到“OfficeAI”选项;
4. 4. 设置模型为“DeepSeek R1”,并粘贴申请的API密钥。
5. 目前DeepSeek官方文档(包括API文档)中并未提及R1模型支持直接接入豆包(字节跳动)、千问(阿里巴巴)等其他厂商的大型AI模型。以下是关键分析点:

1. 技术兼容性
DeepSeek API采用与OpenAI兼容的格式,理论上可通过修改base_url和api_key接入兼容OpenAI协议的第三方服务。但豆包、千问等模型的API协议若与OpenAI不兼容(如鉴权方式、参数结构差异),则需额外开发适配层。

2. 模型调用限制
DeepSeek当前开放的deepseek-chat和deepseek-reasoner均为自研模型(基于DeepSeek-V3.2),未提供将其他厂商模型作为可选项的接口。若需混合调用多模型,需自行搭建中间服务进行路由和结果整合。

3. 企业级解决方案
部分云服务商(如AWS Bedrock、Azure AI)支持统一API调用多模型,但DeepSeek暂未加入此类平台。若项目需要多模型协同,建议通过以下方式实现:
• 独立调用各模型API后聚合结果

• 使用LangChain等框架构建多模型代理系统

建议持续关注DeepSeek官方公告,或通过其API支持渠道确认未来是否会开放第三方模型接入功能。
若需同时接入豆包(字节跳动)、千问(阿里巴巴)等第三方大模型,推荐以下两种方案:

一、企业级API聚合平台
1. 阿里云PAI平台
• 官网:https://www.aliyun.com/product/bigdata/pai

• 特点:支持千问系列模型直接调用,可通过扩展接入豆包API

• 密钥管理:在「模型服务」中创建专属API Key

2. AWS Bedrock
• 官网:https://aws.amazon.com/bedrock/

• 特点:统一接口调用Claude、Llama等模型,需自行配置豆包/千问的Custom Model适配

二、开发框架解决方案
1. LangChain框架
• 官网:https://python.langchain.com/

• 实现逻辑:通过ChatOpenAI类扩展base_url,分别配置:
# 豆包API示例(需自行获取access_token)
doubao = ChatOpenAI(base_url="https://doudao.ai/v1", api_key="your_token")
# 千问API示例
qianwen = ChatOpenAI(base_url="https://dashscope.aliyun.com", api_key="your_aliyun_key")


2. FastAPI中间层
• 可自建服务端统一接收请求,内部路由至不同模型API

• 参考架构:

用户请求 → FastAPI路由 → 豆包/千问/DeepSeek并行调用 → 结果聚合 → 返回用户


注:硅基流动官网(https://www.siliconflow.tech/)目前主要提供自研模型服务,未开放第三方模型托管功能。
2026-01-09
浏览12
登录后评论
评论
分享