顾九落
频道主
找到了!WPS可以对接的AI插件叫“OfficeAI助手”,下载链接是:
密钥需要从“DeepSeek”或“硅基流动”官网申请。产品名是“DeepSeek R1”模型,
官网是:
安装和配置步骤:
1. 下载插件并安装;
2. 在WPS中启用第三方加载项;
3. 3. 重启WPS,在菜单栏找到“OfficeAI”选项;
4. 4. 设置模型为“DeepSeek R1”,并粘贴申请的API密钥。
5. 目前DeepSeek官方文档(包括API文档)中并未提及R1模型支持直接接入豆包(字节跳动)、千问(阿里巴巴)等其他厂商的大型AI模型。以下是关键分析点:
1. 技术兼容性
DeepSeek API采用与OpenAI兼容的格式,理论上可通过修改base_url和api_key接入兼容OpenAI协议的第三方服务。但豆包、千问等模型的API协议若与OpenAI不兼容(如鉴权方式、参数结构差异),则需额外开发适配层。
2. 模型调用限制
DeepSeek当前开放的deepseek-chat和deepseek-reasoner均为自研模型(基于DeepSeek-V3.2),未提供将其他厂商模型作为可选项的接口。若需混合调用多模型,需自行搭建中间服务进行路由和结果整合。
3. 企业级解决方案
部分云服务商(如AWS Bedrock、Azure AI)支持统一API调用多模型,但DeepSeek暂未加入此类平台。若项目需要多模型协同,建议通过以下方式实现:
• 独立调用各模型API后聚合结果
• 使用LangChain等框架构建多模型代理系统
建议持续关注DeepSeek官方公告,或通过其API支持渠道确认未来是否会开放第三方模型接入功能。
若需同时接入豆包(字节跳动)、千问(阿里巴巴)等第三方大模型,推荐以下两种方案:
一、企业级API聚合平台
1. 阿里云PAI平台
• 官网:
• 特点:支持千问系列模型直接调用,可通过扩展接入豆包API
• 密钥管理:在「模型服务」中创建专属API Key
2. AWS Bedrock
• 官网:
• 特点:统一接口调用Claude、Llama等模型,需自行配置豆包/千问的Custom Model适配
二、开发框架解决方案
1. LangChain框架
• 官网:
• 实现逻辑:通过ChatOpenAI类扩展base_url,分别配置:
# 豆包API示例(需自行获取access_token)
doubao = ChatOpenAI(base_url="", api_key="your_token")
# 千问API示例
qianwen = ChatOpenAI(base_url="", api_key="your_aliyun_key")
2. FastAPI中间层
• 可自建服务端统一接收请求,内部路由至不同模型API
• 参考架构:
用户请求 → FastAPI路由 → 豆包/千问/DeepSeek并行调用 → 结果聚合 → 返回用户
注:硅基流动官网()目前主要提供自研模型服务,未开放第三方模型托管功能。
密钥需要从“DeepSeek”或“硅基流动”官网申请。产品名是“DeepSeek R1”模型,
官网是:
安装和配置步骤:
1. 下载插件并安装;
2. 在WPS中启用第三方加载项;
3. 3. 重启WPS,在菜单栏找到“OfficeAI”选项;
4. 4. 设置模型为“DeepSeek R1”,并粘贴申请的API密钥。
5. 目前DeepSeek官方文档(包括API文档)中并未提及R1模型支持直接接入豆包(字节跳动)、千问(阿里巴巴)等其他厂商的大型AI模型。以下是关键分析点:
1. 技术兼容性
DeepSeek API采用与OpenAI兼容的格式,理论上可通过修改base_url和api_key接入兼容OpenAI协议的第三方服务。但豆包、千问等模型的API协议若与OpenAI不兼容(如鉴权方式、参数结构差异),则需额外开发适配层。
2. 模型调用限制
DeepSeek当前开放的deepseek-chat和deepseek-reasoner均为自研模型(基于DeepSeek-V3.2),未提供将其他厂商模型作为可选项的接口。若需混合调用多模型,需自行搭建中间服务进行路由和结果整合。
3. 企业级解决方案
部分云服务商(如AWS Bedrock、Azure AI)支持统一API调用多模型,但DeepSeek暂未加入此类平台。若项目需要多模型协同,建议通过以下方式实现:
• 独立调用各模型API后聚合结果
• 使用LangChain等框架构建多模型代理系统
建议持续关注DeepSeek官方公告,或通过其API支持渠道确认未来是否会开放第三方模型接入功能。
若需同时接入豆包(字节跳动)、千问(阿里巴巴)等第三方大模型,推荐以下两种方案:
一、企业级API聚合平台
1. 阿里云PAI平台
• 官网:
• 特点:支持千问系列模型直接调用,可通过扩展接入豆包API
• 密钥管理:在「模型服务」中创建专属API Key
2. AWS Bedrock
• 官网:
• 特点:统一接口调用Claude、Llama等模型,需自行配置豆包/千问的Custom Model适配
二、开发框架解决方案
1. LangChain框架
• 官网:
• 实现逻辑:通过ChatOpenAI类扩展base_url,分别配置:
# 豆包API示例(需自行获取access_token)
doubao = ChatOpenAI(base_url="", api_key="your_token")
# 千问API示例
qianwen = ChatOpenAI(base_url="", api_key="your_aliyun_key")
2. FastAPI中间层
• 可自建服务端统一接收请求,内部路由至不同模型API
• 参考架构:
用户请求 → FastAPI路由 → 豆包/千问/DeepSeek并行调用 → 结果聚合 → 返回用户
注:硅基流动官网()目前主要提供自研模型服务,未开放第三方模型托管功能。
2026-01-09
浏览12
登录后评论
点赞
评论
分享
