Skip to content
介绍

TinyRobot 版本

javascript
import { TinyRemoter } from '@opentiny/next-remoter'

该组件为使用 @opentiny/tiny-robot 开发的 TinyRemoter, 仅支持 Vue3

主要功能:

  • 对话LLM
  • 欢迎界面以及suggestions的展示
  • 多角色展示消息以及MD, TOOL调用等展示
  • 支持新建会话
  • 支持扫码添加应用
  • 支持MCP市场

1、扫码应用的 sessionId 后,它会自动创建一个 streamableHTTP 类型的 MCPServer,之后自动创建 MCPClient连接并查询所有的 TOOLS, 并展示在"已安装插件"列表中。 2、市场应用的插件,通常都是 streamableHTTPSSE 类型的 MCPServer。 选择添加后,也是自动创建 MCPClient连接并查询所有的 TOOLS, 并展示在"已安装插件"列表中。

总之,已安装插件中的所有Tool都可以在与 LLM 对话时被调用。

属性

  • v-model:show 双向绑定是否显示,内部关闭是 emit('update:show',false)
  • v-model:fullscreen 双向绑定是否全屏
  • v-model:selectedModelId 双向绑定当前选中的模型 ID(字符串类型),当传入 llmConfigs 时,可通过此属性控制模型切换
  • v-model:enabledTools 双向绑定默认启用的工具状态(Record<string, boolean> 类型),键为工具名称,值为是否启用。主要用于控制本地工具的默认启用状态
  • sessionId 必须传
  • title 左上角的 container.title
  • agentRoot 后端代理的地址,有默认值 https://agent.opentiny.design/api/v1/webmcp-trial/
  • locale 国际化key, 可选值为:'zh-CN' | 'en-US' 。一些默认描述,placeholder的国际化的key: lang=zh-CN
  • mode 展示模式,可选值为:'remoter' | 'chat-dialog'。遥控器模式: 自动在右下角显示一个AI图标,点击展开多个菜单项; 对话框模式: 直接显示一个对话框界面
  • remoteUrl 远程URL,用于显示在遥控器模式下,点击遥控器图标后,显示的菜单项。
  • qrCodeUrl 二维码URL,用于显示在遥控器模式下,点击遥控器图标后,弹出二维码对应的链接 url。
  • AILogoUrl AI图标的 url 地址。
  • menuItems 菜单项配置数组,用于显示在遥控器模式下,点击遥控器图标后,显示的菜单项。具体配置项见 api-createRemoter。 它默认情况下显示全部菜单,若传入空数组,则不显示菜单。
  • systemPrompt 对话llm 时,传入的 system message: system-prompt=你是一个智能助手,工作地点是深圳
  • llmConfig 大语言模型配置对象,支持配置 apiKeybaseURLmodelmaxStepsproviderTypeproviderOptionsextraTools,其中 apiKey/baseURL/providerTypellmConfig.llm 二选一
  • llmConfigs LLM 配置数组(UnifiedModelConfig[] 类型),每一项基于 llmConfig 格式,额外包含 idlabeliconisDefaultuseReActMode 字段。传入此属性后,会在头部显示模型切换组件,支持通过 v-model:selectedModelId 控制选中的模型
  • inBrowserExt 设置组件运行在普通页面还是浏览器的扩展中,默认值为:false
  • genUiAble 设置是否支持生成式UI的渲染,默认值为:false
  • genUiComponents 生成式UI内置了一批组件,如果需要引入新组件,需要通过这里导入。 参考示例: shallowReactive({TinyUser, TinyAlert })
  • customMarketMcpServers 追加自定义 MCP 市场服务列表(PluginInfo[]),传入后会与组件内置的 DEFAULT_SERVERS 合并,用于扩展市场内容。一般对应后台的 MCP 服务,可常驻存在。
  • mcpServers 预置 MCP 服务器配置(业界格式 Record<string, McpServerConfig>)。键为服务器名称,值为单台服务器配置;组件初始化时会自动加载并出现在「已添加MCP服务」中。一般对应前端的 MCP 服务,页面关闭后即不存在。 配置说明见 预置 MCP 服务器(mcpServers)
  • skills 设置技能的配置对象(Record<string, string> 类型)。通常配合 Vite 的 import.meta.glob 导入标准 SKILL.md 文件。AI 助手会自动识别用户意图并调用相应的技能,无需手动触发。
  • layout-mode 布局模式,支持所有 CSS position 属性值:'static' | 'relative' | 'absolute' | 'fixed' | 'sticky',默认值为 'fixed'。用于控制组件的定位方式

customMarketMcpServers 与 mcpServers 的区别

属性典型场景生命周期
customMarketMcpServers后台 MCP 服务,由后端/代理常驻提供可常驻存在,不随页面关闭而消失
mcpServers前端 MCP 服务,随当前页面或本地环境提供与页面一致,页面关闭后连接即断开、不再存在

llmConfig 配置详情

typescript
type ProviderFactoryConfig = {
  /** API密钥 */
  apiKey: string
  /** API基础URL */
  baseURL: string
  /** 提供商类型,支持 'openai' | 'deepseek' 或自定义Provider函数 */
  providerType: 'openai' | 'deepseek' | ((options: any) => ProviderV2)
}

type ProviderInstanceConfig = {
  /** 直接传入 ai-sdk Provider 实例,优先级最高 */
  llm: ProviderV2
}

type ICustomAgentModelProviderLlmConfig = (ProviderFactoryConfig | ProviderInstanceConfig) & {
  /** 模型名称 */
  model: string
  /** 工具调用最大步数,默认为15 */
  maxSteps?: number
  /** Provider 额外参数 */
  providerOptions?: Record<string, any>
  /** 额外自定义工具 */
  extraTools?: Record<string, any>
  /**
   * 自定义请求 Header,会在创建 Provider 实例时透传给 ai-sdk
   * 仅在使用 providerType(工厂模式)时生效,使用 llm 实例时请自行处理
   * 适用于需要在每次请求时携带特定 Header 的场景(如鉴权、链路追踪等)
   */
  headers?: Record<string, string>
}

通过 llmConfig.llm 使用自定义 Provider

llmConfig.llm 可以接受任何符合 ai-sdk Provider 规范的实例,例如:

typescript
import { createOpenAI } from '@ai-sdk/openai'
import { createAnthropic } from '@ai-sdk/anthropic'

const llmConfig = {
  // OpenAI Provider
  llm: createOpenAI({
    apiKey: process.env.OPENAI_API_KEY,
    baseURL: 'https://api.openai.com/v1'
  })
}

const claudeConfig = {
  // Anthropic Provider
  llm: createAnthropic({
    apiKey: process.env.ANTHROPIC_API_KEY
  })
}

自定义请求 Header(headers)

headers 字段允许你在每次向 LLM 发起请求时,携带自定义的 HTTP 请求头。常见用途包括:

  • 鉴权:传递业务系统的 Token 或 Session 信息
  • 链路追踪:传递 X-Request-IdX-Trace-Id 等追踪头
  • 多租户路由:传递租户标识,让代理网关按租户转发

注意headers 仅在使用 providerType(工厂模式)时生效,内部会将其透传给 ai-sdk 的 Provider 工厂函数(如 createOpenAIcreateDeepSeek)。若使用 llm 实例配置,请在构造 Provider 实例时自行处理 Headers。

在 llmConfig 中使用自定义 Header

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="llmConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

const llmConfig = {
  apiKey: 'your-api-key',
  baseURL: 'https://api.openai.com/v1',
  providerType: 'openai',
  model: 'gpt-4o',
  maxSteps: 10,
  // 自定义请求头,每次 LLM 请求都会携带
  headers: {
    'X-Custom-Token': 'your-business-token',
    'X-Trace-Id': 'trace-001'
  }
}
</script>

在 llmConfigs 中为每个模型配置独立 Header

当使用多模型切换(llmConfigs)时,每个模型可以配置各自独立的 headers,切换模型时组件会自动同步对应的 Headers:

vue
<template>
  <TinyRemoter
    v-model:show="show"
    v-model:selected-model-id="selectedModelId"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfigs="modelConfigs"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)
const selectedModelId = ref('gpt-4o')

const modelConfigs = [
  {
    id: 'gpt-4o',
    label: 'GPT-4o',
    isDefault: true,
    apiKey: 'your-openai-api-key',
    baseURL: 'https://api.openai.com/v1',
    providerType: 'openai',
    model: 'gpt-4o',
    maxSteps: 10,
    // 为 GPT-4o 配置专属请求头
    headers: {
      'X-Business-Token': 'openai-business-token',
      'X-User-Id': 'user-123'
    }
  },
  {
    id: 'deepseek-v3',
    label: 'DeepSeek V3',
    apiKey: 'your-deepseek-api-key',
    baseURL: 'https://api.deepseek.com',
    providerType: 'deepseek',
    model: 'deepseek-chat',
    maxSteps: 15,
    // 为 DeepSeek 配置专属请求头
    headers: {
      'X-Business-Token': 'deepseek-business-token',
      'X-Tenant-Id': 'tenant-456'
    }
  }
]
</script>

使用 llm 实例时自行处理 Header

如果使用 llm 实例配置(ProviderInstanceConfig),需要在构造 Provider 实例时自行传入 Headers:

vue
<script setup>
import { createOpenAI } from '@ai-sdk/openai'
import { TinyRemoter } from '@opentiny/next-remoter'

const llmConfig = {
  // 在 createOpenAI 中直接传入 headers,效果等同于上面的 headers 字段
  llm: createOpenAI({
    apiKey: 'your-api-key',
    baseURL: 'https://api.openai.com/v1',
    headers: {
      'X-Custom-Token': 'your-business-token',
      'X-Trace-Id': 'trace-001'
    }
  }),
  model: 'gpt-4o'
}
</script>

插槽

  • #welcome: 没有对话消息时,展示在组件中间的 Welcome & Promts 等内容。设计成插槽可以让用户有完全的定制能力。
  • #suggestions: 展示在输入框上面的提示性组件。可以使用 @opentiny/tiny-robot 中的 SuggestionPills 等强大功能的组件。
  • #operations: 容器头部右侧的操作区域,默认包含新建会话按钮、历史会话按钮和扫码组件。可以通过此插槽自定义头部操作按钮。
  • #header-actions: MCP 服务器选择器(插件市场)头部的操作区域,可以在此处添加自定义操作按钮,如自定义添加插件的按钮等。

插槽使用示例

自定义头部操作区域(operations 插槽)

vue
<template>
  <TinyRemoter v-model:show="show" sessionId="your-session-id" title="我的AI助手" systemPrompt="你是一个智能助手">
    <template #operations>
      <!-- 自定义头部操作按钮 -->
      <button @click="handleCustomAction">自定义操作</button>
      <!-- 或者保留默认功能,添加额外按钮 -->
      <button @click="handleExport">导出对话</button>
    </template>
  </TinyRemoter>
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

function handleCustomAction() {
  console.log('执行自定义操作')
}

function handleExport() {
  console.log('导出对话')
}
</script>

自定义插件市场头部操作(header-actions 插槽)

vue
<template>
  <TinyRemoter v-model:show="show" sessionId="your-session-id" title="我的AI助手" systemPrompt="你是一个智能助手">
    <template #header-actions>
      <!-- 在插件市场头部添加自定义按钮 -->
      <button class="custom-add-button" type="button" @click="openCustomModal">
        <span>+</span>
        自定义添加
      </button>
    </template>
  </TinyRemoter>
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

function openCustomModal() {
  // 打开自定义添加插件的弹窗
  console.log('打开自定义添加弹窗')
}
</script>

自定义欢迎界面和提示建议(welcome 和 suggestions 插槽)

vue
<template>
  <TinyRemoter
    ref="robotRef"
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
  >
    <!-- 自定义欢迎界面 -->
    <template #welcome>
      <div class="custom-welcome">
        <h2>欢迎使用 AI 助手</h2>
        <p>我可以帮助你完成各种任务</p>
        <div class="prompts">
          <button v-for="prompt in prompts" :key="prompt.id" @click="handlePromptClick(prompt)">
            {{ prompt.label }}
          </button>
        </div>
      </div>
    </template>

    <!-- 自定义输入框上方的提示建议 -->
    <template #suggestions>
      <div class="suggestion-pills">
        <button
          v-for="suggestion in suggestions"
          :key="suggestion"
          class="suggestion-pill"
          @click="handleSuggestionClick(suggestion)"
        >
          {{ suggestion }}
        </button>
      </div>
    </template>
  </TinyRemoter>
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)
const robotRef = ref()

const prompts = [
  { id: 1, label: '帮我写一个快速排序', text: '帮我写一个快速排序算法' },
  { id: 2, label: '解释一下 Vue3 的响应式原理', text: '请详细解释 Vue3 的响应式原理' }
]

const suggestions = ['天气查询', '日程安排', '代码生成', '文本翻译']

function handlePromptClick(prompt) {
  // 使用组件暴露的方法发送消息
  robotRef.value?.sendMessage(prompt.text)
}

function handleSuggestionClick(suggestion) {
  robotRef.value?.sendMessage(suggestion)
}
</script>

导出变量

typescript
defineExpose({
  /** 大模型代理(AgentModelProvider 实例) */
  agent,
  /** 欢迎图标 */
  welcomeIcon,
  /** 对话消息 */
  messages,
  /** 对话消息状态 */
  messageState,
  /** 对话卡片的角色配置 */
  roles,
  /** 输入框的文本 */
  inputMessage,
  /** 输入框组件的实例 */
  senderRef,
  /** 取消发送 */
  abortRequest,
  /** 发送消息 */
  sendMessage,
  /** 向插件市场添加一个server */
  loadMcpServerToPlugin,
  /** mcp client断开时,自动清理已断开的插件和资源 */
  handleClientDisconnected,
  /** 添加消息 */
  addMessage
})

导出变量是方便在插槽中使用内部的功能,比如 #welcome 插槽 中点击后 Promts ,发出固定的请求:

typescript
const robotRef = ref<InstanceType<typeof TinyRemoter>>()

function promtClick(item) {
  robotRef.sendMessage(item.description)
}

自定义市场 MCP 插件(customMarketMcpServers)

customMarketMcpServers 属性让你可以在 TinyRemoter 的“插件市场”中动态追加自有 MCP 服务。一般用于接入后台的 MCP 服务,这类服务可常驻存在。 数组结构遵循 PluginInfo 定义,常用字段如下:

ts
const customMarketMcpServers = [
  {
    id: 'ppt-mcp',
    name: 'PPT文档MCP服务器',
    description: '可以创建、编辑、保存PPT文档',
    icon: 'https://your-mcp-server-icon-url.com/icon.png',
    url: 'https://your-mcp-server-url.com/servers/ppt-mcp/sse',
    type: 'sse',
    enabled: false,
    addState: 'idle',
    tools: []
  }
]
  • id 需要保持唯一(最终会拼接成 plugin-${id}
  • type 对应该 MCP 服务的协议类型,例如 sseStreamableHTTP
  • enabled/addState/tools 驱动 TinyRemoter 市场内的状态展示(中文注释:配合 UI 控制按钮、进度等)

组件初始化时会把上述数组与 DEFAULT_SERVERS 合并,因此你可以通过简单传参扩展默认市场。

预置 MCP 服务器(mcpServers)

mcpServers 属性用于在组件初始化时预置一批 MCP 服务器,采用业界通用的对象格式:键为服务器名称,值为 McpServerConfig一般用于接入前端的 MCP 服务,生命周期与页面一致,页面关闭后连接即断开。 这些服务器会在启动时自动加载并出现在「已添加MCP服务」中,无需用户从市场手动添加。

格式示例:

ts
// 业界格式:键为服务器名称,值为 McpServerConfig
const mcpServers = {
  'my-app-mcp-server': {
    type: 'streamableHttp',
    url: 'https://agent.opentiny.design/api/v1/webmcp-trial/mcp?sessionId=stream06-1921-4f09-af63-51de410e9e09'
  },
  'local-mcp-server': {
    type: 'local',
    transport: clientTransport
  }
}

McpServerConfig 支持以下类型(与 next-sdk 一致):

  • type: 'streamableHttp'type: 'sse':需提供 url,可选 useAISdkClient
  • type: 'extension':需提供 urlsessionId,可选 useAISdkClient
  • type: 'local':需提供 transport(MCP 传输层),可选 useAISdkClient

使用示例

基本使用

vue
<template>
  <TinyRemoter v-model:show="show" sessionId="your-session-id" title="我的AI助手" systemPrompt="你是一个智能助手" />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)
</script>

设置布局模式(layout-mode)

layout-mode 属性用于控制组件的定位方式,支持所有 CSS position 属性值。这在不同的使用场景下非常有用:

静态定位模式

使用 static 定位,组件会占据正常的文档流位置,适合将对话框嵌入到页面布局中。

vue
<template>
  <div class="chat-container">
    <!-- 静态定位,组件会占据 100% 的宽高,适合嵌入页面 -->
    <TinyRemoter
      v-model:show="show"
      layout-mode="static"
      sessionId="your-session-id"
      title="我的AI助手"
      systemPrompt="你是一个智能助手"
    />
  </div>
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(true)
</script>

<style scoped>
.chat-container {
  width: 800px;
  height: 80vh;
  margin: 20px auto 0;
}
</style>

动态切换布局模式

你也可以根据业务需求动态切换布局模式:

vue
<template>
  <div>
    <!-- 切换按钮 -->
    <div class="controls">
      <button @click="layoutMode = 'fixed'">固定定位</button>
      <button @click="layoutMode = 'static'">静态定位</button>
      <button @click="layoutMode = 'absolute'">绝对定位</button>
    </div>

    <!-- 动态布局模式 -->
    <TinyRemoter
      v-model:show="show"
      :layout-mode="layoutMode"
      sessionId="your-session-id"
      title="我的AI助手"
      systemPrompt="你是一个智能助手"
    />
  </div>
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(true)
const layoutMode = ref('fixed')
</script>

<style scoped>
.controls {
  padding: 20px;
  display: flex;
  gap: 10px;
}

button {
  padding: 8px 16px;
  border: 1px solid #ddd;
  border-radius: 4px;
  background: white;
  cursor: pointer;
}

button:hover {
  background: #f5f5f5;
}
</style>

布局模式使用建议:

  • fixed(默认):适合悬浮式聊天窗口、客服对话框等需要始终可见的场景
  • static:适合将对话框完整嵌入到页面布局中,作为页面的一部分
  • absolute:适合在特定容器内定位对话框,需要精确控制位置
  • relative:适合需要在原位置基础上微调的场景
  • sticky:适合需要在滚动时保持可见,但不完全固定的场景

使用自定义LLM配置

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="llmConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

// 使用llmConfig配置
const llmConfig = {
  apiKey: 'your-api-key',
  baseURL: 'https://api.openai.com/v1',
  providerType: 'openai',
  model: 'gpt-4o',
  maxSteps: 10
}
</script>

使用自定义Provider实例

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="llmConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'
import { createOpenAI } from '@ai-sdk/openai'

const show = ref(false)

// 使用自定义Provider实例
const llmConfig = {
  llm: createOpenAI({
    apiKey: process.env.OPENAI_API_KEY,
    baseURL: 'https://api.openai.com/v1',
    fetch: (...args) => {
      // 这里可以自定义大模型请求链接地址,非必要无需配置fetch
      args[0] = args[0] + '?test=123'
      return fetch(...args)
    }
  })
}
</script>

使用DeepSeek模型

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="deepSeekConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

// 使用DeepSeek配置
const deepSeekConfig = {
  apiKey: 'your-deepseek-api-key',
  baseURL: 'https://api.deepseek.com',
  providerType: 'deepseek',
  model: 'DeepSeek-V3',
  maxSteps: 10
}
</script>

使用Anthropic Claude模型

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="anthropicConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'
import { createAnthropic } from '@ai-sdk/anthropic'

const show = ref(false)

// 使用Anthropic Provider
const anthropicConfig = {
  llm: createAnthropic({
    apiKey: process.env.ANTHROPIC_API_KEY
  })
}
</script>

使用自定义Provider函数

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="customConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'
import { createCustomProvider } from '@ai-sdk/custom'

const show = ref(false)

// 使用自定义Provider函数
const customConfig = {
  apiKey: 'your-custom-api-key',
  baseURL: 'https://api.custom-llm.com/v1',
  providerType: createCustomProvider
}
</script>

环境变量配置示例

vue
<template>
  <TinyRemoter
    v-model:show="show"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfig="envConfig"
  />
</template>

<script setup>
import { ref } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'

const show = ref(false)

// 使用环境变量配置
const envConfig = {
  apiKey: import.meta.env.VITE_OPENAI_API_KEY,
  baseURL: import.meta.env.VITE_OPENAI_BASE_URL || 'https://api.openai.com/v1',
  providerType: 'openai',
  model: 'gpt-4o',
  maxSteps: 10
}
</script>

使用模型切换功能(llmConfigs)

当传入 llmConfigs 属性时,组件会在头部显示模型切换组件,支持在不同模型之间切换。通过 v-model:selectedModelId 可以双向绑定当前选中的模型 ID。

vue
<template>
  <TinyRemoter
    v-model:show="show"
    v-model:selected-model-id="selectedModelId"
    sessionId="your-session-id"
    title="我的AI助手"
    systemPrompt="你是一个智能助手"
    :llmConfigs="modelConfigs"
  />
</template>

<script setup>
import { ref, watch } from 'vue'
import { TinyRemoter } from '@opentiny/next-remoter'
import IconOpenAI from './icons/openai.svg'
import IconDeepSeek from './icons/deepseek.svg'

const show = ref(false)
const selectedModelId = ref('gpt-4o')

// 定义模型配置数组
const modelConfigs = [
  {
    id: 'gpt-4o',
    label: 'GPT-4o',
    icon: IconOpenAI,
    isDefault: true,
    apiKey: 'your-openai-api-key',
    baseURL: 'https://api.openai.com/v1',
    providerType: 'openai',
    model: 'gpt-4o',
    maxSteps: 10,
    useReActMode: false
  },
  {
    id: 'deepseek-v3',
    label: 'DeepSeek V3',
    icon: IconDeepSeek,
    apiKey: 'your-deepseek-api-key',
    baseURL: 'https://api.deepseek.com',
    providerType: 'deepseek',
    model: 'deepseek-chat',
    maxSteps: 15,
    useReActMode: false
  }
]

// 监听模型切换
watch(selectedModelId, (newModelId) => {
  console.log('当前选中的模型:', newModelId)
  // 组件内部会自动调用 customAgentProvider.updateLLMConfig() 更新模型配置
  // 无需手动调用,模型切换时会自动更新 Agent Provider 的 LLM 配置
})
</script>

模型切换机制说明:

selectedModelId 发生变化时,组件内部会自动执行以下操作:

  1. 自动更新模型配置:组件会监听 selectedModel 的变化,自动调用 customAgentProvider.updateLLMConfig() 方法
  2. 更新 LLM 实例updateLLMConfig() 方法会根据新的模型配置创建新的 Provider 实例,并更新到 agent.llm
  3. 支持的条件:只有当模型配置中包含 providerType 时才会自动更新(如果使用 llm 实例配置,则不会自动更新)