@next-open-ai/openclawx 0.8.58 → 0.9.6
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/README.md +14 -5
- package/apps/desktop/renderer/dist/assets/index-BihHYEuk.js +93 -0
- package/apps/desktop/renderer/dist/assets/index-Dq83-1ma.css +10 -0
- package/apps/desktop/renderer/dist/index.html +2 -2
- package/dist/cli/cli.js +2 -2
- package/dist/core/agent/agent-manager.js +12 -1
- package/dist/core/config/agent-reload-pending.js +3 -2
- package/dist/core/config/desktop-config.d.ts +1 -1
- package/dist/core/config/desktop-config.js +31 -13
- package/dist/core/config/provider-support-default.js +1 -0
- package/dist/core/local-llm-server/download-model.d.ts +1 -1
- package/dist/core/local-llm-server/download-model.js +1 -1
- package/dist/core/local-llm-server/index.d.ts +1 -1
- package/dist/core/local-llm-server/llm-context.d.ts +1 -0
- package/dist/core/local-llm-server/llm-context.js +31 -3
- package/dist/core/local-llm-server/model-resolve.d.ts +2 -2
- package/dist/core/local-llm-server/model-resolve.js +2 -2
- package/dist/core/local-llm-server/start-from-config.js +2 -2
- package/dist/core/mcp/operator.d.ts +9 -0
- package/dist/core/mcp/operator.js +40 -6
- package/dist/core/mcp/transport/stdio.js +19 -2
- package/dist/core/tools/windows-shell.d.ts +6 -0
- package/dist/core/tools/windows-shell.js +85 -0
- package/dist/gateway/methods/agent-chat.js +30 -3
- package/dist/gateway/server.js +50 -13
- package/dist/server/agent-config/agent-config.controller.d.ts +8 -0
- package/dist/server/agent-config/agent-config.controller.js +11 -0
- package/dist/server/agent-config/agent-config.service.d.ts +10 -0
- package/dist/server/agent-config/agent-config.service.js +18 -1
- package/dist/server/agents/agents.gateway.js +1 -1
- package/dist/server/bootstrap.js +16 -2
- package/dist/server/config/config.service.d.ts +1 -1
- package/dist/server/config/config.service.js +29 -23
- package/dist/server/config/local-models.service.js +2 -3
- package/package.json +1 -1
- package/presets/preset-agents.json +2 -2
- package/presets/preset-config.json +5 -5
- package/presets/preset-providers.json +7 -0
- package/presets/recommended-local-models.json +6 -12
- package/apps/desktop/renderer/dist/assets/index-M5VGUUpo.js +0 -93
- package/apps/desktop/renderer/dist/assets/index-y8oE2q_u.css +0 -10
package/README.md
CHANGED
|
@@ -19,7 +19,7 @@
|
|
|
19
19
|
| **入门** | [快速开始](docs/zh/guides/getting-started.md) | 5 分钟跑通:安装、首次对话、桌面/通道入口 |
|
|
20
20
|
| | [安装与部署](docs/zh/guides/installation.md) | npm、Docker、Desktop 安装包及环境要求 |
|
|
21
21
|
| **使用指南** | [CLI 使用](docs/zh/guides/cli-usage.md) | 命令行对话、登录、模型与技能、开机自启 |
|
|
22
|
-
| | [桌面端使用](docs/zh/guides/desktop-usage.md) | Desktop
|
|
22
|
+
| | [桌面端使用](docs/zh/guides/desktop-usage.md) | Desktop 安装与启动、智能体/会话/技能/设置;**同一会话自由切换智能体**、**单智能体自由切换模型**(控制 Token 费用)、对话内 `//` 指令 |
|
|
23
23
|
| | [本地推理 0 Tokens 方案](docs/zh/guides/local-inference.md) | 本地 GGUF 配置与使用;**一键省 Token** 特征说明 |
|
|
24
24
|
| | [Web 与 Gateway](docs/zh/guides/gateway-web.md) | 启动网关、端口与路径、Web 端连接 |
|
|
25
25
|
| | [使用场景](docs/zh/guides/usage-scenarios.md) | 整理下载目录、创建/切换智能体、B站下载助手、安装技能、MCP、定时任务等 |
|
|
@@ -48,13 +48,15 @@
|
|
|
48
48
|
| 能力 | 说明 |
|
|
49
49
|
|------|------|
|
|
50
50
|
| **技能架构** | 基于 Agent Skills 规范,支持多路径加载、本地安装与动态扩展;支持技能自我发现与自我迭代 |
|
|
51
|
-
| **编码智能体** | 集成 [
|
|
51
|
+
| **编码智能体** | 集成 [coding-agent]支持多轮工具调用与代码执行 |
|
|
52
52
|
| **浏览器自动化** | 内置 [agent-browser](https://www.npmjs.com/package/agent-browser),可导航、填表、截图与数据抓取 |
|
|
53
53
|
| **长期记忆** | 向量存储(Vectra)+ 本地嵌入,支持经验总结与会话压缩(compaction) |
|
|
54
54
|
| **多端接入** | CLI、WebSocket 网关、Electron 桌面端,同一套 Agent 核心;各端技术栈见下方「各端技术栈」 |
|
|
55
55
|
| **多通道接入** | 飞书、钉钉、Telegram、微信等 IM 通道,Gateway 根据配置注册;入站经统一格式进 Agent,回复经通道回传 |
|
|
56
|
+
| **同一会话自由切换智能体** | 在**同一 Session**(桌面对话或通道对话)中可随时切换智能体,包括**本机智能体**与**代理智能体**(Coze/OpenClawX/OpenCode/Claude Code);通过对话内 `//` 指令或界面选择即可切换,**无需新建会话**,便于在单一通道中快速使用所有类型机器人。详见 [桌面端使用](docs/zh/guides/desktop-usage.md#同一会话中自由切换智能体与模型) |
|
|
57
|
+
| **单智能体自由切换模型** | 每个智能体可独立配置并随时更换所用**大模型**(Provider + 模型);在「模型配置」或智能体详情中为同一智能体选择不同模型即可,便于按任务或预算**控制 Token 费用**(如日常用本地/小模型、复杂任务切云端大模型)。 |
|
|
56
58
|
| **代理模式** | 智能体执行方式可选 **本机** / **Coze** / **OpenClawX** / **OpenCode** / **Claude Code**;本机使用当前模型与 Skills,**代理模式下本机 0 Token 消耗**,推理与消息处理在对方平台完成 |
|
|
57
|
-
| **本地推理 0 Tokens** | 本机执行时可选 **本地 GGUF 模型**:在「设置 → 模型配置 → 本地模型」中下载/选择模型并启动本地推理服务,智能体选用 local + 本地模型后,**推理完全在本地进行,不消耗任何云端 API Token**,即 **一键省 Token
|
|
59
|
+
| **本地推理 0 Tokens** | 本机执行时可选 **本地 GGUF 模型**:在「设置 → 模型配置 → 本地模型」中下载/选择模型并启动本地推理服务,智能体选用 local + 本地模型后,**推理完全在本地进行,不消耗任何云端 API Token**,即 **一键省 Token**;本地推理基于 **node-llama-cpp**,**全量仿真 OpenAI 协议**,提供**类本地 OpenAI 服务**,兼容标准 OpenAI 客户端与接口。详见 [本地推理 0 Tokens 方案](docs/zh/guides/local-inference.md) |
|
|
58
60
|
| **Coze 接入** | 支持 Coze 国内站(api.coze.cn)与国际站(api.coze.com);按站点分别配置 Bot ID 与 Access Token(PAT/OAuth/JWT),桌面端与通道均可选用 Coze 智能体;**0 Token 消耗**,适合 Coze 侧大量消息与长对话场景 |
|
|
59
61
|
| **OpenClawX 多节点协作** | 可将智能体代理到另一台 OpenClawX 实例(baseUrl + 可选 API Key),实现多节点分工、负载与协作;本机 0 Token 消耗 |
|
|
60
62
|
| **OpenCode 代理** | 可将智能体代理至 [OpenCode](https://opencode.ai/) 官方 Server(本地 `opencode serve` 或远程);支持流式回复、斜杠指令 `/init`、`/undo`、`/redo`、`/share`、`/help`,与 TUI 使用方式一致;**0 Token 消耗**,适合 OpenCode 侧大量代码与长上下文能力 |
|
|
@@ -63,11 +65,18 @@
|
|
|
63
65
|
| **RPA(影刀)** | 通过 MCP 可接入影刀 RPA:在智能体 MCP 配置中添加 [yingdao-mcp-server](https://www.npmjs.com/package/yingdao-mcp-server)(命令 `npx -y yingdao-mcp-server`,可选 env 如 `RPA_MODEL`、`SHADOWBOT_PATH`、`USER_FOLDER`),即可在对话中调用影刀自动化能力 |
|
|
64
66
|
| **插件支持** | 通过 `openbot extension install/list/uninstall` 在 `~/.openbot/plugins` 安装 npm 包形式扩展;详见 [插件与扩展](docs/zh/features/plugins.md) |
|
|
65
67
|
|
|
68
|
+
### 同一会话中自由切换智能体与模型
|
|
69
|
+
|
|
70
|
+
- **同一 Session 自由切换智能体**:在桌面对话或飞书/钉钉/Telegram/微信等**同一通道的同一会话**中,可随时切换当前使用的智能体(本机智能体或代理智能体),无需新建会话。通过输入 `//select` 查看列表、`//智能体名` 或 `//id` 切换,即可在**一个会话里快速使用所有类型机器人**(本地、Coze、OpenClawX、OpenCode、Claude Code 等)。
|
|
71
|
+
- **单智能体自由切换模型**:每个智能体可在「模型配置」或智能体详情中**独立选择并更换大模型**(如 DeepSeek、Qwen、Ollama、本地 GGUF 等)。便于按任务难度或预算**控制 Token 费用**:日常用本地/小模型,复杂任务再切到云端大模型。
|
|
72
|
+
|
|
73
|
+
详见 [桌面端使用 - 同一会话中自由切换智能体与模型](docs/zh/guides/desktop-usage.md#同一会话中自由切换智能体与模型)。
|
|
74
|
+
|
|
66
75
|
### 本地推理 0 Tokens 方案(一键省 Token)
|
|
67
76
|
|
|
68
|
-
当智能体执行方式为 **本机(local)** 且选用 **本地 GGUF 模型** 时,推理由本机
|
|
77
|
+
当智能体执行方式为 **本机(local)** 且选用 **本地 GGUF 模型** 时,推理由本机 [node-llama-cpp](https://github.com/nicolo-ribani/node-llama-cpp) 子进程完成,**全量仿真 OpenAI 协议**,提供**类本地 OpenAI 服务**,**不调用任何云端 API**,因此 **0 Token 消耗**。
|
|
69
78
|
|
|
70
|
-
- **一键省 Token 含义**:在「设置 → 模型配置」中将默认(或某智能体)的 Provider 选为 **local**、模型选为已下载的本地 GGUF(如 Qwen3 4B/7B、EmbeddingGemma 等),即可实现「对话不花一分钱 Token
|
|
79
|
+
- **一键省 Token 含义**:在「设置 → 模型配置」中将默认(或某智能体)的 Provider 选为 **local**、模型选为已下载的本地 GGUF(如 **Qwen3.5** 4B/8B、Qwen3 4B/7B、EmbeddingGemma 等),即可实现「对话不花一分钱 Token」;无需改代码,无需代理到第三方,本机即可完成问答、工具调用与技能执行。**模型对比与推荐**:目前国内开源表现较好的模型包括 **Qwen3.5** 系列,可在「本地模型」推荐列表中下载使用。
|
|
71
80
|
- **配置与使用**:在桌面端「设置 → 模型配置 → 本地模型」中可下载推荐 GGUF、查看已安装模型、启动/重启本地模型服务(可选 LLM + Embedding);在「模型配置」或「智能体」中为 local provider 选择对应本地模型与上下文长度。缺省模型文件不存在时本地服务不会自动启动,需在「本地模型」页下载或选择模型后点击「启动本地模型服务」。
|
|
72
81
|
- 详细步骤与常见问题见 **[本地推理 0 Tokens 方案](docs/zh/guides/local-inference.md)**。
|
|
73
82
|
|