# openclawWeComzh
**Repository Path**: ldhotao/openclawWeComzh
## Basic Information
- **Project Name**: openclawWeComzh
- **Description**: No description available
- **Primary Language**: Unknown
- **License**: MIT
- **Default Branch**: main
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 0
- **Created**: 2026-03-20
- **Last Updated**: 2026-03-20
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
# 🦞 此项目将不在维护该项目所有升级请移步 https://github.com/openaeon/OpenAEON
## > 📦 **开源仓库主页**: [https://github.com/openaeon/OpenAEON](https://github.com/openaeon/OpenAEON)
>
>
>
>
>
>
>
### 🦞 openclawWeComzh — Personal AI Assistant
> **为国内生态倾力打造的 OpenClaw 深度中文化版本。**
> 这是一个让你可以在本地私有化运行、掌控全局的私人 AI 智能体工作流引擎。
>
## 核心突破:赋予多智能体系统真正的“元认知”自我进化能力与“发散修正”能力\*\*
在处理极其复杂的长时间维度任务时,传统的自主 Agent 往往容易陷入动作“死循环”——例如为了解决一个 Bug 不断地重复编辑和报错。本项目针对性地引入了基于复利折叠(Z ⇌ Z² + C)的监控环流:
- **`chaosScore` 混沌度量器**:底层的订阅分发中心(`pi-embedded-subscribe`)会实时监视动作指纹(Fingerprint)。当检测到 Agent 在原地打转或频繁报错时,会自动增加系统混沌值。
- **分形反思机制(Fractal Reflection)**:当混沌值越过安全阈值时,自动触发系统级侧入式钩子(Hooks)。强制打断当前发散的执行死循环(Divergence),并向主脑注入强力的人工提示,要求其调整方向或降维打击——例如指派具有特定上下文的子智能体(Subagent)去重新梳理问题,而不是一根筋死磕。
## 🚀 最新特性与更新 (Recent Updates)
> _注:大部分高阶架构原理解析可参考上游官方英文文档:[Docs](https://docs.openclaw.ai) / [DeepWiki](https://deepwiki.com/openclaw/openclaw)_
🎉 **v2025.3.x 核心里程碑 (重磅发布)**
_[当前项目仓库:luolin-ai/openclawWeComzh](https://github.com/luolin-ai/openclawWeComzh)_
- 🦞 **Sandbox 自动化工作流编排**:从传统的“被动问答对话框”进化为“主动派单工作台”。只需下发宏大目标,AI 即可拆解目标并生成 `task.md` 规划清单,每执行一步都会自我打卡标记状态。全面引入对高危终端命令的弹窗拦截审核机制(Human-in-the-loop)。
- 🧠 **本地私有知识库引擎挂载**:在多轮跨会话之间建立长线上下文记忆。直接让 AI 挂载本地项目文档和代码规范库,在遇到技术卡点时自主翻阅资料寻找突破。
- 🤖 **子代理会话记忆穿透**:支持主代理向子代理传递结构化上下文,子任务完成后自动回传更新状态,实现多层代理间记忆共享闭环。
- 🌍 **浏览器自动化持久化升级**:浏览器 Profile 与 Agent Session 自动绑定,跨次运行保留登录态(Cookie/localStorage)。
- ⚡️ **Batch 快照效率提升**:批量浏览器操作完成后自动暴露最终页面快照,减少 AI 解析中间过程的开销。
- 💻 **UI 浏览器工具可视化**:聊天界面浏览器工具卡支持内联前端截图渲染与快照摘要展示,过程完全可视。
- ♾️ **Z ⇌ Z² + C 认知环流深度融合**:赋予多智能体系统真正的“元认知”与“发散修正”能力。底层实时监视执行死循环,当混沌值(`chaosScore`)越过阈值时触发侧入式拦截,强制要求 AI 降维拆解或指派专职子代理,避免原地打结。
- 🎨 **Canvas A2UI 智能体交互画布**:告别纯文本,直接在侧边栏生成高交互性的前端组件、表单与图表。重构了底层的 Canvas 编译链,集成了下一代 Rust 打包器 `rolldown`,支持毫秒级页面热重载与极速组件通信。
---
🎉 **v2025.2.x 历史核心里程碑**
- 🧠 **Qwen / DeepSeek 流式深度整合**:
- **思考过程全解析**:彻底修复了 Qwen-Web 和 DeepSeek 模型在输出深度推理标签 (`[(deep_think)]` / ``) 时的截断或溢出问题。流式输出期间,UI 界面将优雅且平滑地展开“深度思考中 (Deep Thinking...)”折叠面板,展现 AI 推理全貌。
- **本地工具强制关联机制**:修复了长时间多轮对话后,模型容易遗忘内部 XML 工具调用格式的问题。通过在上下文链路中注入隐式约束,确保模型能够随心所欲且稳定地唤起你的独立浏览器 (`openclaw` Profile) 或执行高危指令 (Bash commands)。
- 🇨🇳 **CLI 界面深度中文化**:
- 我们对原生极具赛博朋克风格的终端向导工具 (`openclaw onboard`) 进行了逐字逐句的翻译和润色。
- 涵盖所有配置流程:包括网关鉴权、模型选择、外部通讯渠道(Channels)接入和扩展技能(Skills)安装。保留了原汁原味的 Lobster 专属渐变色彩引擎。
## 📦 快速安装与启动 (Quick Start)
### Sponsors
| OpenAI | Blacksmith | Convex |
| ----------------------------------------------------------------- | ---------------------------------------------------------------------------- | --------------------------------------------------------------------- |
| [](https://openai.com/) | [](https://blacksmith.sh/) | [](https://www.convex.dev/) |
**Subscriptions (OAuth):**
- **[OpenAI](https://openai.com/)** (ChatGPT/Codex)
### 1. ⚡ 一键极速安装 (推荐)
如果你只是想快速体验或部署系统,可以直接在终端执行以下一键安装指令。该脚本会自动为您检测环境、配置依赖并启动向导:
```bash
curl -fsSL https://raw.githubusercontent.com/luolin-ai/openclawWeComzh/main/install.sh | bash
```
**🌐 各系统环境安装说明:**
- **🍎 macOS**: 原生支持。脚本会自动检查系统依赖并引导是否安装 `cmake/brew` 等底层编译工具(用于本地大模型加速计算等扩展模块)。
- **🐧 Linux**: 广泛兼容各大主流发行版 (Ubuntu/Debian, CentOS/RHEL, Arch, Alpine等)。自动判断并提权安装例如 `build-essential` 等 C++ 编译环境。
- **🪟 Windows**: 提供原生的 PowerShell 一键安装支持!请确保以**管理员身份**打开 PowerShell 并执行以下指令:
```powershell
iwr -useb https://raw.githubusercontent.com/luolin-ai/openclawWeComzh/main/install.ps1 | iex
```
_(注: 仍强烈推荐硬核极客在 WSL2 子系统下通过 bash 脚本体验最完整的本地化能力)_
---
### 2. 🛠️ 本地源码开发 (Development)
如果你希望进行二次定制架构开发,可以通过以下步骤运行:
**环境准备:** 确保已安装 [Node.js](https://nodejs.org/) (**≥ 22.0.0**) 和包管理器 `pnpm` (`npm i -g pnpm`)。
```bash
# 获取源码
git clone https://github.com/luolin-ai/openclawWeComzh.git
cd openclawWeComzh
# 安装项目依赖
pnpm install
# 编译项目 (首次运行将自动构建 UI 前端工程)
pnpm build
# 启动全中文沉浸式配置向导,注册基础设置并安装后台守护进程
pnpm openclaw onboard --install-daemon
# 以开发者模式启动网关(支持 TypeScript 热更新)
pnpm gateway:watch
```
### 3. 💻 终端与 Web UI 使用教程 (Usage Tutorial)
完成安装后,您可以通过以下方式启动系统:
1. **终端随叫随到**:直接在终端输入 `openclaw` 即可在命令行中与 AI 进行沉浸式交互。
2. **唤起图形控制台**:运行 `openclaw dashboard`,系统将自动在默认浏览器 (`http://127.0.0.1:18789`) 打开控制台。
3. **核心功能模块**:
- **聊天 (Chat)**:下发指令、问答交互,支持 `/new` 快速重置会话。
- **沙盘 (Sandbox)**:监控 AI 的后台执行链与多智能体派发情况。
- **配置 (Config)**:中文化的全局系统参数设置面板。
## 📊 与上游官方版本对比 (Fork vs Upstream Comparison)
> **本 fork 基于 [openclaw/openclaw](https://github.com/openclaw/openclaw) 官方开源项目,在完全继承其所有高阶能力的基础上,针对国内生态进行了深度本土化定制。**
### 🔍 功能对比总览
| 功能维度 | 🌍 官方上游 openclaw/openclaw | 🇨🇳 本 Fork luolin-ai/openclawWeComzh |
| :---------------- | :------------------------------------------------------- | :--------------------------------------------------------------- |
| **界面语言** | 全英文界面 | 全链路中文化,从终端到 Web UI |
| **首选模型** | Claude Opus / GPT-4 为主 | 深度适配 Qwen、DeepSeek、Kimi K2.5 等国内顶级模型 |
| **模型接入方式** | 官方 API 为主(Anthropic、OpenAI、OpenRouter) | 额外支持 Moonshot、通义千问等国内 OpenAI 兼容 API |
| **深度思考渲染** | 基础展示 | 修复 `[(deep_think)]` / `` 标签解析,完整流式呈现推理过程 |
| **通信渠道** | WhatsApp、Telegram、Discord、Slack、iMessage 等 20+ 渠道 | 继承全部,同时重点研发企业微信、微信等国内渠道(研发中) |
| **Telegram 支持** | ✅ 完整支持 | ✅ 深度适配 + 多 Bot 账号管理 |
| **多智能体编排** | ✅ Agent-to-Agent(sessions_send) | ✅ 继承全部 + Kimi 副脑双 Agent 配置示例开箱即用 |
| **Sandbox 沙盒** | ✅ Docker 隔离 + 工具限制 | ✅ 继承 + Human-in-the-loop 高危拦截,中文任务面板 |
| **知识库能力** | Memory QMD(向量检索) | ✅ 继承 + 本地文档目录挂载的使用教程与示例 |
| **Web 控制台** | 英文全功能 Web UI | 中文化全功能 Web UI(Chat / Sandbox / Agents / Config) |
| **CLI 工具** | `openclaw` 系列命令(英文输出) | 中文化 `onboard` 向导 + 中文友好错误提示 |
| **语音唤醒** | macOS + iOS(VoiceWake) | ✅ 继承(建议在官方 App 中使用) |
| **Canvas A2UI** | ✅ Agent 驱动可视化工作区 | ✅ 继承 |
| **安装方式** | curl 一键安装 / npm / Nix / Docker | ✅ 继承,额外提供中文化安装向导截图文档 |
| **技能扩展** | ClawHub 技能市场 | ✅ 继承(兼容 ClawHub) |
| **文档语言** | 英文(docs.openclaw.ai) | 中文化关键功能说明 + 本 README 的完整中文使用教程 |
| **社区支持** | Discord / GitHub | GitHub + 中文开源社区(企微群等) |
---
### 🆙 本 Fork 额外新增能力(上游没有的)
| 新增特性 | 说明 |
| :----------------------------------- | :----------------------------------------------------------------------------------------------------- |
| **`[(deep_think)]` 修复** | 修复了 Qwen-Web 和 DeepSeek 推理模型在长上下文或多轮 Tool Call 场景下的标签截断 / 溢出 bug |
| **强制工具调用机制** | 修复了模型在长对话后遗忘 XML 工具格式的问题,通过隐式约束注入保持稳定唤起 |
| **双 Agent 配置模板** | 提供开箱即用的 Opus 主脑 + Kimi 副脑多 Agent 分工配置示例 |
| **`sandboxTaskPlanSuppressed` 修复** | 修复新建会话时侧边栏任务面板残留旧规划的 bug;新建后自动清空 |
| **前端 Session 状态管理** | `/new` 命令后正确重置所有轮询状态,防止历史数据污染新会话 |
| **国内加速模型路由** | `moonshot` provider 直接接入,无需借助 OpenRouter 中转,降低延迟 |
| **Z ⇌ Z² + C 认知环流深度融合** | 实现基于 `chaosScore` 与迭代深度的多智能体发散度检测与收敛控制,支持在陷入死循环时强制触发分形反思机制 |
| **A2UI 画布交互底座集成** | 完整打通 Canvas A2UI 渲染链路(Agent to UI),引入基于高性能 `rolldown` 的前端构建流 |
| **Dashboard 渲染热修复** | 修复了由于 `lit` 模板依赖导入丢失导致的主控面板白屏(`ReferenceError`)与 WebSocket 连接容错机制 |
---
### 🧩 上游官方保留的核心能力(本 Fork 完整继承)
> 以下所有能力均来自上游 [openclaw/openclaw](https://github.com/openclaw/openclaw),本 fork 完整继承:
- 🌐 **20+ 通信渠道**:WhatsApp、Telegram、Discord、Slack、Google Chat、Signal、iMessage、Feishu、LINE、Zalo 等
- 🔧 **本地设备控制**:浏览器 CDP 控制、终端 bash、文件读写、截图、摄像头
- 🤖 **Pi Agent 运行时**:RPC 工具流 + 流式输出,完整的会话模型
- 🛡️ **Docker 沙盒隔离**:非主会话自动走 Docker 沙盒执行
- 📱 **伴侣 App**:macOS 菜单栏 App + iOS/Android 节点
- ⏰ **Cron + Webhook 自动化**:定时任务、事件驱动执行流
- 🎙️ **Voice Wake + Talk Mode**:macOS/iOS 唤醒词 + Android 持续语音
- 🗺️ **Skills + ClawHub**:技能注册中心,支持 bundled/managed/workspace 技能
- 🔐 **Tailscale + SSH 远程网关**:安全暴露 Web UI,支持远程 Linux 机器部署
## ✨ 核心亮点 (Key Features)
| 模块名称 | 特性说明 |
| :--------------------- | :---------------------------------------------------------------------------------------------------------------------------- |
| **全流程中文化界面** | 从终端命令行的 `onboard` 到各种错误日志、高亮提示,全面采用了符合国人阅读习惯的中文语境与高亮色彩排版。 |
| **原生大语言模型适配** | 针对国内顶级开源模型(Qwen、DeepSeek等)的 Web 接口与专属推理链路进行了特化适配,支持完整的深度思考过程展示与上下文工具对齐。 |
| **系统级本地设备控制** | 完美继承开源版本的所有高阶特性:直接在对话框中让 AI 帮你执行终端命令行、操作自动化浏览器、读写本地文件目录。 |
| **多智能体与知识库** | 原生支持多智能体协作流(Agent-to-Agent),自带多模态上下文记忆引擎与私有知识库挂载能力,支持长线任务的断点续传。 |
| **扩展通信渠道引擎** | 计划对企微/微信等国内高频使用的社交与办公渠道进行原生接入开发(研发中),敬请期待! |
## 🤖 深度解析:功能进化与使用指南 (Deep Dive)
OpenClaw 并非一个简单的对话窗口,而是一个具备**自主决策、长期记忆与多智能体协作**能力的数字员工。以下为最新核心功能的详细使用说明与能力进化对比。
---
### ⚡ 版本功能对比:更新前 vs 更新后(7 个维度)
| 能力维度 | ❌ 旧版本(Before) | ✅ 新版本(After) |
| :---------------- | :-------------------------- | :------------------------------------------- |
| **对话模式** | 被动问答,一问一答 | 自主工作台,任务自驱执行,AI 自行拆解目标 |
| **任务追踪** | 靠用户自己记录进度 | AI 自动生成 `task.md` 并实时打卡每一步 |
| **高危操作拦截** | 直接执行,无拦截 | `Human-in-the-loop` 弹窗强制人工审核后才继续 |
| **多 Agent 并行** | 单 Agent 串行,独占对话线程 | 多 Agent 并行,网关统一调度,全程不阻塞主脑 |
| **知识来源** | 仅限本次对话上下文 | 支持挂载本地私有文档库、跨会话持久记忆 |
| **UI 语言** | 英文界面,部分中文 | 全链路中文化,终端到 Web UI 极致贴合国人习惯 |
| **通信渠道** | 仅 Web Dashboard | Telegram 接入,企微 / 微信接入(研发中) |
---
### 1. 💬 Chat: 拟人化自然交流与跨会话上下文记忆
每一次对话都会自动关联历史上下文。无论是中断后重连,还是长线任务的逐步推进,AI 都能像人类一样精确回忆起此前的边界条件与背景资料。
**示例对话(真实体验效果):**
```
你:上次我让你分析的那个 typescript 配置文件,现在接着处理验证逻辑那部分。
AI:明白,我记得上次我们停在 zod-schema.agent-runtime.ts 的第 674 行,
你让我分析 .strict() 模式下的 unknown field 风险。接下来我会:
1. 继续扫描第 674 行之后的 Schema 定义...
2. 重点关注 SafeParseAsync 场景下的错误传播路径...
```
**与官方版本的核心技术差异:**
| 技术细节 | 官方版本 | 本 Fork |
| :---------------------- | :------------------------ | :------------------------------------------------- |
| **深度思考标签解析** | 基础展示,部分场景截断 | 修复 `[(deep_think)]`/`` 在流式输出中的溢出 |
| **多轮 Tool Call 稳定** | 长对话后偶发忘记 XML 格式 | 注入隐式约束,强制保持工具调用格式稳定 |
| **中文模型推理链路** | 主要优化 Claude/GPT 输出 | 专为 Qwen-Web / DeepSeek 流式输出深度适配 |
- **原生支持深度思考**:模型在给出最终回答前,会在后台进行自省与推理。

---
### 2. 🧠 私有知识库挂载 (Knowledge Base)
无缝接入本地文档与代码库,告别"每次都要重新解释项目结构"的低效工作模式。
#### 快速开始(在对话框中直接说):
> **"请把 `src/config/` 目录作为你的参考知识库,分析其中所有 `.ts` 文件的 Schema 结构,然后帮我找出最容易出现 `invalid config` 错误的字段定义。"**
更多快速提问模板:
```
# 挂载代码规范库
"请读取 CODING_STYLE.md,后续所有代码输出均需符合其中规范。"
# 挂载 API 文档
"请将 docs/api-reference/ 目录作为参考,帮我实现一个符合现有接口规范的新端点。"
# 断点续传
"上次我们分析到 subagent-registry.ts 的孤儿检测逻辑,现在继续看完整的 cleanup 流程。"
```
#### 4 项核心能力对照表:
| 能力 | 说明 |
| :--------------- | :-------------------------------------------------------------------------------------- |
| **自主目录检索** | 智能体会自行调用 `list_dir`、`grep_search`、`view_file` 等工具翻阅目标文档 |
| **跨会话记忆** | 核心文档内容被写入知识记忆(Knowledge Component),下次对话直接复用,无需重新加载 |
| **断点续传** | 长任务中途中断后,AI 下次回来仍能接续,清楚知道上次读到哪里、做了什么 |
| **私有规范遵守** | 将你自己的 `CODING_STYLE.md` 或 `ARCHITECTURE.md` 挂载进去,AI 会自动遵守团队规范写代码 |
---
### 2b. 🔬 上下文记忆架构深度解析(Memory Architecture Internals)
> 这是本 Fork 中「跨会话记忆」能力的技术原理说明。理解这个机制,才能正确使用 AI 的「记住上次...」能力。
#### 核心问题:LLM 的 Context Window 是有限的
每个模型都有一个上下文窗口上限(Context Window):
| 模型 | Context Window |
| :----------------------- | :-------------------------- |
| Claude Opus 4 / Sonnet 4 | 1,048,576 tokens(1M) |
| Qwen / DeepSeek | 32K ~ 128K tokens |
| 本地配置 override | 可在 `openclaw.json` 自定义 |
对话越长,历史消息越多,token 用量不断累积。**一旦逼近上限,旧消息会被截断,AI 就"失忆"了**。
#### 三层记忆架构
```
┌──────────────────────────────────────────────────────── ┐
│ Layer 1:短期记忆(In-Session Transcript) │
│ ● 本次对话所有消息,直接作为 prompt 传给模型 │
│ ● 消息越多,token 越多,直到逼近 context window 上限 │
└───────────────────────────┬─────────────────────────────┘
│ token 接近阈值时触发 ↓
┌──────────────────────────────────────────────────────── ┐
│ Layer 2:预压缩记忆落盘(Pre-Compaction Memory Flush) │
│ ● AI 自动把当前重要信息写入 memory/YYYY-MM-DD.md │
│ ● 然后进行 compaction:历史对话被压缩成摘要 │
│ ● Token 用量归零,继续工作 │
└───────────────────────────┬─────────────────────────────┘
│ 下次对话开始时 ↓
┌──────────────────────────────────────────────────────── ┐
│ Layer 3:长期语义检索(Memory Search / QMD) │
│ ● AI 强制先调用 memory_search(query) 检索历史记忆 │
│ ● 向量语义匹配 memory/*.md 中的相关片段 │
│ ● 将检索结果注入上下文,实现"跨会话记忆" │
└─────────────────────────────────────────────────────────┘
```
#### 关键触发机制:Memory Flush(`memory-flush.ts`)
系统在每轮对话前评估是否需要触发 Memory Flush,触发条件为**任一满足**:
```
条件 A(Token 阈值):
当前预估 token 数 ≥ contextWindow - reserveTokens(预留) - softThreshold(默认 4000)
等价公式:
promptTokens + lastOutputTokens + 本轮输入估算 ≥ 阈值
条件 B(文件体积):
transcript 文件大小 ≥ 2MB(可配置 forceFlushTranscriptBytes)
```
触发后,系统向模型发送一个特殊的隐藏 prompt(用户不可见):
```
Pre-compaction memory flush.
Store durable memories now (use memory/YYYY-MM-DD.md; create memory/ if needed).
IMPORTANT: If the file already exists, APPEND new content only and do not overwrite existing entries.
If nothing to store, reply with [SILENT].
```
模型收到后,会将当前对话中的重要信息**主动追加写入磁盘**到:
```
~/.openclaw/workspace/memory/
└── 2025-03-07.md ← 按日期分文件,内容 APPEND,不覆盖
```
#### 下次对话如何读取记忆(`memory-tool.ts`)
**每次对话开始前,AI 会被要求强制调用 `memory_search` 工具**(工具描述中标注了 `Mandatory recall step`):
```typescript
// 工具描述(强制调用)
"Mandatory recall step: semantically search MEMORY.md + memory/*.md
(and optional session transcripts) before answering questions about
prior work, decisions, dates, people, preferences, or todos"
```
检索流程:
```
memory_search("上次我们停在哪里")
│
▼
向量嵌入 → 语义匹配 memory/*.md 中所有片段
│
▼
返回 top-N 结果(含 path + 行号 + 内容摘要)
│
▼ 需要看完整内容时
memory_get("memory/2025-03-07.md", from=10, lines=30)
│
▼
只拉取所需片段,避免把整个文件塞进上下文(节省 token)
```
#### 记忆的局限性(重要)
| 风险点 | 说明 |
| :------------------ | :------------------------------------------------------------------- |
| **AI 可能不写** | 如果模型判断"本轮无值得保存的信息",会回复 `[SILENT]` 跳过落盘 |
| **Compaction 有损** | 历史对话被摘要后,细节可能丢失;不是完整历史回放 |
| **检索精度有限** | `memory_search` 是向量语义检索,记忆很多时可能遗漏特定技术细节 |
| **沙盒限制** | Sandbox 模式下 `workspaceAccess != "rw"` 时,Memory Flush 被自动禁用 |
#### 配置方式
```json5
// ~/.openclaw/openclaw.json
{
agents: {
defaults: {
compaction: {
reserveTokensFloor: 8192, // compaction 时预留的最小 token 空间
memoryFlush: {
enabled: true,
softThresholdTokens: 4000, // 提前多少 token 触发 flush
forceFlushTranscriptBytes: "2mb", // 按文件体积强制触发
prompt: "...", // 自定义 flush 提示词(可选)
},
},
},
},
memory: {
citations: "auto", // "on" | "off" | "auto"(群组中默认关闭引用标注)
},
}
```
> **实践建议**:对于长期需要"记住进度"的项目,建议在对话结束前主动说"请把我们今天的进展保存到记忆文件",强制触发一次 Memory Flush,避免依赖系统的自动判断。
### 3. 🦞 Sandbox: 任务自动编排与高危拦截(Human-in-the-loop)
**核心进化:从"被动问答"到"自主工作台"**
```
┌───────────────────────────────────────────────┐
│ 传统 Chat 模式(旧版) │
│ 你:帮我重构这个文件 │
│ AI:好的,以下是我的建议... [给代码不执行] │
└───────────────────────────────────────────────┘
↓ 进化为
┌───────────────────────────────────────────────┐
│ Sandbox 自主工作台模式(新版) │
│ 你:帮我重构这个文件 │
│ AI:[自动生成 task.md 规划文件] │
│ ✅ Step 1: 读取文件结构 (view_file) │
│ ✅ Step 2: 分析依赖关系 (grep_search) │
│ 🔄 Step 3: 修改代码(进行中...) │
│ ⚠️ Step 4: git push【⏸ 等待人工审核】 │
└───────────────────────────────────────────────┘
```
#### 🛡️ Human-in-the-loop 高危拦截类型汇总表
当 AI 即将执行以下高风险操作时,系统会自动**挂起当前任务**,在 Sandbox 控制台弹出审核请求,等待用户明确授权:
| 高危操作类型 | 触发示例 |
| :--------------- | :------------------------------------------- |
| 递归删除文件 | `rm -rf ./dist`、`find . -delete` |
| 强制写入系统目录 | `sudo cp ... /etc/`、`chmod 777 /usr/local` |
| 网络发布/推送 | `git push origin main`、`npm publish` |
| 服务重启 | `pm2 restart all`、`systemctl restart nginx` |
| 数据库危险操作 | `DROP TABLE`、`DELETE FROM users WHERE 1=1` |
**完整任务示例(在 Sandbox 中下发宏大工作流):**
```
请帮我完成以下完整工作流:
1. 分析 src/config/ 目录的全部 Schema 文件
2. 找出所有 .strict() 后的 unknown field 风险点
3. 生成一份中文说明文档到 docs/config-guide.md
4. 执行 git commit 并推送到 main 分支
```
AI 会自动打勾执行步骤 1-3,但到第 4 步(`git push`)时会**暂停并推送弹窗让你审核**,保障操作安全。

---
### 4. 🤖 Multi-Agent: 多智能体并行协作大盘
**完整架构拓扑图:**
```
你(用户)
│ 输入任务目标
▼
┌────────────────────────────────────────┐
│ [ Gateway ] ← WebSocket 控制平面 │
│ ws://127.0.0.1:18789 │
└──────────────┬─────────────────────────┘
│ sessions_send (A2A)
┌─────────▼──────────┐
│ agent:main │ ← 主脑决策层
│ (Claude Opus / DeepSeek) │ 负责规划、分发与审核
└───┬────────────────┘
│ sessions_send (附带 sharedContext 记忆下发)
┌────────┼───────────┐
▼ ▼ ▼
[agent:kimi] [Subagent-1] [Subagent-2]
中文沟通 后台代码执行 测试验证
文档撰写 (并行) (并行)
│ │ │ 任务完毕后 `` 回传
└────────┴───────────┘
```
**技术实现核心机制(本 Fork 的深度扩展):**
| 机制 | 说明 |
| :----------------- | :------------------------------------------------------------------------------------------------- |
| **会话记忆穿透** | **主代理可向下发 `sharedContext` 状态结构体,子任务完成后自动回传更新,达成记忆闭环** |
| **持久化协作网络** | 支持 `mode: "session"` 创建常驻子智能体,记录专有上下文,并使用 `sessions_send` 进行持续跨线程通信 |
| **Z² 反思截流** | 针对高频异常自动激活 `sessions_evaluate` 环路,主脑可唤起 Critic 评估者介入并阻断盲目死循环 |
| **A2A 策略控制** | `tools.agentToAgent.enabled` + `allow` 列表精细管控跨 Agent 消息路由权限 |
| **沙盒可见性守卫** | 沙盒化子任务只能访问同 Agent 内的 Session,杜绝越权调用 |
| **孤儿任务自愈** | 检测并自动清理因网关重启导致的悬挂 subagent 记录(`reconcileOrphanedRestoredRuns`) |
| **静默派发模式** | `timeoutSeconds=0` 时立即返回 `accepted`,子任务完全在后台执行,主脑不等待 |
| **子任务标签解析** | 支持按序号、label 前缀、sessionKey、runId 多种方式定位和操作子智能体 |
#### 如何触发多智能体协作(直接在主脑对话框中说):
**场景 A:静默派发后台任务(`timeoutSeconds=0`,完全不阻塞主脑)**
```
我正在测试后端逻辑,请你同时启动一个子智能体帮我在后台
重构 ui/src/ 目录的组件文件,完成后通知我,不要打断我现在的工作。
```
**场景 B:角色分工协作(主脑 + Kimi 副脑 + 子任务执行链)**
```
多智能体任务分工:
- 你(Opus):分析 zod-schema.agent-runtime.ts 的架构,给出重构建议
- Kimi:把你的建议翻译成详细的中文使用说明文档
- 子智能体:按照建议执行实际的代码变更
请开始,遇到高危操作请先暂停等我审核。
```
**场景 C:并行执行多个独立子任务(真正的 Fork-Join 并发模型)**
```
请同时启动三个子智能体,并行完成以下三个独立任务:
1. 重构 ui/src/ui/views/chat.ts
2. 重构 ui/src/ui/views/sandbox.ts
3. 重构 ui/src/ui/views/agents.ts
每个任务完成后独立汇报状态,无需等待其他任务。
```
你可以在 **Overview 总览页**实时看到所有活跃 Agent 的心跳、Token 开销和执行状态:


---
### 5. ♾️ Z ⇌ Z² + C 认知环流深度融合 (Cognitive Loop Fusion)
**核心突破:赋予多智能体系统真正的“元认知”与“发散修正”能力**
在处理极其复杂的长时间维度任务时,传统的自主 Agent 往往容易陷入动作“死循环”——例如为了解决一个 Bug 不断地重复编辑和报错。本项目针对性地引入了基于复利折叠(Z ⇌ Z² + C)的监控环流:
- **`chaosScore` 混沌度量器**:底层的订阅分发中心(`pi-embedded-subscribe`)会实时监视动作指纹(Fingerprint)。当检测到 Agent 在原地打转或频繁报错时,会自动增加系统混沌值。
- **分形反思机制(Fractal Reflection)**:当混沌值越过安全阈值时,自动触发系统级侧入式钩子(Hooks)。强制打断当前发散的执行死循环(Divergence),并向主脑注入强力的人工提示,要求其调整方向或降维打击——例如指派具有特定上下文的子智能体(Subagent)去重新梳理问题,而不是一根筋死磕。
---
### 6. 💻 沉浸式中文 UI 交互体系(全面升级与修复)
#### 6 个界面模块的旧版 vs 新版体验对比
| 界面模块 | ❌ 旧版体验 | ✅ 新版体验 |
| :--------------- | :------------------ | :-------------------------------------------------------- |
| **终端向导** | 英文 `onboard` 流程 | 全中文逐步向导,保留龙虾渐变色主题 |
| **大语言模型层** | 仅官方海外模型 | Qwen、DeepSeek 深度思考全过程展示 |
| **安全工具控制** | 仅显示一串返回代码 | 💬 **无塌陷的卡片追踪流,内联显示任务进度与网页快照摘要** |
| **浏览器自动化** | 每次执行前扫码登录 | 🌍 **自动关联绑定 Agent Session,跨任务免登持久化** |
| **任务状态面板** | 英文 Task Status | 中文实时任务进度条,集成了容错兜底渲染机制 |
| **配置面板** | 英文字段说明 | 中文字段注释,支持在面板顶端安全无痕切换 `zh-CN`/`en` |
**快速唤起控制台:**
```bash
# 打开图形化控制台(自动在浏览器中启动)
openclaw dashboard
# 或纯终端沉浸式模式
openclaw
```
**多 Agent 控制台访问地址清单:**
| 控制台入口 | 访问地址 |
| :--------- | :----------------------------------------------------------- |
| 主脑 Chat | `http://127.0.0.1:18789/chat?session=agent%3Amain%3Amain` |
| Kimi 助手 | `http://127.0.0.1:18789/chat?session=agent%3Akimi%3Amain` |
| 沙盘工作台 | `http://127.0.0.1:18789/sandbox?session=agent%3Amain%3Amain` |
| 智能体总览 | `http://127.0.0.1:18789/agents` |
| 全局总览 | `http://127.0.0.1:18789/overview` |
---
### 7. 🎨 Canvas A2UI 智能体可视化交互画布
**告别纯文本,所见即所得的动态前端组件输出**
不仅局限于 Markdown 文本,智能体现在能够无缝调用 `A2UI` (Agent to UI) 机制,直接在侧边栏为你渲染出高交互性的专属 Web 组件:
- **动态界面输出**:当描述需求时,AI 可直接甩出一个前端交互表单,甚至各类图表数据,取代传统的来回询问。
- **极速构建系统**:重构了底层的 Canvas 编译链,集成了新一代的 Rust 级打包器 `rolldown`。A2UI 的组件能够在毫秒级内完成打包与热更,并彻底修复了由于依赖丢失引起的白屏、WebSocket 断联等基础设施级 Crash,保障界面的丝滑流转。
## 🗺️ 发展路线图 (Roadmap)
- [x] CLI 终端向导演示流程的完全汉化。
- [x] 解决主流中文模型(Qwen、DeepSeek)在推理长文本和执行 Tool Calling 时的标签解析异常。
- [ ] (Next) 深度适配企微 / 微信等个人及企业通信渠道,逐步取代或并行国外的 Discord / Slack。
- [ ] (Next) 梳理和本土化所有的提示词系统组件库 (`AGENTS.md`, `TOOLS.md` 等)。
## 🤝 鸣谢与声明 (Acknowledgments & Disclaimer)
1. **项目归属声明**:本项目属于下游的本土化定制与优化分支,相关地址为:[luolin-ai/openclawWeComzh](https://github.com/luolin-ai/openclawWeComzh)。我们不对原项目导致的任何系统级风险(如使用 Bash 代理工具破坏本地环境)承担责任。
2. **上游社区致谢**:项目极度依赖并完全源于极致优秀的 [OpenClaw](https://github.com/openclaw/openclaw) 系统。所有的核心架构设计、精妙的 WebSockets 协议通信和前沿的 UI 渲染引擎均来自 `openclaw` 原生社区的无私奉献!特别感谢开源作者和社区无尽的探索。
3. **进阶技术参考**:如果你对 OpenClaw 底层的代理实现原理或插件化机制感兴趣,极其推荐阅读原版架构进阶文档:[OpenClaw Docs](https://docs.openclaw.ai/)。
“用中国的语言,拥抱未来架构的个人 AI 助理”
## Star History
[](https://www.star-history.com/#openclaw/openclaw&type=date&legend=top-left)
Run `openclaw doctor` to surface risky/misconfigured DM policies.
## 📚 上游官方功能全景图 (Upstream Highlights)
> 以下功能说明主要面向极客玩家与需要深度定制架构的开发者。
> 详情请查阅官方英文原版参考资料:[docs.openclaw.ai](https://docs.openclaw.ai)
本中文化分支不仅保留了上游官方库的核心能力,更是以 Gateway 为中心的全终端聚合系统:
- **[本地优先网关 (Local-first Gateway)](https://docs.openclaw.ai/gateway)** — 管理所有 Sessions、Channels、Tools 与事件分发的单点控制平面。
- **丰富的接入渠道 (Multi-channel)** — 支持将 Agent 连接到你的 WhatsApp, Telegram, Slack, Discord 等 20+ 个外部社交媒体平台。
- **系统底层控制台 (macOS/iOS App)** — Apple 全家桶原生支持:菜单栏快速呼出、全局语音唤醒 (Voice Wake)、持续对话 (Talk Mode) 与 Canvas 白板互动系统。
- **多终端节点联邦 (Nodes)** — 允许你的主节点通过 WebSockets 遥控其他闲置的 iOS/Android 设备,调用它们的摄像头采集或录屏能力。
- **远程暴露与安全防御 (Tailscale / SSH)** — 支持通过 Tailscale Serve/Funnel 将网关 Dashboard 暴露至公网,支持配置远程 Linux 网关与本地工作计算节点的拆分。
- **定时与事件钩子 (Cron & Webhooks)** — 允许通过发邮件 (Gmail Pub/Sub) 或调用 Webhook 让 Agent 自动触发某个脚本与工作流任务。
- **极客部署支持** — 除了提供基础 Node.js 源码级开发外,官方支持通过 Nix 的声明式配置安装,与全隔离架构的 Docker 镜像部署。