OpenClaw vs Hermes:一文深入拆解两大Agent框架
日期:2026-04-20 14:04:37 / 人气:8
书接上文:
《理论:从工程角度为你拆解OpenClaw》
《万字:拆解OpenClaw:从Gateway、Memory、Skills、多Agent到Runtime》
《万字:拆解OpenClaw上下文工程/记忆系统》
《万字:OpenClaw核心机制Skills全解析》
《实践:实现一个Mini-OpenClaw》
2026开年以来,AI界有两件巨大福利:
第一是OpenClaw的爆火,倒不是说“小龙虾”解决了多少实际问题,而是它率先为Agent的普及奠定了基础,更确立了“Agent驱动Skills”的核心交付范式;第二是Claude Code源码的泄露,为正在布局Agent创业的团队提供了优质范本——在此之前,行业内对于“什么是Harness驾驭工程”仍处于模糊认知阶段。
只不过,前景虽好,现实仍有诸多不足。结合我的观察与实践来看,当前Agent技术尚未趋于成熟,OpenClaw在任务执行的稳定性和安全性上,仍有巨大的进步空间。因此,后续必然会有更多Agent框架涌现,每一代都会实现小幅迭代优化,比如近期逆势崛起的“Hermes(爱马仕)”。
Hermes Agent自2月底开源以来,首月GitHub星标便突破2.2万;4月8日v0.8.0版本发布后,单日新增6400+星标,不到两个月总星标突破4.7万,多次霸榜全球开源榜单第一,势头迅猛。
OpenClaw VS Hermes:破除“非此即彼”的认知误区
近期行业内频繁出现“小龙虾已死,爱马仕称王”“Hermes碾压OpenClaw”这类极端言论,说实话,听着颇显浮躁——尽管我偶尔也会用这类标题吸引关注,但回归技术本质,我们更需要从工程视角(辅以少量源码),客观拆解两者的差异与优劣,而非盲目跟风吹捧。
首先明确两者的基础定位:OpenClaw是一款基于TypeScript开发的AI助手平台,工程化程度极高,此前我已发布多篇拆解文章(文末附链接),可详细参考;Hermes Agent则由Nous Research团队开发,基于Python编写,是一套可开源商用的Agent平台。

Hermes的设计理念是什么?它与OpenClaw的核心区别在哪里?这是本文的核心讨论重点。在具体展开前,市面上已有不少拆解文鼓吹Hermes的各类特性,建议大家带着以下三个问题阅读,更易抓住核心:
1. 学习闭环:Hermes用三层提示词引导Agent自己提取技能,这种方式真的靠谱吗?
2. 记忆系统:三层记忆(Hermes)vs 单插件槽位(OpenClaw),两者的设计差距到底在哪?
3. 安全vs成长:智能审批(Hermes)还是默认安全(OpenClaw)?两种设计哲学该如何选择?
一、整体架构对比:分层逻辑相近,设计初心不同
Hermes整体架构:以“闭环学习”为核心
Hermes的架构分为四层,核心设计理念是“闭环学习”,遵循“经验→技能→改进→知识持久化”的逻辑。看过我之前拆解OpenClaw文章的读者,会对这个架构感到熟悉——两者均采用分层架构,网关、Agent核心、工具层、执行环境等核心模块一应俱全,差异主要体现在每个模块的设计出发点上。
OpenClaw五层架构:以“安全可靠”为核心
OpenClaw采用五层架构,与Hermes的分层逻辑一脉相承,但核心设计目标截然不同。为了让大家快速建立整体认知,先看以下对比表,清晰呈现两者的核心差异:
维度
Hermes Agent
OpenClaw
核心问题
Agent怎么才能越来越强?
怎么让Agent安全可靠地执行任务?
开发语言
Python
TypeScript
技能/插件
Agent自己创建Markdown技能文件
Plugin SDK,manifest-first,严格边界
记忆系统
三层:内置+外部提供商+会话搜索
单插件槽位,可替换
上下文压缩
压中间,保护两端,迭代摘要
压最老轮次,保留最近,归档原始数据
安全模型
智能审批(辅助模型判断风险)
10+安全模块,默认安全
执行环境
6种后端(含无服务器)
3种后端(偏安全沙箱)
国内平台支持
飞书/钉钉/企业微信/微信原生支持
飞书/QQ扩展支持
研究能力
内置RL训练工具链
纯产品,无训练能力
从对比表不难看出,两者的所有差异,几乎都源于核心设计目标的不同——OpenClaw聚焦“安全可靠”,Hermes聚焦“自我进化”。下面我们逐一拆解核心模块的差异,深入理解这种设计差异带来的实际影响。
二、核心差异拆解:从学习闭环到安全模型
1. 学习闭环:Agent自进化的两种路径
学习闭环是两者最核心的差异,也是所有模块差异的根源。OpenClaw的设计逻辑是“如何让Agent安全可靠地执行任务”,因此它的所有设计都围绕“可控”展开——多层审批、安全审计、沙箱隔离、严格的插件边界,每一项都是工程实践中总结的安全保障措施。
站在一线开发者的角度,我能深刻感受到AI带来的不确定性——比如误删文件、误改数据等问题,因此OpenClaw的安全机制极具实际意义;但对于普通用户而言,他们对安全问题感知不敏感,且目前OpenClaw更多用于个人探索,而非生产环境的严肃性任务,这就导致其安全设计的价值被弱化,甚至显得“多余”。
而Hermes的设计逻辑是“如何让Agent越来越强”——在当前Agent技术仍处于范式探索、未进入成熟生产阶段的背景下,“自进化、越用越强”无疑是更吸引用户的特性。其核心的skill loop设计,就围绕“自进化”展开,核心代码集中在agent/skill_utils.py、skill_manager_tool.py、prompt_builder.py三个文件中。
先科普:AI Agent的“自进化”到底是什么?
对于AI应用而言,自进化与“数据飞轮”策略异曲同工。以AI客服为例,传统的自进化逻辑是:沉淀用户问题、客服回复、解决结果等数据→筛选高质量问答、失败案例、争议案例→人工或系统整理归类→回灌到知识库、意图库→推动下一轮回答效果提升。
这种闭环的核心是“数据回流”,系统本身的架构并未改变,但随着知识库的完善,整体表现会逐步提升——AI知识库就是最基础、最常见的自进化形态。而Agent的自进化,核心围绕“Skills(技能)”展开:Agent的架构不会轻易改变,能优化的只有“工作方法”,也就是我们所说的工作流,而Skills正是承载工作流的核心模块。
简单来说,Agent的自进化,本质上就是将任务执行中的经验回收,沉淀成新的Skill、规则或工作方法。
两种自进化策略对比
我们先看传统的Agent自进化策略(也是很多AI应用的常用做法):单独搭建一条后台流水线,流程如下:任务执行完成→记录执行轨迹→筛选成功/失败案例→提取可复用模式→生成或更新Skill文件→下次任务复用。
这种策略的核心是“前台执行、后台优化”,Agent主链路只负责完成任务,优化工作由独立的后台模块完成,可控性强,也是我最初认为Hermes会采用的方式。但查看源码后发现,Hermes的策略完全不同:
Hermes的技能提取没有任何硬编码的自动触发逻辑,而是通过三层提示词,引导Agent自己判断“是否需要保存经验”。三层提示词的分工明确:第一层告知Agent“什么时候该创建技能”;第二层列出5条创建条件和3条更新条件;第三层在Agent使用技能时,督促其持续改进。
关键疑问:仅靠提示词引导,真的靠谱吗?
答案是:不一定完全靠谱,大概率会出现“跑偏”的情况。但Hermes的设计者认为,大模型的指令跟随能力足够强(即便当前不足,未来也会逐步完善),能够准确识别“何时新增技能、何时更新技能”。
这也决定了Hermes的定位:更适合稳定性要求不高的场景(如个人办公、内容创作),其架构设计追求的是“灵活”,而非“稳定”。
实际案例:Hermes的技能沉淀过程
假设你让Hermes帮你做一期小红书内容运营,它会完成以下流程:搜索热门话题→分析关键词→生成配图→撰写小红书笔记+公众号长文→给出发布建议。整个过程调用5+工具,任务完成后,Hermes会自动将这套流程沉淀为一个Markdown格式的Skill文件,内容如下(简化版):
---
name:hot-topic-content-creation
description:"热点追踪与多平台内容创作技能"
conditions:
platforms:[macos,linux,windows]
---
#热点内容创作流程
##步骤
1.搜索当前平台热门话题/趋势,筛选与自己领域相关的话题
2.分析热点关键词,确定内容切入角度
3.根据话题生成配图(封面图+内文插图)
4.撰写小红书笔记:标题党+口语化正文+话题标签
5.基于同一话题改写为公众号长文:深度分析+观点输出
6.生成发布建议(最佳时间、标签组合、互动话术)
这个Skill文件既可以供Agent下次复用,也可以由人工查看、修改,灵活性极强。
补充说明:Hermes的技能沉淀倾向
Hermes并非会沉淀所有任务经验,主要倾向于以下四种场景:1. 成功完成复杂任务(尤其是工具调用≥5次);2. 中途遇到错误但最终找到可行路径;3. 收到用户明确的纠正反馈;4. 识别出可复用、多步骤的non-trivial workflow(非简单流程)。
可能有人会问:长期使用后,Skill会不会越来越多,导致模型无法准确选择?从源码来看,Hermes采用“渐进式披露”策略,Skills_list只返回技能名称和描述,不会一股脑全部塞进系统提示词;对于个人用户而言,Skill数量通常只有几十个,足以覆盖日常场景,模型能够准确识别;但对于团队使用场景,当Skill累积到几百个时,可能需要更智能的检索机制,否则容易出现混用、乱用的问题。
2. 记忆系统:三层灵活设计 vs 单插件可控设计
记忆系统是Agent“拟人化”的核心,也是两者差异较大的模块之一。OpenClaw将记忆视为“特殊插件”,而非不可替换的核心模块——这种设计的优势是实现简洁、边界清晰、可替换性强。
OpenClaw的记忆系统做得非常“轻”:同一时间只激活一个记忆插件,对记忆来源、读写方式、注入逻辑都有较强约束,不容易失控。这也符合其“安全可靠”的核心目标:它更关注“记忆如何接入系统才不会破坏稳定性”,而至于“Agent如何靠记忆变得更像人”,则交给开发者通过替换插件来实现。
Hermes则将记忆分为三层——内置记忆、外部记忆、会话搜索,设计更灵活,更贴合个人用户的使用场景。
(1)内置记忆:简洁且有约束
Hermes的内置记忆只有两个文件:MEMORY.md和USER.md,分工明确:
- MEMORY.md:主要供Agent自身使用,记录环境信息、项目约定、踩过的坑等;
- USER.md:专门存储用户画像,包括用户偏好、沟通习惯、内容风格等。
需要注意两个细节:第一,系统提示词中的记忆并非实时更新,而是会话启动时的“快照”——也就是说,当前对话中写入MEMORY.md的新内容,会立即落盘,但模型在本轮对话中无法读取,需重新开启会话才能生效(该设计主要为了利用缓存、降低推理成本);第二,写入记忆时会进行安全扫描,防止提示注入、不可见Unicode字符等风险,同时两个文件有容量限制(MEMORY.md≤2200字符,USER.md≤1375字符),超出后无法继续写入。
以下是内置记忆的简单案例,更易理解:
#MEMORY
##环境信息
-当前主要工作:AI Agent相关文章写作与分析
-常用平台:公众号、小红书
-默认输出语言:中文
##项目约定
作者:恒达娱乐
新闻资讯 News
- 文化如何塑造我们的情绪体验?04-20
- 五个被算法收割的晚年04-20
- 华裔硅谷极客中国之行:从“美国...04-20
- OpenClaw vs Hermes:一文深...04-20

