跳转到主内容
Open core · BSL 1.1 · 主分支已发布

让 AI 智能体组成 可投入生产的团队。

Molecule AI 是面向异构 AI 智能体团队的组织级控制平面。工作空间即角色,组织架构即拓扑。七种运行时、分层内存、技能进化、生产级治理 —— 开箱即用。

  • 可视化画布
  • 运行时兼容
  • 分层内存
  • 技能进化
  • 运维护栏
控制平面 / 生产环境
molecule.org · 实时
组织根节点
molecule://root
6 种运行时主分支14 个工作空间
工程团队
2 个智能体 · CLAUDE CODE
运行中
前端智能体
claude-sonnet-4-5
后端智能体
claude-opus-4
MEMORY · LOCAL · TEAM
研究团队
3 个智能体 · LANGGRAPH
运行中
知识合成器
gpt-5
语料索引器
nemotron-70b
MEMORY · LOCAL
运维团队
2 个智能体 · CREWAI
空闲
部署协调器
claude-opus-4
事件路由器
gpt-5
MEMORY · GLOBAL · TEAM
14
工作空间
6
运行时
3
内存范围
0
偏移

与你团队正在使用的运行时、模型和工具无缝协作

当下价值

协同,才是新的瓶颈。

每个团队都能跑出一个 Demo 智能体。但没人拥有那一层 —— 把零散 Demo 变成一个受治理、可复利的组织。

  • 01

    单智能体 Demo 遇到了天花板

    单个智能体可以回答问题,却无法驱动发布流水线或跨组织边界升级。约束不是能力,而是协同。

  • 02

    治理是上线的前置条件

    没有作用域授权、没有审计轨迹、没有人工审核门 —— 就没有生产部署。治理是第一天的事,不是第二阶段的事。

  • 03

    内存边界决定平台价值

    扁平的共享上下文会泄漏数据,并在规模化时崩溃。按拓扑划分的内存(LOCAL / TEAM / GLOBAL)才是新基线。

  • 04

    异构运行时才是常态

    LangGraph、Claude Code、CrewAI —— 没有哪个框架在所有场景都占优。控制平面必须天然与运行时无关。

可以构建什么

AI 智能体团队服务于 研究型组织

一个工作空间即一个角色。一组工作空间即一个团队。团队分形地组合成组织 —— 没有漂移。

HMA DeepAgents Langfuse A2A

内存隔离下的并行研究

兄弟工作空间在 LOCAL 作用域下独立探索,父节点通过 TEAM 内存进行综合。

  • 默认通过 LOCAL 作用域隔离兄弟节点
  • 父节点通过 TEAM 内存进行综合
  • 每个工作空间独立的 Langfuse 追踪链
workspace.yml
workspace:
  id: research
  role: 研究型组织
  runtime: HMA
  memory:
    scope: [LOCAL, TEAM]
    awareness: on
    hermes: on
  governance:
    rbac: enforced
    audit: jsonl
  adapters:
    - HMA
    - DeepAgents
    - Langfuse
    - A2A
分子级内存

内存遵循你的组织形状。

三个作用域 —— LOCAL、TEAM、GLOBAL —— 用层级感知的隔离取代扁平共享上下文。Awareness 记录发生了什么;Hermes 把反复成功的模式提炼为可复用技能。

LOCAL

每个工作空间的私有草稿本。

兄弟节点与其他团队都看不到的隔离上下文。每个角色保留自己的工作记忆。

TEAM

在父子层级内共享。

交接上下文仅限直属团队 —— 不会泄漏到兄弟工作空间,也不存在交叉污染。

GLOBAL

由根节点出发的组织级知识。

策略与规范沿层级向下流动。读:所有人。写:仅根节点。

Hermes 是技能层

Awareness 存储发生了什么。Hermes 读回内存、识别可重复的模式,并把有效的那些提炼成可复用技能。

  1. 步骤 1

    先加载工作空间内存

  2. 步骤 2

    匹配任务对应的模式

  3. 步骤 3

    把反复成功的经验提炼为技能

为什么这在生产中能赢

  • 兄弟工作空间默认隔离
  • 内存共享严格遵循组织拓扑
  • 升级路径与层级完全一致
  • 反复出现的工作流沉淀为可复用技能
  • 可审计的 JSON Lines 事件日志
  • 团队扩张不会带来 prompt 膨胀

自我进化的飞轮

  1. 01 任务执行
  2. 02 持久洞察沉入内存
  3. 03 反复成功形成信号
  4. 04 工作流被提炼为可复用技能
  5. 05 技能热加载回运行时
  6. 06 后续工作更快、更可靠
适配生态

一个控制平面,可替换的层。

Molecule 不会把你绑定在单一模型、单一 CLI 或单一框架上。它标准化的是组织层与每个工作空间内部运行物之间的边界。

模型提供商

更换模型时组织契约保持不变。

Claude、OpenAI、Nemotron 和本地模型可以同时位于同一工作空间角色之后。模型是实现细节;工作空间身份保持稳定。

  • Claude
  • OpenAI
  • Nemotron
  • 本地模型

运行时适配器

按角色或团队切换执行引擎。

Claude Code、OpenClaw、LangGraph、CrewAI、AutoGen、DeepAgents 已全部接入同一拓扑;NemoClaw 正在 feature 分支上开发中。每个适配器负责执行;Molecule 负责层级、路由与治理。

  • Claude Code
  • OpenClaw
  • LangGraph
  • CrewAI
  • AutoGen
  • DeepAgents
  • NemoClaw · 开发中

工具 · 评测 · 可观测性

先连通生态,再度量它。

MCP 共享工具,NeMo Agent Toolkit 扩展工具与评测,Langfuse 记录结果。正是在这一层,平台学习跨运行时的有效模式并回喂到内存中。

  • MCP
  • NeMo 工具包
  • Langfuse
  • OpenTelemetry
主分支已交付

一套完整的控制平面,不是概念验证。

下面每一项能力今天都已经在开源 monorepo 的主分支上 —— 没有私有分支,没有未发布的 alpha,没有只给演示看的代码路径。

CANVAS

工作空间画布

Next.js 15 · React Flow · Zustand · Tailwind v4

  • 拖拽式团队嵌套构建
  • 空状态部署 + 引导向导
  • 模板面板与 Bundle 导入导出
  • 10 个侧边面板:对话 · 活动 · 详情 · 技能 · 终端 · 配置 · 文件 · 内存 · 追踪 · 事件
  • 通过 WebSocket 实时呈现拓扑
PLATFORM

控制平面

Go 1.25 · Gin · Postgres · Python 3.11 · Fly Machines

  • 工作空间 CRUD 与配置发放
  • 注册表、心跳、重启、暂停/恢复
  • 浏览器安全的 A2A 代理
  • 团队扩展 / 收起(分形递归)
  • 全局密钥 + 工作空间级覆盖
  • JSON Lines 审计轨迹
平台护城河

为什么 Molecule 难以被复制。

四个架构决策复利形成持久的优势 —— 每一项都可以在代码仓库中立刻验证。

  • 1

    节点即角色

    工作空间是持久的组织角色 —— 在更换模型、变更框架或团队重组后依然存在。

  • 2

    组织架构即拓扑

    通讯、内存、升级、审批全都沿同一套层级流动。零手工接线,零漂移。

  • 3

    治理不绑定运行时

    在六种运行时之上实现统一授权与审计 —— 不强迫任何团队使用单一框架。

  • 4

    内存即基础设施

    HMA 是底座而非挂件。它支撑团队扩张、技能复利与规模化的组织学习。

当前产品证据

6+1 运行时适配器
主分支:LangGraph、DeepAgents、Claude Code、CrewAI、AutoGen、OpenClaw;NemoClaw 开发中。
4 安全等级
T1 沙箱 → T4 全主机。按风险为每个工作空间隔离。
614 三层测试用例
Go 1.25 + vitest + Python 3.11 pytest。CI 中运行竞态检测与覆盖率。
10 画布运维标签
对话、活动、详情、技能、终端、配置、文件、内存、追踪、事件。
分形团队扩展
任意工作空间都能变成子团队。递归是拓扑的原生能力。
20+ MCP 工具
平台能力通过 MCP 暴露给 Claude Code、Cursor 或 Codex。
品类空白

为什么选择 Molecule。

下面每个工具都解决了问题的一部分。但没有一个解决它们上方的组织层 —— 而 Molecule 正好落在这一层。

擅长 不足在哪 Molecule 补上什么
工作流构建器 拖拽节点式的可视化任务自动化。 节点是任务,而不是可持久的组织角色。 角色化的工作空间、层级结构和长期存续的团队。
Agent 框架 强大的运行时语义与执行原语。 控制平面薄弱,组织级运维能力薄弱。 统一的生命周期、画布、注册表、策略和可观测性。
编码型 Agent 优秀的本地执行,CLI 原生的连续性。 通常不是按团队基础设施来设计的。 工作空间抽象、A2A 协作、平台级运维。
自定义多 Agent 图 对拓扑与交接拥有完全的灵活性。 随着团队扩张,拓扑脆弱、治理蔓延。 标准化的运营模型,同时保留运行时自由。

多种 agent 运行时,一套组织级操作系统。

常见问题

团队在采用 Molecule AI 之前常问的问题。

最常被问到问题的简短回答。如果没有覆盖你的问题,欢迎到 monorepo 开一个 discussion。

一句话说,Molecule AI 是什么?

Molecule AI 是一个 open-core 控制平面,让异构 AI 智能体 —— LangGraph、Claude Code、CrewAI、AutoGen、DeepAgents、OpenClaw —— 作为受治理、内存隔离的团队运行,而不是一堆彼此割裂的 demo。

它和 LangGraph、CrewAI 这类 agent 框架有什么不同?

那些框架解决的是执行层 —— 单个 agent 怎么运行、怎么调用工具、怎么交接。Molecule AI 解决的是执行层之上的组织层:持久的工作空间角色、层级感知的内存、治理与运维。多种 agent 运行时,一套组织级操作系统。

目前支持哪些运行时?

Monorepo 主分支已发布六种适配器:LangGraph、DeepAgents、Claude Code、CrewAI、AutoGen、OpenClaw。面向 NVIDIA 的 NemoClaw 正在 feature 分支上开发,合并后将进入主分支。

它是真的开源吗?

是的。核心 monorepo 采用 Business Source License 1.1(BSL 1.1)。源码公开,可阅读、可 fork、可自部署、可修改。BSL 1.1 会在变更日期后自动转为开源许可证(Apache 2.0),唯一的使用限制是不能作为竞品托管服务对外商业转售。

我能完整自部署吗?

可以。公开 monorepo 每个实例承载一个组织,不依赖任何隐藏的 SaaS 控制平面。clone 下来、配好环境变量、启动平台与工作空间运行时即可。README 里有 Railway 和 Render 的一键模板。

什么是分层内存(HMA)?为什么重要?

HMA 给每个工作空间三个内存作用域 —— LOCAL(该工作空间私有)、TEAM(在父子层级内共享)、GLOBAL(组织级,只由根节点写)。内存共享严格跟随组织架构,而不是在整个系统里扩散;兄弟团队默认隔离,升级路径与真实的层级一致。

Hermes 是什么?技能机制是怎么运作的?

Awareness 存储跨会话的事实。Hermes 读回这些内存、识别可重复的模式,然后把有效的那些提炼为可复用技能。技能会热加载回正在运行的工作空间,因此下一个任务可以直接复用之前成功的经验而不必重启。这就是架构小节里的那个自我进化飞轮。

Molecule AI 用什么技术栈构建?

控制平面是 Go 1.25 + Gin + Postgres。工作空间运行时是 Python 3.11。画布(可视化组织架构 + 10 个运维标签)是 Next.js 15 + React Flow + Zustand + Tailwind v4。安全沙箱按工作空间划分为四档:从 T1 沙箱到 T4 全主机。

如何开始?

先看 doc.moleculesai.app 上的 Quickstart,然后 clone github.com/Molecule-AI/molecule-monorepo。README 会引导你开通第一个工作空间、选择一个运行时适配器、组建第一支团队。预计 10 分钟内就能跑起一个工作空间。

价格是怎样的?

Open-core monorepo 在 BSL 1.1 下免费 —— 你可以永久自部署,不需要向任何人付费。托管版 SaaS 控制平面正在规划中,会在 moleculesai.app 上提供注册、组织、计费与多租户发放功能,底层仍是同一份 open core。价格将在上线前公布。

从 AI 智能体团队,到自主机器人团队,再到自组织的数字劳动力 —— Molecule AI 正在构建单智能体时代之后的基础设施。

开始构建

你的 AI 组织架构 从一个工作空间开始。

一个工作空间变成一个团队。一个团队变成一个组织。现在开始。