为什么我们构建 AIGNE
AI 代理领域充斥着为演示而优化的框架。五分钟构建一个聊天机器人。把几个提示词串在一起。发布一个在屏幕录制中看起来很厉害、但在生产负载下不堪一击的东西。
我们构建 AIGNE 是因为我们需要根本不同的东西:一个将 AI 代理视为一等软件组件的框架 — 在隔离、组合、测试和部署方面具有我们对任何生产系统所期望的同等严谨性。
这个名字反映了我们的理念:AI 原生工程不是把 AI 附加到现有的软件模式上。它是在 AI 成为开发和执行过程中的核心参与者时,重新思考软件的构建方式。
函数隔离架构
大多数代理框架在组件之间自由共享状态。这使得简单的演示变得容易,但让生产系统变得脆弱。AIGNE 采取相反的方法:每个代理函数都在隔离中运行。
每个函数具有:
- 定义的输入和输出 — 没有隐式共享状态
- 自己的上下文边界 — 一个函数不能破坏另一个函数的状态
- 显式通信通道 — 数据通过声明的接口流动
这不是一个限制。这是一个借鉴自数十年操作系统研究的设计原则。隔离是使系统可组合、可测试和安全的关键。当你的代理做出错误决策时,爆炸半径是可控的。
多模型支持
AIGNE 不绑定单一 LLM 提供商。框架通过统一接口抽象模型交互,因此你可以:
- 在同一应用中为不同任务使用不同模型
- 切换提供商而无需重写代理逻辑
- 开发时使用本地模型,生产时使用云端模型
- 跨提供商实现降级链
模型是一个依赖项,而不是一个身份标识。你的代理逻辑不应该因为你从一个提供商切换到另一个而改变。
工作流模式
真实的代理应用不是单轮对话。它们是工作流 — 必须可靠执行的决策、操作和验证序列。AIGNE 为常见模式提供一等支持:
- 顺序管道 — 带有类型化传递的逐步处理
- 并行扇出 — 同时将工作分发给多个代理
- 条件路由 — 根据中间结果引导流程
- 人在环中 — 暂停执行以等待人工审核和批准
这些模式是声明式的。你描述工作流结构,AIGNE 处理执行、错误恢复和可观测性。
AFS 集成
AIGNE 与智能体文件系统(AFS)深度集成。每个代理的工作空间都是一个 AFS 命名空间,这意味着:
- 代理状态是持久的,可以通过标准文件操作检查
- 配置、提示词和工具都是人类和 AI 都可以读写的文件
- 审计追踪是自动的 — 每个文件操作都带有身份上下文记录
- 代理可以通过定义良好的文件路径共享数据,而不是临时的消息传递
AFS 为代理提供了一个对人类和机器都自然的共享抽象层。你不需要特殊工具来检查代理做了什么 — 只需查看文件即可。
MCP 支持
AIGNE 实现了模型上下文协议(MCP),使代理能够通过标准化接口连接外部工具和数据源。这意味着你的代理可以访问数据库、API、文件系统和其他服务,而无需为每个服务编写自定义集成代码。
为 Blocklet 生态而生
AIGNE 代理作为 Blocklet 部署在 Blocklet Server 上。这为你提供:
- 一键部署 — 打包代理应用并部署到任何运行 Blocklet Server 的地方
- 内置 DID 身份 — 每个部署的代理自动获得去中心化标识符
- 资源管理 — CPU、内存和网络约束在平台层面强制执行
- 生命周期管理 — 通过统一接口启动、停止、更新和回滚代理
AIGNE 的代理框架与 Blocklet Server 的部署基础设施相结合,意味着你可以从原型到生产无需切换平台。
开源
AIGNE 在 Apache 2.0 许可证下完全开源。源代码、文档和示例都可以在 GitHub 上获取。我们相信,AI 代理的基础设施必须是开放的 — 无论是为了信任还是为了生态增长。
我们在开放环境中构建 AIGNE,因为我们正在解决的问题太重要了,不能被锁在专有围墙之后。如果 AI 代理将成为关键基础设施,那么构建它们的框架需要是可审计的、可扩展的和社区拥有的。
推荐阅读
- 为什么 AI 代理需要去中心化身份 — DID 如何为自主 AI 代理提供信任层。
- AFS:重新思考 AI 时代的系统抽象 — 使 AI 原生系统可检查和可组合的文件系统抽象。
- 从 Blocklet 到 Chamber:我们的架构如何为 AI 演进 — 从约束人类工程师到约束 AI 代理的概念演进。