なぜ AIGNE を構築したか

AI エージェントの分野は、デモ向けに最適化されたフレームワークで溢れています。5分でチャットボットを構築する。いくつかのプロンプトをつなぎ合わせる。画面録画では見栄えがするが、本番負荷では崩壊するものをリリースする。

私たちが AIGNE を構築したのは、根本的に異なるものが必要だったからです。AI エージェントをファーストクラスのソフトウェアコンポーネントとして扱うフレームワーク — 分離、合成、テスト、デプロイにおいて、あらゆる本番システムに求められるのと同等の厳密さを備えたものです。

この名前は私たちの理念を反映しています。AI ネイティブエンジニアリングとは、既存のソフトウェアパターンに AI を後付けすることではありません。AI が開発と実行の両方でコア参加者となったとき、ソフトウェアの構築方法を根本から再考することです。

関数分離アーキテクチャ

ほとんどのエージェントフレームワークは、コンポーネント間で自由に状態を共有します。これは簡単なデモを容易にしますが、本番システムを脆弱にします。AIGNE は逆のアプローチをとります:各エージェント関数は分離された環境で実行されます

各関数は以下を持ちます:

  • 定義された入出力 — 暗黙の共有状態なし
  • 独自のコンテキスト境界 — ある関数が別の関数の状態を破壊できない
  • 明示的な通信チャネル — データは宣言されたインターフェースを通じて流れる

これは制約ではありません。数十年にわたるオペレーティングシステム研究から借用した設計原則です。分離こそが、システムをコンポーザブルで、テスト可能で、安全にする鍵です。エージェントが誤った決定を下したとき、爆発半径は制御可能です。

マルチモデル対応

AIGNE は単一の LLM プロバイダーに縛られません。フレームワークは統一インターフェースを通じてモデルのやり取りを抽象化するため、以下が可能です:

  • 同じアプリケーション内で異なるタスクに異なるモデルを使用
  • エージェントロジックを書き直すことなくプロバイダーを切り替え
  • 開発時はローカルモデル、本番ではクラウドモデルを使用
  • プロバイダー間でのフォールバックチェーンを実装

モデルは依存関係であり、アイデンティティではありません。あるプロバイダーから別のプロバイダーに切り替えたからといって、エージェントロジックが変わるべきではありません。

ワークフローパターン

実際のエージェントアプリケーションは単一ターンの対話ではありません。ワークフローです — 確実に実行されなければならない決定、アクション、検証のシーケンスです。AIGNE は一般的なパターンをファーストクラスでサポートします:

  • シーケンシャルパイプライン — 型付きの受け渡しによるステップバイステップ処理
  • パラレルファンアウト — 複数のエージェントに同時に作業を分散
  • 条件付きルーティング — 中間結果に基づいてフローを誘導
  • ヒューマンインザループ — 人間のレビューと承認のために実行を一時停止

これらのパターンは宣言的です。ワークフロー構造を記述すれば、AIGNE が実行、エラー回復、オブザーバビリティを処理します。

AFS 統合

AIGNEエージェンティックファイルシステム(AFS)と深く統合されています。各エージェントのワークスペースは AFS 名前空間であり、これは以下を意味します:

  • エージェントの状態は永続的で、標準的なファイル操作で検査可能
  • 設定、プロンプト、ツールはすべて人間と AI の両方が読み書きできるファイル
  • 監査証跡は自動 — すべてのファイル操作がアイデンティティコンテキストとともに記録
  • エージェントはアドホックなメッセージパッシングではなく、明確に定義されたファイルパスを通じてデータを共有可能

AFS はエージェントに、人間と機械の両方にとって自然な共有抽象レイヤーを提供します。エージェントが何をしたかを検査するために特別なツールは必要ありません — ファイルを見るだけです。

MCP サポート

AIGNE は Model Context Protocol(MCP)を実装しており、標準化されたインターフェースを通じてエージェントが外部ツールやデータソースに接続できます。これにより、エージェントはデータベース、API、ファイルシステム、その他のサービスに、各サービスごとにカスタム統合コードを書くことなくアクセスできます。

Blocklet エコシステム

AIGNE エージェントは Blocklet として Blocklet Server にデプロイされます。これにより以下が得られます:

  • ワンクリックデプロイ — エージェントアプリケーションをパッケージ化し、Blocklet Server が稼働する任意の場所にデプロイ
  • 組み込みの DID アイデンティティ — デプロイされた各エージェントが自動的に分散型識別子を取得
  • リソース管理 — CPU、メモリ、ネットワークの制約がプラットフォームレベルで強制
  • ライフサイクル管理 — 統一インターフェースを通じたエージェントの起動、停止、更新、ロールバック

AIGNE のエージェントフレームワークと Blocklet Server のデプロイメントインフラの組み合わせにより、プロトタイプから本番環境までプラットフォームを切り替えることなく移行できます。

オープンソース

AIGNE は Apache 2.0 ライセンスの下で完全にオープンソースです。ソースコード、ドキュメント、サンプルはすべて GitHub で入手できます。AI エージェントのインフラは、信頼とエコシステムの成長のために、オープンでなければならないと私たちは信じています。

私たちが AIGNE をオープンな環境で構築しているのは、解決しようとしている問題が重要すぎてプロプライエタリな壁の中に閉じ込めることができないからです。AI エージェントが重要なインフラとなるなら、それを構築するフレームワークは監査可能で、拡張可能で、コミュニティが所有するものである必要があります。

AIGNE で構築を始める

AIGNE はオープンソースで、開発者が利用可能です。

GitHub で見る | ドキュメントを読む


おすすめの記事