vein-systems/autonomous-agent-philosophy

GitHub: vein-systems/autonomous-agent-philosophy

一套语言与平台无关的 AI Agent 自治系统设计框架,聚焦于自律性边界划分、安全防御、运行管控与决策评估等治理原则,而非具体实现代码。

Stars: 0 | Forks: 0

# autonomous-agent-philosophy [![License: MIT](https://img.shields.io/badge/License-MIT-yellow.svg)](./LICENSE) [![Status: WIP](https://img.shields.io/badge/Status-WIP-orange.svg)](#バージョン) [![Language: 日本語](https://img.shields.io/badge/Language-日本語-blue.svg)](#言語) ## このリポジトリについて 本リポジトリは、AI エージェントを中心に据えた自律稼働事業 (autonomous agent-driven business) を設計するための、汎用フレームワークを提供します。「人手の介在を最小化しつつ、合法性・継続性・撤退可能性を担保した事業システムを、どう構築するか」を 8 章構成で整理しています。 提示するのは具体的なツールチェーンや実装コードではなく、**設計判断の枠組み** です。「どこまで自律させるか」「人間の介入はいつ必要か」「どの候補に投資すべきか」「どう撤退するか」といった、AI エージェント運用に固有の問いに対して、再利用可能な原則と評価軸を示します。実装言語・利用 API・実行基盤に依存しないレベルで原則を抽象化しているため、読者は自分の文脈に合わせて翻訳・適用できます。 各章は独立して読めるよう設計されており、自分のプロジェクトの段階に応じて、必要な章から取り組むことができます。設計を始める前に [PHILOSOPHY.md](./PHILOSOPHY.md) で全体マップと読み順を確認してください。8 章は相互に参照し合うため、全体マップを先に読んでおくと各章の位置づけが理解しやすくなります。 本フレームは、運用者個人の事例集ではありません。実装の具体例は、原則の理解を補強する範囲でのみ参照され、再現可能で他文脈に転用可能な部分のみを抽出しています。実装事例は将来 `examples/` ディレクトリに、原則本文とは分離した形で集積する予定です。これは「特定の事例で成功したから原則を一般化できる」という誤った推論を避けるための設計です。 ## このフレームワークが扱う問題 - AI エージェントにどこまで自律的な判断・実行を許すべきか、どこから人間の承認が必要かを線引きする方法 - 外部入力 (Web スクレイピング・API レスポンス・ユーザー投稿等) によって、エージェントが意図しない資金移動・購買・公開を起こさない設計 - 「儲かるかもしれない候補」を多数抱えた状態から、評価軸と除外フィルタで絞り込む方法 - 大きな投資をする前に、低コストで市場シグナルを取得し、投資判断のエビデンスを得る運用設計 - 自律 PDCA ループに暴走防止機構を組み込み、運営者が長期不在でも事故が発生しない仕組み - 障害発生時に通知の重要度を分類し、運営者の認知負荷を最小化する通知ポリシー - 複数の設計パラダイムから自分のプロジェクトに適したものを選ぶための、多軸評価の手順 - 運営者個人の専門性・人脈・既存ブランドへの依存を切り離し、運営者交代でも継続可能な事業構造を作る方法 ## このフレームワークが扱わない問題 - 特定の LLM API・特定のオーケストレーションフレームワーク・特定のクラウドプロバイダの選定や使い方 - 個別の収益化手段 (アフィリエイト、広告、有料コンテンツ等) の最適化技術 - 特定地域の税制・法規制の解釈 (本フレームは地域非依存の汎用例を示すにとどめ、具体的な法令解釈は実装者の管轄の専門家に相談すること) - 大規模組織における役割分担・権限委譲・人事評価 - マーケティング・ブランディングの戦術論 - LLM のプロンプト設計テクニック (本フレームは「プロンプトをどう書くか」ではなく「エージェントをどう統制するか」に焦点を当てる) - 機械学習モデルの訓練・ファインチューニング ## 章一覧 | # | タイトル | 概要 | |---|---|---| | 1 | [Design Principles — 7 本の柱](docs/01-design-principles.md) | 本フレームの最上位設計原則 7 つを定義する | | 2 | [Autonomy Boundaries — 自律性の境界設計](docs/02-autonomy-boundaries.md) | エージェント権限を 自律可 / 不可避ライン / 絶対禁止 の 3 層に分類する | | 3 | [Economic Prompt-Injection Resistance](docs/03-prompt-injection.md) | 外部入力で資金移動・購買・公開が誘発されない設計を規定する | | 4 | [Evaluation Matrix & Exclusion Filters](docs/04-evaluation-matrix.md) | 候補スクリーニングのための評価軸と絶対対象外フィルタを定義する | | 5 | [AI-Edge Operation Principles](docs/05-operation-principles.md) | Signal-First / Parallel / Reverse / Evidence-Based の 4 運用原則 | | 6 | [PDCA Loop & Runaway Prevention](docs/06-pdca-loop.md) | 自律 PDCA サイクルと閾値駆動の停止条件 (暴走防止機構) | | 7 | [Incident Response & Notification Priority](docs/07-incident-response.md) | 障害対応マトリクスと 3 階層の通知重要度フィルタ | | 8 | [Decision Framework](docs/08-decision-framework.md) | エージェント設計パラダイム選択のための 8 軸とトレードオフ | 全体マップと推奨読み順は [PHILOSOPHY.md](./PHILOSOPHY.md) を参照してください。各章は 200〜400 行程度の自己完結したエッセイ + 実装ガイドライン + パラメータ表で構成されています。 章の構成は次の論理に従っています。第 1 章で基盤となる 7 原則を提示し、第 2〜3 章で「境界と防御」を、第 4〜5 章で「評価と運用」を、第 6〜7 章で「ループと障害対応」を、第 8 章で「全体を再評価する軸」を示す、という流れです。 ## クイックスタート ### 最初に読むべき章 これからフレームを学ぶ場合は、次の順序を推奨します。 1. **[PHILOSOPHY.md](./PHILOSOPHY.md)** — 全 8 章の関係マップ。最初の入口 2. **第 1 章 Design Principles** — 7 本の柱。本フレーム全体の前提 3. **第 2 章 Autonomy Boundaries** — どこまで自律させ、どこに人間を入れるか 4. **第 5 章 AI-Edge Operation Principles** — 運用原則の基本 ここまで読めば、本フレームが何を主張しているかは一通り掴めます。所要時間は 1〜2 時間を目安としてください。各章は単独でも読めますが、第 1 章を飛ばすと「なぜそう設計するか」の根拠が抜け落ちる点に注意してください。 ### 実装段階で読むべき章 具体的なシステム構築を始める段階では、次の章を参照してください。 - **第 8 章 Decision Framework** — 8 軸であなたのプロジェクトを採点 - **第 4 章 Evaluation Matrix & Exclusion Filters** — 候補スクリーニング基準を策定 - **第 6 章 PDCA Loop & Runaway Prevention** — ループと停止条件を設計 - **第 3 章 Economic Prompt-Injection Resistance** — 外部入力経路の防御 - **第 7 章 Incident Response & Notification Priority** — 障害発生時の運用 実装段階では、章を読みながら自分のプロジェクトに即した「採点表」「除外フィルタ」「停止条件閾値」を文書化することを推奨します。本フレームの真価は、原則を読むことではなく、原則を自分の文脈に翻訳して具体化することで発揮されます。 ## 想定読者 本フレームは次のような人を想定して書かれています。 - AI エージェントを使って自律稼働する事業を立ち上げたい個人開発者・小規模チーム - 既存の AI エージェントシステムを設計レビューしたい技術者・PM - 自律システムにおける人間介入の境界設計に関心のある研究者・実務家 - 「とりあえず作ってみる」を超えて、撤退条件・障害対応・倫理境界を含めた設計を整理したいエンジニア - 過去に自律エージェントを試して、暴走・スコープ膨張・撤退困難で挫折した経験を持つ人 逆に、特定のサービス・特定の収益モデルのハウツーを求める読者には向きません。本フレームは抽象度の高い設計原則であり、具体的な戦術は読者自身の文脈に合わせて適用する必要があります。「コピペで動くテンプレート」を期待する読者には不向きです。 事前に必要な前提知識として、AI エージェント・LLM API の基本的な動作モデル、PDCA や撤退判断などの一般的な事業運営の概念があると、読みやすくなります。ただし高度な機械学習の知識は必要ありません。本フレームは「エージェントをどう動かすか」より「エージェントをどう統制するか」に焦点を当てています。 ## ライセンス 本リポジトリは [MIT License](./LICENSE) で配布されています。商用・非商用を問わず自由に利用・改変・再配布できます。詳細は `LICENSE` ファイルを参照してください。 ## バージョン - **現行バージョン**: v0.1.0 (Initial Release, 2026-05-08) - **Status**: WIP (Work In Progress) - 変更履歴は [CHANGELOG.md](./CHANGELOG.md) を参照してください 第 1 版で 8 章すべてを揃えましたが、本フレームは完成形ではありません。case study の追加、アンチパターン集の拡充、採点基準の校正、新章の追加など、継続的に改訂していきます。 ## 言語 第 1 版は **日本語のみ** です。英語版は別フェーズの翻訳企画として独立に立ち上げる予定です。第 1 版の段階では英語訳の Pull Request は受け付けていません (整合性管理コストが高いため)。詳細は [CONTRIBUTING.md](./CONTRIBUTING.md) を参照してください。 主要な原則名・軸名は英語併記しています (例: `Identity Isolation`、`Asset Genericity`)。 ## 貢献 設計判断への異論・反証・拡張提案を歓迎します。本フレームの提示は議論の起点であって最終解ではありません。Issue / Pull Request の作法は [CONTRIBUTING.md](./CONTRIBUTING.md) を参照してください。 特に次のような貢献を求めています。 - ある原則が成立しない反例の提示 - 既存軸の重複・冗長性の指摘 - 新しい軸の追加提案 (他軸との直交性を示すこと) - アンチパターン集の拡充 - 章間の不整合・参照漏れの指摘 - 文体・用語の統一 (章ごとに用語の訳がブレている箇所の指摘) ただし「自分の事例ではこうだった」だけで原則を書き換える Pull Request は受け入れません。再現性・他文脈への転用可能性を示すことが、貢献の前提です。詳細は [CONTRIBUTING.md](./CONTRIBUTING.md) の「設計判断への異論を歓迎する」節を参照してください。 ## 注意書き - 本フレームワークは **設計指針** です。特定の実装・特定の収益化を保証するものではありません。 - 具体的な法令・規制・税制の解釈は、実装者の管轄の **専門家に相談** してください。本フレーム内の地域固有の例示は、あくまで参考であり法的助言ではありません。 - 本フレームを採用したからといって、システムが事故を起こさないことを保証するものではありません。最終的なリスク判断は実装者・運営者の責任です。 - 本フレームは執筆時点の AI エージェント運用の常識を前提としています。LLM の能力・API 仕様・規制環境の変化により、原則の前提が時代遅れになることがあります。改訂提案は Issue / Pull Request で歓迎します。 - 本リポジトリには、第 1 版時点で実行可能なコード・スクリプトは含まれていません。本フレームは文書のみを提供します。 ## 公開実績・case study について 第 1 版時点では、公開可能な case study は同梱していません。本フレームを適用した実装事例が育った段階で、`examples/` ディレクトリに固有情報を分離した形で集積する予定です。実装事例の寄稿に関心がある方は、Issue で先に相談してください (固有情報の取り扱いポリシーは [CONTRIBUTING.md](./CONTRIBUTING.md) に記載)。 case study は本フレームの正当性を検証する材料であり、原則の補強であって原則そのものではありません。事例の数で原則の正しさが決まるわけではない点に留意してください。少数の反証事例 1 件が、多数の成功事例より重要な情報を提供することがあります。 ## 関連する考え方・前提 本フレームは、次の考え方と問題意識を共有しています。これらに親和的な読者には、本フレームの主張が受け入れやすいでしょう。 - 自律システム設計における **境界明示主義**: 「何を許すか」より「何を許さないか」を優先して定義する - 撤退可能性を最初に設計する **Exit-First Design**: 始める前に、どう終わらせるかを決める - 運営者の専門性・人脈・既存ブランドへの依存を排除する **De-personalization**: 「あなたしかできない」要素を構造的に排除する - 大規模投資の前にシグナルを取得する **Signal-Before-Investment**: 仮説検証コストを最小化してから本投資を判断する これらの考え方に違和感がある場合、本フレームのいくつかの章は受け入れにくく感じる可能性があります。その場合、Issue で論点を提起してください。フレームの前提自体を議論する場として歓迎します。 ## ロードマップ 第 1 版で 8 章を揃えましたが、本フレームは継続的に改訂していきます。今後の方向性は次のとおりです。 - **v0.2.x**: 第 1 版へのフィードバックを集約。誤記修正、章間整合性の補強、アンチパターン集の拡充 - **v0.3.x**: 採点基準の校正。第 8 章の 8 軸スコアリングを運用データで再キャリブレーション - **v0.4.x**: case study の集積。`examples/` ディレクトリの導入と、固有情報分離テンプレートの提供 - **v0.5.x**: 章の追加検討。多エージェント協調、ツール選定、テスト設計などの新領域 - **v1.0.0**: 安定版。複数の独立した実装事例で検証された原則のみを残し、再現性が確認できなかった主張は削除または「未確定」マークを付与する - **v2.x.x 以降**: 英語版の独立企画として並行立ち上げ 各バージョンの達成基準・スケジュールは確定していません。Issue / Pull Request の蓄積に応じて柔軟に判断します。 ## 引用について 本フレームを学術論文・技術書・ブログ記事等で引用する場合は、リポジトリ URL とバージョン番号を併記してください。引用形式は読者の慣習に従って構いません。商用利用も MIT ライセンスの範囲で自由です。 Copyright (c) 2026 vein-system. Licensed under MIT.
标签:AI伦理, AI安全, AI系统架构, Chat Copilot, CISA项目, PDCA循环, 业务系统设计, 业务连续性, 人工智能风险管理, 企业AI应用, 决策制定框架, 可撤回性, 库, 应急响应, 提示注入防御, 智能体运维, 源代码安全, 系统评估, 自主代理, 自治系统, 自治边界, 设计框架, 防御加固