← すべての記事

クリーンアップレイヤーこそが本当のAIエージェント市場である

3日前、Charlie LabsがShow HNで投稿した内容には、今年読んだ中で最もクリーンなピボット声明の一つが含まれていました。「私たちはエージェント構築から、エージェントの後始末をする側へとピボットしました」1 創業者は2年近くをクラウド型TypeScriptコーディングエージェントの構築に費やしてきました。しかし、エージェントの大量利用によって、PRやドリフト、古い依存関係、未完了のメンテナンス作業がチームの処理能力を上回るペースで生み出されたため、彼はそのプロダクトを閉じました。新製品のDaemonsは、.agents/daemons/<id>/DAEMON.md ファイルで定義される定期メンテナンスロール用の設定フォーマットで、バグのトリアージ、ドキュメント更新、マージ衝突の監視、古いPRのレビューを継続的に行います。2

このピボットの言い回しこそが本当のシグナルです。「より良いエージェントを作った」のではない。「エージェントは仕事を生み出す。Daemonsはそれを維持する」2

この一文は、業界全体が同時に向かっている市場を言い当てており、私自身のプロダクション環境がなぜこのような形になっているかを説明してくれます。永続的なAIエージェント市場とは、仕事を生成するレイヤーではない。仕事が正しく、境界が定まり、可逆的で、署名に値することを証明するレイヤーである。 生成はモデルAPIの中でコモディティ化しつつあります。証明こそが永続的なレイヤーなのです。なぜなら、P&Lを持つすべての顧客が実際にお金を払っているのは、それだからです。

TL;DR

  • Charlie Labsはコーディングエージェントからクリーンアップ製品へと公にピボットしました。エージェントが運用負債を返済するよりも速く生み出すからです。
  • このパターンはユニークなものではありません。InsightFinderは4月16日に「AIエージェントが間違える場所」をテーマに1500万ドルを調達し、Palo Alto Networksは11月にChronosphereを33.5億ドルで買収しました。証明レイヤーは集約しつつあります。
  • 現在、組織の57%がプロダクションでエージェントを稼働させていますが、エージェントの判断の69%は依然として人間による検証を必要としています。この検証ギャップこそが市場です。
  • 私自身の傷跡フックの数は26日間で84個から123個に増加しました。それらのフックはどれも生成しません。すべてが証明するためのものです。
  • 生成は仕事の本体です。証明はキャビネットの裏側であり、永続的なマージンが宿るのはそこなのです。

Charlie Labsが置かれているパターン

Charlie Labsは、今四半期に静かに自社を再分類している唯一の企業ではありません。Daemons発表と同じ週には次のような動きがありました。

  • InsightFinder は4月16日、まさに「AIエージェントが間違える場所」をテーマとした1500万ドルのシリーズBを調達しました。エージェント主導のインシデントに対する異常検出、根本原因診断、自動修復を提供しています。3
  • Sonarly(YC W26) は、Sentry、Datadog、Grafanaの上に乗るプロダクションアラートのトリアージ、RCA、修正PRを提供しています。インシデント後の残骸を読み取って片付けるエージェントです。4
  • Cekura(YC F24) は、音声およびチャットエージェント向けの自動テスト、モニタリング、シミュレーションを提供しています。リリース前のマイルストーンではなく、継続的なランタイムとしての品質保証です。5
  • Langfuse、Arize Phoenix、Braintrust、Datadog LLM Observability、Fiddler はいずれも、エージェントランタイムのトレーシングと評価のプレーンとなるべく競争しています。678910
  • Lakera GuardとFiddler Guardrails は、ランタイム制御を製品化しています。プロンプトインジェクションのブロック、ツール乱用の検知、ポリシー強制などです。1112
  • Palo Alto Networks は11月にChronosphereを33.5億ドルで買収し、エージェントの波に先立ってオブザーバビリティをセキュリティスタックに組み込みました。13

上記の企業はそれぞれ異なる表面(アラート、評価、トレーシング、ランタイムガードレール、コードレベルのメンテナンス)を販売していますが、すべてが一つの事実の下流に位置しています。エージェントの出力は、その言葉だけを根拠に出荷することはできない、ということです。誰か、あるいは何らかの別のソフトウェアが、報告された通りに作業が行われたことを確認しなければなりません。その「誰か」が証明レイヤーであり、証明レイヤーこそがエージェントスタックの中で今日収益を持つ部分なのです。

Charlieの言い回しはそれを最もクリーンに表現しています。エージェントは完成した仕事を生み出すよりも速く証明義務を生み出します。証明義務こそが顧客が支払う単位です。それを生み出すエージェントの方は、ファウンデーションラボがモデルの一機能として補助しているため、ますます無料化していきます。

検証ギャップ、数字で見ると

最近の市場分析の一つは、創業者たちの逸話と一致しています。この論考の主要な働きをしているのは3つの数字です。

  • 組織の57% が現在、AIエージェントをプロダクションで稼働させています。前年の51%から増加しました。14
  • エンタープライズAIプロジェクトの72% がマルチエージェントアーキテクチャを採用しており、2024年の23%から増加しました。14
  • AI主導の判断の69% が、実行前に依然として人間による検証を必要としています。チームの32% が、プロダクション展開の最大の障壁として品質を挙げています。14

最初の2つの数字はエージェント展開の表面積を示しています。3つ目はスループットの上限を示しています。1日に100件のエージェント判断を稼働させている顧客は、その下のツールがループを閉じていないため、依然として69件を手作業で検証しています。前述の証明レイヤーリストにあるすべての製品は、その69%への楔となっています。

このギャップを購買言語に翻訳すると、論考は自ずと書き上がります。「AIエージェント」に予算X万ドルを持つバイヤーは、生成(より多くのエージェント、より速く)または証明(誤検知の減少、より自律的な判断、人間が介在するループの減少)にそれを使うことができます。検証キューが満杯になると、追加で生成に投じる1ドルは収穫逓減に直面します。追加で証明に投じる1ドルはキューの上限を取り払います。予算が動くのはそこであり、これがSonarly、Cekura、InsightFinder、Charlie Labs、そしてオブザーバビリティの既存企業たちが空気を吸い尽くしている理由なのです。

私のプロダクションシステムは同じパターンの小規模版

私はエージェントをプロダクションで稼働させた初日から、この市場の証明側にいました。ただ、それに名前を付けていなかっただけです。私が出荷する生成側の成果物に最も近いのは、たった一つの完了レポートです。クリーンアップ側の成果物はあちこちにあります。

2026年4月24日時点の私の傷跡フックオーケストレーターのスナップショットです。15

  • 123個のフックファイル がディスク上にあり、3月29日の84個から、26日間で47%の成長です。新しいフックはどれも、特定のプロダクション障害を受けて追加されたガードです。
  • 88個のスキル がレジストリに登録されており、エージェントが許可される動作を制約するスコープ付きタスクパックです。
  • 26個のフックマッチャー行が15種類のライフサイクルイベントタイプにわたって ~/.claude/settings.json に存在します。
  • ファントム検証はセッション全体の12%から2%未満に減少しました。 ヘッジ表現フックを出荷した後の数字です。16
  • 4つの命名された回答型失敗モード: ファントム検証、不正なツール演出、依存関係スキップ、サマリー洗浄。16
  • 37日間で2件のtrust-dialogバイパスCVE(CVE-2026-33068、CVE-2026-40068)。どちらもベンダーパッチだけでなく、ユーザー側の監査が必要でした。17

これらのフックはどれも仕事を生成しません。すべてが、エージェントが生成した仕事を証明する(あるいは証明を拒否する)ものです。傷跡の数が増えていくのは、新しいエージェント機能が追加されるたびに、答えが「実行されなかったツールの衣装」になる新しい方法が露呈するからです。この成長曲線は、市場論考を小規模に証明したものです。生成は証明にとっての攻撃面を広げます。証明はそれに追いつくために複利で増えなければなりません。

これは、Charlieのチームが Charlie Labs で直面したのと同じ形です。オブザーバビリティベンダーが捕まえようと競争しているのと同じ形です。証明問題は完了レポート検証で止まりません。クレデンシャル露出、破壊的操作、タスクドリフト、出力品質、リソース枯渇、プロジェクト間の汚染、信頼ブートストラップの侵害も含まれます。1517 それぞれがクリーンアップ分類の一行を成しており、各行はベンダーを1社か2社支えています。

反論:クリーンアップは昔から市場だった

この論考に対する最も強い反論は「新しい瓶に古いワイン」というものでしょう。

クリーンアップはもとから市場でした。SRE、QA、CI、コードレビュー、セキュリティスキャン、オブザーバビリティ、依存関係ボット、インシデント対応。これらはすべて証明レイヤーの規律であり、エージェントが登場するずっと前から、エンジニアリング組織の支出のかなりの割合を占めてきました。エージェントがこのカテゴリーを作ったわけではありません。エージェントはボリュームを加速させているのです。

その反論はカテゴリーについては正しく、規模については間違っています。エージェントがループに加わると、3つのことが変化します。

  1. ボリューム。 コーディングエージェントは、エンジニア1人が出す週2〜3件のPRではなく、週に何十件ものPRを生成します。ドキュメントはより速くドリフトします。依存関係はより速く陳腐化します。メンテナンスキューはエージェントの速度で複利的に増えます。それは人間主導のクリーンアップキューが複利的に増える速度よりも速いのです。1
  2. 失敗モード。 上で述べた4つの回答型失敗(ファントム検証、不正なツール演出、依存関係スキップ、サマリー洗浄)は、既存のCI/QA/オブザーバビリティスタックが捕まえるように設計されたバグではありません。既存のスタックは「テストスイートが非ゼロを返した」を捕まえます。「エージェントがテストスイートをスキップして成功を報告した」は捕まえません。各失敗モードに対して新しいゲートが必要なのです。16
  3. 巻き戻しのコスト。 人間が出した不出来なPRはコミット1つでリバートされます。エージェントが出した不出来なPRが、他のエージェントがすでに上に積み上げてきた30個のPRの連鎖の中にあると、フォレンジックに1週間かかります。この巻き戻しコストこそが、証明レイヤーをあれば便利なものではなく、必須のものにしているのです。

カテゴリーは古い。規模は新しい。新しい規模は新しいベンダーを支えます。

もう一つの反論:統合リスク

2番目に強い反論は統合リスクです。Anthropic、OpenAI、GitHub、Datadogが証明レイヤーをそれぞれのプラットフォームにネイティブで吸収すれば、独立系のクリーンアップスタートアップはすべて圧迫されます。前例は実在します。DatadogはAPMスタートアップを吸収し、GitHubはDependabotを吸収し、AnthropicはClaude Code内にフックスキャフォールドをネイティブで提供しています。

統合の議論は現実的ですが、見た目ほど大きくはありません。証明レイヤーがモデルの外側に存在する構造的な理由があるからです。

最も重要な理由は、The Repo Shouldn’t Get to Vote on Its Own Trust が名指ししたものです。評価対象の成果物が信頼判断に加担してはならない、ということです。17 自分の出力を採点するモデルは、自社内監査人問題そのものです。コンプライアンスグレードの検証を購入する顧客は、最終的な検証者としてモデルベンダーを受け入れることはありません。この構造的議論は、プラットフォームがどれほど積極的になろうとも、規制対象の業種ごとに少なくとも1つの独立した証明レイヤーベンダーが存在する余地を作ります。

第二の理由は異種混合性です。エージェントスタックはOpenAI、Anthropic、自社製モデル、サードパーティツール、ベクトルデータベース、独自スキルを組み合わせます。証明レイヤーはそのすべてにまたがる必要があります。プラットフォームネイティブのクリーンアップツールは自分の表面しかカバーしません。クロスプラットフォームの証明ツールは全員の表面をカバーします。エンタープライズ調達が実際に必要としているのは後者です。

第三の理由は速度の差です。モデルラボは機能を出荷します。証明レイヤーは「未然に防がれたインシデント」を出荷します。リズムも、失敗モードも、チームも違います。統合圧力は存在しますが、独立した証明レイヤーベンダーが立つ表面積は、プラットフォームが何をしようと、その中の2社か3社が大きなビジネスになるのに十分な大きさです。

哲学のブレード:Jiro、Steve、MWP

証明レイヤー論考は単なる市場予測ではありません。私が繰り返し戻ってくる哲学の3つの要素にきれいに対応しています。

The Jiro Quality Philosophy はゲートを名指します。品質の主張は感情ではなく、証拠を必要とする、ということです。18 証明レイヤーは、企業全体規模におけるそのゲートです。SonarlyのRCA、Langfuseのトレース、Charlie Labsのデーモン、私の傷跡フックは、すべて同じ形をしています。証拠が先、判定は後。検証されていない証拠の上に判定をボルトオンするツールは、公的なインシデントを引き起こした瞬間に巻き戻されます。

The Steve Test は、もう一段上のゲートです。「Blakeはこれに自分の名前を署名するだろうか?」19 エンジニアリング組織の規模では、問いはこうなります。チームはエージェントの出力に自分たちの名前を署名するだろうか? その署名には監査証跡が必要であり、雰囲気では足りません。証明レイヤーこそが、その監査証跡を生み出すものです。それなしで出荷する企業は、将来のインシデントに対して白紙小切手に署名しているのであり、そのインシデントの事後検証では証明レイヤーのギャップが根本原因として名指されるでしょう。

Minimum Worthy Product はフレームを閉じます。20 Minimumはスコープの制約です。Worthyは品質のバーです。最小のエージェント製品はジェネレーターです。最小のworthyなエージェント製品は、ジェネレーター+出力を署名可能にする証明レイヤーです。早く出荷するために証明レイヤーを切り捨てる企業は、MWPからworthyを切り捨てているのです。市場はそれをリアルタイムで修正しています。だからこそCharlie Labsはピボットし、InsightFinderは資金調達し、Palo Alto Networksはオブザーバビリティに33.5億ドルを支払い、私のフック数は複利で増えていくのです。

The Workbench I Carry のキャビネットの比喩は、この市場へまっすぐ伸びていきます。21 キャビネットの裏側は、調子が良い日には顧客が決して目にしない部分です。同時に、誰も見ていないところで誰かが手を抜いたとき、公に失敗する部分でもあります。証明レイヤーはキャビネットの裏側です。キャビネットの裏側が仕上げられている企業が勝ちます。

オペレーターにとってこれが何を変えるのか

3つの実用的な読み方を、インパクト順に並べます。

生成レイヤーのエージェントを選ぶ前に、証明レイヤーの楔を選びましょう。 多くのチームはエージェントから始めて、後からオブザーバビリティを追加します。順序を逆にしてください。最初にゲート(終了コード、スキーマ検証、ファイル読み取り監査、ドリフト検知)を選び、それらを一方向の依存関係として配線し、その後でのみ、出力がそれらを通って流れるエージェントを追加するのです。あなたのゲートをバイパスする生成は、生産性ではなく負債です。1622

傷跡フック数を先行指標として扱いましょう。 エージェントを稼働させているのにクリーンアップ数が増えていないなら、何も捕まえていないということです。成長率こそが監査シグナルです。私の26日間で47%という数字は自慢ではなく、オーケストレーターが新しい失敗モードに遭遇し、それを記録していることを示す測定値です。傷跡数が横ばいで、エージェント活動が高い状態は危険ゾーンです。

証明レイヤーはクロスプラットフォームで購入または構築しましょう。 証明レイヤーベンダーを評価するときの正しい問いは、「これは私たちのモデルで動作するか」ではなく、「これは私たちが今後18か月間に採用するすべてのモデルとツールスタックで動作するか」です。シングルプラットフォームの証明ツールは形が間違っています。勝つカテゴリーはクロスプラットフォームです。

創業者に次に作ってほしいもの

証明レイヤー市場は、まだ誰も埋めていない専門化された業種を支えるのに十分豊かです。私なら次のものにお金を払います。

  • 可逆性ファーストの展開ツール — マージ前に、エージェントが生成した各PRを変更がどれほど安価に巻き戻せるかでスコアリングします。巻き戻しコストの高いPRはブロックされるか、人間にルーティングされます。
  • 分類体系認識型のドリフト検知器 — 各傷跡フックカテゴリーを特定のテストパターンにマッピングし、あるカテゴリーが長すぎる間沈黙していたらアラートを出します。沈黙しているカテゴリーこそが危険なのです。
  • 規制当局対応の監査証跡製品 — 任意のエージェントスタックを取り、すべてのツール呼び出し、すべての署名、すべての拒否についてSOC 2グレードの記録を生成します。規制対象の業種は、エージェントを増やす前にこれを購入するでしょう。

上記のいずれかを構築しているなら、あなたは証明レイヤーの中に建設しています。市場はあなたから離れるのではなく、あなたに向かって動いています。


クリーンアップレイヤーこそが本当のAIエージェント市場です。なぜなら、生成はモデルAPIの中でコモディティ化しつつあり、証明こそが価格付けされた資産になりつつあるからです。Charlie Labsはそれを最もクリーンに名指しました。資金調達した企業はそこに突進しています。生成は攻撃面を広げます。証明はキャビネットの裏側です。キャビネットの裏側が仕上げられている企業が勝ちます。

FAQ

「エージェントの後始末」は本当に新しい市場カテゴリーなのですか?

カテゴリーは古いものです。クリーンアップはSRE、QA、CI、コードレビュー、オブザーバビリティ、セキュリティスキャン、インシデント対応にまたがります。新しいのはボリュームと失敗モードです。コーディングエージェントは1シートあたり週に何十ものPRを生成します。マルチエージェントアーキテクチャはその数を倍増させます。Reward the Tool Before the Answer で名指された4つの回答型失敗モードは、既存のCIスタックが捕まえるように設計されたものではありません。カテゴリーは古い。規模こそが新しいベンダーを資金調達させているのです。

Anthropic、OpenAI、GitHubは、なぜ証明レイヤーを吸収しないのでしょうか?

3つの構造的理由があります。第一に、評価対象の成果物が信頼判断に加担してはなりません。モデルラボが自分の出力を採点するのは自社内監査人問題そのものです。第二に、現実のエージェントスタックは複数のモデル、複数のツール、独自スキルを組み合わせるため、証明レイヤーはそのすべてにまたがる必要があります。第三に、モデルラボは一つのリズムで機能を出荷しますが、証明レイヤーは別のリズムで「未然に防がれたインシデント」を出荷します。統合圧力は実在しますが、見た目ほど大きくはありません。

個人のオーケストレーターを越えて一般化する傷跡フックパターンは何でしょうか?

4つの中核ゲートです。完了レポート上のヘッジ表現検知、ツール呼び出しの終了コードチェック、レポートをツールログと突き合わせるファイル読み取り監査、元のタスクとサマリーの間の物語のドリフト検知です。それぞれが一方向のゲートです。ツール証拠が欠落していれば、答えのスコアはブロックされます。プロダクションのオブザーバビリティスタックでも同じ形が機能します。ただ、別の基板で動くだけなのです。

検証ギャップ(エージェント判断の69%が人間のレビューを必要とする状態)はどう解消されるのでしょうか?

人間が現在目視で行っているゲートを自動化することで解消されます。終了コードチェック、スキーマバリデータ、ファイル読み取り監査、ドリフト検知、ランタイムガードレールはすべて、人間のキューから作業を移動させる安価な決定論的監視の例です。69%という数字はその下にある証明ツールの関数であって、エージェントの固定的な性質ではありません。出荷されるゲート1つごとに、その割合は縮小します。

参考文献


  1. 「Show HN: Daemons – we pivoted from building agents to cleaning up after them」, Hacker Newsスレッド, 2026年4月22日. 

  2. Charlie Labs, ai-daemons.com および Charlie Daemonsドキュメント. Daemonsは .agents/daemons/<id>/DAEMON.md で、watchscheduleroutinesdeny キーとともに定義されます. 

  3. Marina Temkin, “InsightFinder raises $15M to help companies figure out where AI agents go wrong,” TechCrunch, 2026年4月16日. 

  4. Sonarly, Show HN. Sentry、Datadog、Grafana上でのプロダクションアラートのトリアージ、RCA、修正PR. 

  5. Cekura, Show HN. 音声およびチャットエージェント向けの自動テスト、モニタリング、シミュレーション. 

  6. Langfuse, Langfuseドキュメント. LLM アプリケーションのトレーシングと評価. 

  7. Arize, Phoenixドキュメント. オープンソースのLLMトレーシングおよびオブザーバビリティ. 

  8. Braintrust, Braintrust agentsドキュメント. エージェントスタック向けの評価ファーストオブザーバビリティ. 

  9. Datadog, LLM Observabilityドキュメント. Datadogプラットフォーム内のLLMおよびエージェント監視. 

  10. Fiddler AI, Fiddler Guardrailsドキュメント. ランタイムLLMオブザーバビリティとガードレール. 

  11. Lakera, Lakera Guardドキュメント. プロンプトインジェクション、ツール乱用、データ流出に対するリアルタイム制御プレーン. 

  12. Fiddler AI, Fiddler Guardrails. LLMアプリケーション向けのポリシー強制. 

  13. Palo Alto Networks, “Palo Alto Networks to Acquire Chronosphere,” Palo Alto Networksプレスリリース, 2025年11月. 33.5億ドルの取引. 

  14. Deepak Gupta, “AI Agent Observability, Evaluation, Governance: The 2026 Market Reality Check,” guptadeepak.com, 2026年. 57%がプロダクション展開、72%がマルチエージェント(2024年は23%)、69%が人間による検証を必要. 

  15. 著者の分析 Every Hook Is a Scar, 2026年3月29日. 公開時のフック数: 84. 2026-04-24時点: ディスク上に123個のフックファイル、88個のスキルエントリ、26個のフックマッチャー行が15種類のライフサイクルイベントタイプにわたる. 

  16. 著者の分析 Reward the Tool Before the Answer, 2026年4月24日. 4つの回答型失敗モード。ヘッジ表現フック後、ファントム検証率は12%から2%未満に減少. 

  17. 著者の分析 The Repo Shouldn’t Get to Vote on Its Own Trust, 2026年4月24日. CVE-2026-33068およびCVE-2026-40068のtrust-dialogバイパス勧告. 

  18. 著者の分析 The Jiro Quality Philosophy. 証拠ゲート: 品質の主張は感情ではなく証拠を必要とする. 

  19. 著者の分析 The Steve Test. Jiroの証拠ゲートの上に立つ味覚ゲートとしての「自分の名前を署名するか?」. 

  20. 著者の分析 Minimum Worthy Product. スコープ制約としてのMinimum、品質バーとしてのworthy. 

  21. 著者の分析 The Workbench I Carry. あらゆるズームレベルでのケアを含む、AIオーケストレーターに対応付けられたSteve Jobsの5原則. 

  22. Anthropic, “Hooks reference,” code.claude.comドキュメント. ライフサイクルフックの分類体系とディスパッチ. 

関連記事

AI Agent Observability: Monitoring What You Can't See

AI agents consume disk, CPU, and network with zero operator visibility. Three observability layers close the gap before …

22 分で読める

The Handoff Document: Agent Memory Across Sessions

A diagnosis survived three corrections over four days and guided a fix that cut page load from 14s to 108ms. Handoffs ca…

8 分で読める

The Ralph Loop: How I Run Autonomous AI Agents Overnight

I built an autonomous agent system with stop hooks, spawn budgets, and filesystem memory. Here are the failures and what…

11 分で読める