AIは計画策定における画期的な進歩だと誤解されているが、それは間違い (warontherocks.com)

2026年2月28日、米国が「Operation Epic Fury(壮絶な怒り作戦)」と名付けたイスラエルとの大規模な共同作戦を開始した。作戦が今後どのように推移していくかが各種報道が飛び交っている。

この作戦の2か月前には「Operation Absolute Resolve(断固たる決意作戦)」を米国が単独で特殊作戦部隊によって行っている。この作戦では、この記事US military used Anthropic’s AI model Claude in Venezuela raid, report says | AI (artificial intelligence) | The Guardianが示すようにAIが使用されたとされている。この記事に出てくるAnthropic(アンソロピック)という会社が、独自に規定などで、米国民の大規模な監視や、完全に自律した兵器へのAI技術利用を制限していると云われる。米国防総省が、AI技術の軍事利用に関する制限撤廃を求める要求を同社にしたところ、同社が拒否したためトランプ大統領が政府機関から同社の技術を排除する意向を示すなど、物議を醸している。

Anthropic(アンソロピック)社のAIはこれまで紹介してきた「電磁スペクトラム作戦(EMSO)訓練は統合LVC環境を受け入れる (Journal of Electromagnetic Dominance)」、「ウクライナは既に機能する「統合全ドメイン指揮・統制(CJADC2)」技術を有しているのか? (CSIS)」、「AI駆動型のデータ管理によるミッション・コマンドの非対称的な優位性 (Parameters)」でも取り上げられている「Maven Smart Systems」にも使用されていると言われている。

ここで紹介するのは、在日米軍司令部で勤務する米海兵隊将校の人工知能に関するwarontherocks.comの記事である。AIを活用した計画策定を経験した筆者がAIの活用に関して感じた事項をまとめられたものでAIを軍事に使用を考えている者には大いに示唆に富むものと思う。(軍治)

AIは計画策定における画期的な進歩だと誤解されているが、それは間違い。

AI Is Being Misunderstood as a Breakthrough in Planning. It’s Not.

CHRISTOPHER DENZEL

FEBRUARY 26, 2026

クリストファー・デンゼル(Christopher Denzel)は、海兵隊の戦略・作戦計画担当者であり、現在、在日米軍戦略計画部(J-56)に所属している。インド太平洋地域における戦略、戦役策定、指揮・統制の近代化に注力しており、共同戦線および同盟国戦線における計画策定、インテリジェンス、ウォーゲーム統合に関する豊富な経験を有している。

彼は米陸軍高等軍事学校と国家情報大学を卒業しており、米サイバー・コマンドや第3海兵遠征軍を含む統合部隊全体で作戦の計画策定の職務を歴任した。

AI時代において、司令部で最も不足している資源はもはや時間ではない。むしろ、ノーと言える意志である。

人工知能(AI)は、日常的な認知作業を圧縮するため、軍事計画策定参謀に急速に浸透している。AIは、指示の理解、複雑な資料の整理、そして明確な戦略言語の迅速な生成に優れている。これは質的な進歩のように思われ、計画策定自体が容易になったという印象を与える。しかし、この印象は誤解を招く。AIを活用した計画策定(AI-enabled planning)のリスクは、判断が必要な箇所を曖昧にする、もっともらしい構造を作り出し、分析の完全性が優先順位付けに取って代わることができるという幻想を抱かせてしまうことである。

AIは、適切な製品の製造を容易にすることで「底上げ(raising the floor)」すると考えられている。確かにその通りである。しかし、AIは真の洞察を得るための相対的なコストを増大させることで、「中央値を崩す(collapses the median)」こともする。AIを活用した計画策定(AI-enabled planning)が現実世界の作戦に役立ち始めると、どのリソース(what to resource)を投入し、何を延期(what to defer)し、どのようなリスクを受け入れるべきか(what risk to accept)といった難しい問いに対する正しい答えであるかどうかを問うことなく、完全な答え十分だと考えてしまいたいという誘惑(temptation)にかられる。

この誘惑(temptation)は、網羅性(exhaustiveness)と明瞭性(clarity)を混同するものである。戦役レベルでは、これらの特性は緊張関係にある。失敗は情報不足に起因することは稀で、むしろ競合する目標をすべて満たせない場合に優先順位を決定できないことに起因するものである。AIは見事に合成するが、合成(synthesis)ではこの緊張関係を解消することはできない。

以下の考察は、私自身と在日米軍の他の計画担当者が大規模言語モデルを継続的に使用してきた経験から得られた教訓を反映している。戦役の計画策定変革においては、AIは実験としてではなく、合成(synthesis)、再枠組み(reframing)、草案作成(drafting)、反復(iteration)といったワークフローに直接組み込まれた。実際の計画策定サイクルの中で使用することで、AIの限界と優位性が繰り返し明らかになった。

AIは戦役の計画策定を変えるが、その範囲はしばしば想定されるよりも狭い。AIは底上げし、、内部的に一貫性のある構造を生成・修正するために必要な時間と労力を劇的に削減した。しかしながら、軍事の計画策定においてAIに最大の潜在能力を与えるのと同じ特性が、未解決の選択肢を秩序ある構造の背後に隠蔽することをも可能にし、つまり中央値を崩壊(collapsing the median)させてしまう。

AIの価値は、戦役の強力な理論(a strong theory of the campaign)を生み出すことよりも、競合する要求や制約に直面した際にどの理論が耐えられないかを迅速に明らかにすることにある。実際には、AIは指揮官に完全な解決策を提示するのではなく、複数の内部的に一貫した枠組み(internally-consistent framings)を提示するために活用されるべきであり、計画担当者はそれらの枠組みがどこで破綻するかを明らかにし、優先順位、リスク、そして従属関係に関する意思決定を迫られる。

作戦術は情報ではなく判断によって制限される

戦役デザイン(campaign design)における最も重要な決定は因果関係が不確かなところで行われるため、作戦術(operational art)はいかなる分析力をもってしても取り除くことのできない制約によって支配されている。優先順位はデータの質や量の問題ではなく、判断の問題なのだ(it is a question of judgment)。

戦役において問題となるのは、何をすべきかを理解することではなく、目標が競合し、権限が重複し、資源が限られており、敵対者が適応していく状況において、何がより重要かを判断することである。これらの判断(judgments)は重大な意味を持つが、事前に正しいと証明することはできない。戦役デザイン(campaign design)は、成立するかどうかわからない仮定のもとで、妥当であると判断することしかできない。したがって、作戦術(operational art)は不確実性の下での因果推論に依拠するものであり、「正しい答え(correct answer)」を約束する予測モデルに依拠するものではない。

だからこそ、このような環境においては、追加情報やより洗練された合成(synthesis)によっても、不確実性を確実に低減することはできない。複雑性(complexity)が増すにつれて、詳細の限界価値は低下し、取組みの集中の重要性が高まる。追加分析を行っても、どのリスクが許容可能か、どの目標を優先すべきか、どの失敗は吸収できるかを判断することはできない。こうした判断、つまりすべての要求を満たすことができない場合に優先順位を付けるという判断は、指揮に本来備わっている、人間的な機能である。

この制約は、使用するツール・セットに関係なく適用される。戦役デザイン(campaign design)には常に分析支援ツール(インテリジェンス準備、モデリング、レッド・チーム編成など)が活用されてきたが、どれも説明責任のある選択の必要性に取って代わるものではない。AIが登場する以前は、これらのプロセスは労働集約的で反復的であり、参謀が一貫した計画を迅速に作成できる速度が制限され、計画担当者は複雑な問題に悩まされていた。新しい技術は合成(synthesis)と反復(iteration)を加速させるかもしれないが、そこには厳しい限界がある。アルゴリズムは優先順位を決定できず、その約束する速度が判断に必要な時間が締め出される恐れがある。これらの決定を分析出力として扱うと、どこで判断を下すべきかが不明瞭になる。

AIを「計画策定の最適化装置」として扱う誘惑

組織は、不確実性を最適化(optimization)によって管理しようとする誘惑に駆られることがある。つまり、目標、タスク、そして効果を、一見完全でバランスが取れ、組織的に正当化可能な計画にまとめ上げることである。この衝動はAIの登場以前から存在していたが、変化したのは、今やこの衝動に容易に任せてしまうようになった点である。

しかし、最適化(optimization)は間違った問題を解決するため失敗する。戦役レベルでは、一貫性(coherence)とバランス(balance)は因果理論(causal theory)の代わりにはならず、網羅性(exhaustiveness)は判断の代わりにはならない。

最適化の考え方は、よくある成果物を生み出す。均等に重み付けされた目標、対称的な取組みの目標(lines of effort)、包括的なタスク・リスト、そして問題領域を網羅しているように見えるバランスの取れた効果などだ。AIは、構造的に健全で、かつ妥当性も高い計画策定の構造を生成することに長けている。しかし、その一貫性(coherence)こそがまさに危険である。差異を平滑化し、取組みの焦点を平均化することで、最適化(optimization)は優先順位を抑制してしまうのだ

AIは、バランスのとれた防御可能な計画を安価かつ豊富に作成し、未解決の優先事項を適切な構造の背後に隠蔽することを可能にする。最適化(optimization)は、選択(choice)を内部秩序(internal order)に、そして判断(judgment)を対称性(symmetry)に置き換える。「判断は自動化できない(judgment cannot be automated)」というおざなりの承認は、制約というよりは許可構造として機能する。私は、首尾一貫したAI生成の推奨事項が、決心の適切な代替物であるかのように参謀が業務を進めるのを見たことがある。観察可能な結果がなければ、その承認は制約というよりは遂行的なものになる。参謀は、AI生成の枠組みを、その枠組みが失敗する場所の分析と並べて提示し、提案された方針だけでなく、指揮官の判断を必要とする限界とトレードオフを強調することで、行動の変化を監査可能な方法で示す必要がある。

最適化された計画(optimized plan)は、外部の現実よりも内部の論理を優先し、集中の代わりにバランス(balance)をとることを可能にする。その結果、責任が分散される。

この失敗は技術的なものではなく、構造的なものである。より良いデータ、より厳格なプロンプト、あるいは追加の反復作業では解決できない。最適化(optimization)は、重要性がデータに潜在しており、より優れた分析によって表面化できると想定している。一方、戦役デザイン(campaign design)は異なる論理で機能する。優先順位はデータの中に発見されるのではなく、権威によって断言される。アルゴリズムは、どの目標を優先すべきか、どの取組み目標(lines of effort)を従属させるべきか、あるいはどのリスクを許容できるかを判断することはできない。これらの問いへの答えはデータの中にはない。それは指揮官の判断と責任に基づく選択なのである。

AIが構造の限界を明らかにするとき

上述のダイナミクスは、戦役が単一の一貫した枠組みに抵触する場合に最も顕著になる。これは在日米軍における戦役の計画策定において顕著だった。そこでは、任務セットが従来の作戦デザインに組み込まれた前提と明確に整合していなかった。在日米軍は、軍の即応性(readiness)、同盟関係の管理、政策遂行、そして外交の交差点において、しばしば同時に活動している。これらの責務は、異なる権限に基づき、異なる論理に基づき、異なる成功尺度(measures of success)に基づいて行われる。これらは互いに関連しながらも、連続しているわけではない。

伝統的な計画策定は、このような環境では困難を極める。なぜなら、組織を通して統一性(unity)を押し付けられると想定しているからだ。ドクトリンに基づく構造(目標、作戦線、決勝点など)は、任務を支配的な論理に還元できる場合に最も効果的に機能する。しかし、非伝統的な任務においては、こうした還元は誤った方向へ導く。問題は、押し付けられる枠組みと、記述されている根底にある現実との間に不一致があることである。AIは複雑な問題にドクトリンを巧みに適用し、ドクトリン上の分類が当てはまらない部分を滑らかにする。機械がこれを行うと、指揮官や参謀は、四角い釘が穴の形に合わせてアルゴリズム的に「丸く(round)」なっていることに気付かないかもしれない。

AIは、在日米軍における戦役の計画策定において、この不一致を明確に示した。そこでは、計画策定チームは、AnthropicClaude Sonnetモデルを提供するMaven Smart Systemsを用いて、主に機密ネットワーク上で仕事をした。また、計画担当者はAsk Sage(OpenAIを含む様々なモデルへのアクセスを提供)も実験した。

在日米軍の戦役デザイン(campaign design)に適用された大規模言語モデル(LLM)は、分析的には妥当であるものの、コンセプト的には脆弱な、指揮の役割、任務、機能を定義する枠組みを一貫して生成した。各枠組みはタスクを明確に整理し、目標をクラスター化し、説得力のあるナラティブ(narratives)を生成した。しかしそれぞれが異なる点で失敗した。通常は一つの役割を従属させつつ、別の役割を優先させることによってである。歪みなくすべての役割を同時に包含できる単一の構造は存在しなかった。

これは、指示やデータの不備によるものではなかった。むしろ、任務そのものが単一の説明では説明できないという合図だった。これらの不備によって、根底にある現実が紛れもなく明らかになった。指揮の任務は非伝統的であるだけでなく、非連続的だった。つまり、政策、戦略、戦術の各レベルで同時に活動し、それぞれが独自の論理と相互関係によって支配されていたのである。

この分解は生産的であることが証明された。再枠組み(reframing)は安価であったため、計画担当者は競合する構造を生成し、それぞれの崩壊箇所を観察し、その理由を調査することができた。AI は「正しい(correct)」枠組みを明らかにするのではなく、利用可能な各枠組みの限界を明らかにした。計画担当者は、「最適な(best fit)」枠組みを提供したり、主要な枠組みを選択のオプションとして提示したりするのではなく、それぞれが異なる任務と機能を持つ3つの役割の構造的な不整合を指揮官に受け入れるよう推奨した。逆説的であるが、指揮官は指揮の目的を単一の枠組みで表すことを拒否することで、各中核的役割内で同時かつ独立した優先順位付けを維持した。実際、この緊張関係によって、在日米軍の機能は競合する役割を統一された指揮階層に解決することではなく、指揮の統一(unity of command)が不可能な場合に取組みの統一(unity of effort)を提供できる単一の司令部に、一連の削減不可能な責任を統合することであることが明確になった。

AIが「最高限度を引き上げる(raises the ceiling)」のはまさにこの点である。AIは、有能な枠組みを迅速に生成することで、一見異なるように見える計画間の誤った差異を取り除く。残るのは、それぞれの構造が崩れたり歪んだりする部分であり、まさに指揮判断が行使されるべき部分である。その意味で、AIは決心することによってではなく、指揮判断の必要性をより容易に特定できるようにすることで、計画策定の最高限度(ceiling)を引き上げるのである。

この力学は在日米軍に限ったものではない。戦役の責任が単一の統治理論(single governing logic)に縮小する抵抗はどこでも発生する。最適化(optimization)を脇に置くと、戦役デザイン(campaign design)におけるAIの実際的な効果はより明確になり、より限定的になる。AIは不確実性を解消したり、判断を置き換えたりはしない。問題に対する妥当な考え方を生み出すコストを劇的に削減する。計画策定の基準が妥当性にまで引き下げられ、しかもそれが瞬時に得られるようになった時に危険が生じる。AIを活用した計画策定に対するより責任あるアプローチは、複数の妥当な計画を診断的(diagnosticallyに用いて、真の洞察を生み出す緊張関係を明らかにするというより、より困難な方法を採用する。

この加速は計画策定のリズムを変える。参謀は、洗練された単一の構造を作り出すことに過度の労力を費やすのではなく、複数の枠組みを模索し、脆弱なものは早期に破棄し、前提をより頻繁に見直すことができる。しかし、このスピードはリスクも生み出す。一貫性のある計画は、優先順位が付けられる前に、説明会で「十分に良い(good enough)」と思われてしまう可能性がある。意図的な介入がなければ、加速したテンポは決定よりも構造を優先し、未解決の選択が秩序立ったバランスの取れた枠組みの下で放置されることになる。

戦役はバランス(balance)によって成功するのではなく、意図的な不均衡(imbalance)によって成功する。つまり、一部の目標を優先し、他の目標を従属させ、特定のリスクを受け入れることで、支配的な目的を達成するのである。こうした判断はデータに潜在しているのではなく、指揮官の意図によって押し付けられるのである。このように考えると、AIの対称性バイアスは診断的に有用となる。指揮の判断が介入すべき箇所を正確に明らかにする。AIは問題を整理し、議論を明確化することはできるが、何を優先すべきかを順位付けすることはできない。困難な問題に非対称性を押し付けることは、指揮そのものと切り離せない問題なのである。

※ 対称性バイアスとは、認知科学や心理学において、人間が物事の構造や関係性を理解・判断する際に、無意識のうちに「左右対称」や「双方向の等価性」を好んで想定してしまう直感的な偏向(バイアス)のこと

判断には犠牲が必要

AIを活用した計画策定(AI-enabled planning)における最も危険な失敗は、技術的な故障のようには見えないだろう。計画は一貫性を保ち、言語は規律があり、前提は妥当なものとなるだろう。そして、合意形成を促す快適な構造を提供し、責任の分散を可能にする。

非対称性が明確になると、慣れ親しんだ計画策定上の安心感は、戦役デザイン(campaign design)の実際の運用とは相容れなくなる。これは移行期の摩擦やガバナンスのギャップではなく、避けられない構造的なトレードオフである。

最初のトレードオフは網羅性(exhaustiveness)である。戦役は網羅性と適応性の両方を兼ね備えることはできない。再枠組み(reframing)が安価であれば、計画が完成したと感じられるまで、タスク、効果、そして取組みの目標(lines of effort)を追加し続けるという本能が働く。そして、大規模な言語モデルは、より深く掘り下げたいという要求に無限に応じることになる。しかし、網羅的な構造は仮定を強固なものにする。対照的に、戦役計画は変化することを想定すべきである。

二つ目のトレードオフは対称性(symmetry)である。バランスの取れた枠組みは公平に見えるが、資源、時間、あるいは政治的資本が逼迫している状況では、何を優先すべきかということを選択するという決定的な行為を先送りしてしまっている。非対称性は従属関係を必要とする。ある目標は他の目標を犠牲にして前進し、あるリスクは軽視されるのではなく、明確に受け入れられる。この不均衡(imbalance)は、洗練によって達成できるものではない。ある目的を高め、別の目的を低下させることを受け入れるという、明確な決断が必要である。

三つ目のトレードオフは、もっともらしい否認(deniability)である。バランスの取れた徹底的な計画は、リスクと優先順位に関する難しい選択を組織構造の中で覆い隠す。全てを優先させると、何も優先順位が付けられなくなる。一方、強制的な非対称性は逆の効果をもたらす。つまり、判断が読みやすくなるのである。支配的な目標、許容可能なリスク、主要な取組み、あるいは従属的な作戦線を宣言すると、結果はプロセスではなく決心に結び付けられる。

これらの損失はプロセスの問題と誤解されるかもしれないが、ガバナンス、重み付けスキーム、レビュー・サイクルのいかなる改善も、明確な優先順位の設定に取って代わることはできない。このような方法で埋め合わせようとする試みは本質を見失っている。失われているのは手続き上の安心感ではなく、選択を構造の背後に隠す能力である。それに伴う不快感は、失敗の証拠ではない。権限が行使されている証拠なのである。

AIを活用した計画策定(AI-enabled planning)が失敗するとすれば、それは技術が不十分だったからではなく、構造が安価で容易になり、どこでトレードオフを行うべきかが曖昧になったからだろう。AIが生み出す一貫性(AI-generated coherence)が決心の代わりとなると、計画は規律正しく見える一方で、指揮の難しい選択は遠ざかる。

AIは線形の計画策定のドクトリンを加速させる。指揮官と参謀がここで立ち止まれば、判断はますます有能になる構造の陰に隠れてしまっている。しかし逆説的に、AIが計画策定を加速させることで、指揮官と参謀の行動は鈍化するはずである。AIを使った判断と優先順位が最も求められる場所を特定するには時間がかかる。