トルストイの不満:人工知能の時代におけるミッション・コマンド (Modern War Institute)
人工知能(AI)を戦場に持ち込むことへの懸念を論じた論稿を紹介する。「戦争と平和」の著者のトルストイが20代のころの砲兵将校の経験から、当時の指揮についての考え方に懐疑的な見解を持っていたとし、分権型の指揮(decentralized command)つまり、ミッション・コマンドと同等の指揮の在り方を理想と考えていたとする前提に立ったところから、AI導入の考えられる問題点と、導入をする際のリスクを軽減する方法について論じている。(軍治)
トルストイの不満:人工知能の時代におけるミッション・コマンド
Tolstoy’s Complaint: Mission Command in the Age of Artificial Intelligence
Theo Lipsky | 07.01.25
テオ・リプスキー(Theo Lipsky)は現役の米陸軍大尉である。現在はウェストポイント米陸軍将校学校の社会科学科の教官を務めている。コロンビア大学国際公共政策大学院で行政学修士号、米陸軍将校学校で理学士号を取得している。彼の著作はtheolipsky.substack.comでご覧いただける。
ここで述べられている見解は著者の見解であり、米陸軍将校学校、米陸軍省、国防総省の公式見解を反映するものではない。
![]() 画像出典:ゾーイ・モリス(Zoe Morris)米陸軍3等軍曹 |
今後、戦場指揮はどうなるのだろうか?この問いは、現在進行中の米陸軍による一世代に一度の改革の核心である。答えを求めて、米陸軍はウクライナに目を向けている。そこでの出来事は、少なくとも二つの真実を示唆している。一つは、米陸軍がミッション・コマンドと呼び、その運用形態であると主張する分権型指揮(decentralized command)が、美徳として存続するということ。もう一つは、将来の指揮官があらゆる意思決定――どこへ向かうか、誰を殺すか、誰を救うか――に人工知能を活用するということだ。最近発表された「米陸軍改革イニシアチブ」は、米陸軍がこの両方に取り組む意向を示している。
しかし、これらの教訓から、別のジレンマが浮かび上がってくる。軍隊はどうすれば分権型指揮(decentralized command)の文化を維持しながら、あらゆる任務に人工知能を統合できるのだろうか?言い換えれば、もし指揮官が意思決定の根拠として人工知能に頼るなら、トップではなく不完全なモデルの中で、また別の形の中央集権化(centralization)を招く危険を冒すことになるのではないか?このジレンマを理解し、最終的に解決するために、米米陸軍は地図のウクライナの片隅にもう一度目を向けるべきだろう。ただし今回は2世紀前を振り返り、クリミア半島の若き赤軍、レフ・トルストイ(Leo Tolstoy)から学ぶべきだろう。
トルストイが見たもの
文豪となる以前、レフ・トルストイ(Leo Tolstoy)は20代の砲兵将校だった。1854年、彼はクリミア戦争のクライマックスを迎え、フランスとイギリスの容赦ない砲撃にさらされる包囲されたセヴァストポリ港にいた。街の危険な第四堡塁の砲台に手をかけていない時は、トルストイはサンクトペテルブルクで愛読していた機関紙「ザ・コンテンポラリー(The Contemporary)」に、砲火の中での生活を綴った記事を執筆していた。
これらの報告書は、その率直さと巧みな表現力で、教養の高いロシア全土で読まれ、トルストイを有名にした。後に「セバストーポリ・スケッチ(The Sebastopol Sketches)」として編纂され、近代戦争ルポルタージュの先駆けと称されることが多くなった。これらの成功は、トルストイにとって書くことこそが人生の使命であることを確信させ、クリミア戦争終結後、彼は軍務を退き、専業作家として活動するようになった。
しかし、かつて民間人だったトルストイは、少なくとも題材としては戦争を捨て去ることはなかった。死ぬまで、彼は軍人時代に過ごした時間を小説の素材として掘り起こした。その小説、特に「戦争と平和(War and Peace)」に収められたアウステルリッツの会戦とボロジノの会戦の伝説的な描写から、彼が指揮についてどう考えていたかを容易に読み取ることができる。トルストイの主張は、指揮官が思い描き、描写し、指示するものと、実際に戦場で起こることとの関係があまりにも希薄であるため、指揮というコンセプト自体が事実上フィクションであるというものである。
トルストイの物語に登場する最悪の将校たちは、目の前の会戦を理解していると空虚に思い込み、実際には何が起こっているのか全く理解していないという、大きな害を及ぼす。優秀な将校たちは、避けられない無知を受け入れ、それに抗うのではなく、勇敢に平静さを装い、部下を鼓舞する。いずれにせよ、ほとんどの将校は戦場を彷徨い、砲煙や地表の襞に目がくらみ、後になって何が起こったのかを説明するために作り話をする。そして、それを他人は信頼できる目撃証言だと誤解するのである。
指揮か幻覚か?
戦争を研究する人々は、トルストイが、カール・フォン・クラウゼヴィッツが1832年に出版した「戦争論(On War)」で既に述べていたことを、ここで述べているのではないかと疑問に思うかもしれない。クラウゼヴィッツは「戦争論」の中で、予期せぬ出来事と小さな出来事が戦場の行方を左右するということを巧みに解釈し、それらの影響を「摩擦(friction)」と表現している。この言葉は、今日でも米軍で広く使われている。しかし、この摩擦という比喩自体が、クラウゼヴィッツとトルストイの会戦の理解の大きな違いを既に示唆している。
クラウゼヴィッツにとって、戦争におけるあらゆる不都合は、戦場で作動する機械の円滑な作動を妨げる摩擦に等しい。その機械は知的なデザインによって生み出され、例外的に故障する連動部品で構成されている。トルストイの見解では、そのような機械は、ほとんど無能な上級指導者の想像力の中にしか存在しない。彼らはどんなに努力しても、戦場での自らのデザインを実現できないのである。
トルストイはクラウゼヴィッツとは異なり、指揮官は摩擦を予測できないだけでなく、完全に幻覚を見ていると主張した。彼らは戦場にパターンがないところにパターンを見出し、単なる偶然に過ぎないところに原因を見出す。「戦争と平和(War and Peace)」では、ピョートル・バグラチオン(Pyotr Bagration)がアウステルリッツの会戦で既に敗北が確定しているにもかかわらず戦闘開始の許可を求め、1814年にモスクワが炎上したのはクトゥーゾフ(Kutuzov)の命令ではなく消防士(firefighters)が街から逃げ出したためであり、タルチノでロシア軍が見事な側面攻撃を仕掛けたのは、事前に練られた計画ではなく兵站上の偶然によるものだった。しかし、歴史家も同時代の人々も、これらの出来事の天才性をバグラチオン(Bagration)とクトゥーゾフ(Kutuzov)の功績だと認めている。トルストイはナポレオンを「馬車の中で糸を2本握り、自分が馬車を操っていると思い込んでいる子供」と描いている。
では、トルストイによれば、なぜ指揮官や歴史家たちは、そのような計画を無関係な結果とみなすのだろうか。トルストイは「戦争と平和(War and Peace)」の典型的な哲学的な一節でこの問いに答えている。「人間の心は出来事の原因を完全に把握することはできない」が、「原因を見つけたいという欲求は人間の心に根付いている」のである。人々は、一貫性を求めながらも、出来事の多くの小さな原因を見抜くことができないため、実際には存在しない壮大な出来事や偉人を見てしまうのである。ここでトルストイは重要な点を指摘している。出来事の原因が存在しないのではなく、原因があまりにも多く、人間にはわかりにくいだけなのである。トルストイはこれらの原因を「微々たる(infinitesimals)」ものと呼び、それを見つけるには「王や大臣、将軍といった存在を脇に置き」、「大衆を動かす小さな要素」を研究しなければならないと述べている。
これがトルストイの不満である。彼は、当時影響力を持っていた歴史上の偉人理論家たち、つまり偉人は天才と意志によって人類の出来事を推進したと考える者たちに対して、これを批判した。しかし、これはミッション・コマンドの強力な根拠とも解釈できる。トルストイの戦争観は、分権型の指揮(decentralized command)こそが最良の指揮法であるだけでなく、唯一真の指揮法であることを示唆しているからだ。それ以外のものはすべて幻想に過ぎない。上層部の指揮官は闘いから、歩兵や厨房係のレベルから遠く離れているため、彼らの幻覚は、階級の低い者よりもはるかに長く、現実に汚されることなく存続する。
地面近くで指揮を執る指揮官は、戦場の理解に極小のものを統合するのに最適な位置にいる。アイザイア・バーリン(Isaiah Berlin)がトルストイを題材にした傑作エッセイ「ハリネズミとキツネ」で述べているように、この統合は何よりも「芸術的・心理学的」な作業である。そして、米陸軍のドクトリンがミッション・コマンドに不可欠とみなす「相互信頼(mutual trust)」と「共有された理解(shared understanding)」とは、まさに芸術的で心理的なプロセスの産物に他ならない。
偉人理論から偉人モデル理論へ
ミッション・コマンドの真価を理解するのに、トルストイの著作は不要かもしれない。今日、米国の観察者たちは、ウクライナの戦場の至る所でその賢明さの証拠を目にしている。彼らは、ウクライナ軍がより動的で分権型の指揮・統制(decentralized command and control)を採用することで、ロシア軍の数的・物的優越に対抗したことを高く評価しており、これは米軍のスタイルにも似ていると彼らは考えている。
ウクライナ軍が無数の戦場機能に人工知能を活用していると称賛する声もあるが、その点でウクライナ軍は米軍をはるかに上回っている。データ中心の指揮・統制ツール、参謀業務、そしてドクトリンに人工知能を統合することで追いつくべきだという声が相次いでいる。しかし、人工知能の統合とミッション・コマンドの維持という二つの重要な課題の関係は、これまであまり注目されてこなかった。
一見すると、人工知能はトルストイの不満に対する説得力のある答えのように思える。アイザイア・バーリン(Isaiah Berlin)は「ハリネズミとキツネ(The Hedgehog and the Fox)」の中で、その不満を次のように要約している。
我々が無知であるのは、最初の原因が本質的にアクセスしにくいものであるためではなく、その多重性、究極的な単位の小ささ、そして我々自身が利用可能な材料を十分に見聞きし、記憶し、記録し、調整することができないからにほかならない。全知全能は原理的には経験的存在にさえ可能であるが、もちろん実際には達成不可能である。
人工知能について、これ以上に優れた売り文句を思いつくだろうか?指揮官にとっての人工知能の価値提案は、トルストイ的な無限小、つまり「究極の単位(ultimate units)」を統合し、それをウェアラブル・デバイスなどに投影して、敵の進撃に追われて時間に追われる精力的な将校がすぐに参照できるようにする能力ではないだろうか?言い換えれば、偉大なモデル(great model)は、偉大な人間(great man)ができなかったことを戦場で実現できるのではないか?
問題は三つある。我々が「人工知能(artificial intelligence)」と呼び、指揮・統制プラットフォームの特定の層に組み込むモデルやコンピューター・ビジョン、マルチモーダル・システムは、いわば一つの思考を表しているように見えるが、複数の思考を表しているわけではない。そのため、リーダーが分析をその人工知能にアウトソーシングするたびに、それは中央集権化(centralization)の新たな例となる。
第二に、我々が持つモデルはパターンと傲慢さに陥りがちであり、トルストイが嘲笑した幻覚にとらわれた指揮官たちの姿から逸脱するよりも、むしろ模倣に過ぎない。
最後に、リーダーたちは、冷静な計算による信頼性を享受する人工知能に敬意を表して、自らの目と耳で得た証拠を拒絶するかもしれない。その結果、トルストイが会戦を理解する上で最も重要だと指摘した、まさに地上レベルのインプットを放棄してしまうことになる。
中央集権化(centralization)の問題について考えてみよう。軍全体で様々な用途向けに異なるモデルが開発されているかもしれないが、人工知能を活用した指揮・統制システムを広く導入すると、作戦部隊全体に同じモデルが蔓延するリスクがある。ミッション・コマンドの目的が、上級司令部の思考を下位指揮官に複製することで戦場での意思決定を迅速化することだけであれば、人工知能によってミッション・コマンドは時代遅れになるため、中央集権化(centralization)の脅威は無意味になる。しかし、米陸軍ドクトリンパンフレット6-0では、ミッション・コマンドの目的として「部下の創意工夫(subordinate ingenuity)」を活用することも挙げられており、これは中央集権化(centralization)によって否定されるものである。全体として、どんなに優秀なコーチや指揮官であっても、すべてのユーザーに全く同じコーチ、あるいは全く同じ指揮官がつくというリスクがある。
万能コンパスやライフルのような万能コーチは、幻覚を起こす性質がなければ、それほど悪くはないかもしれない。大規模な言語モデルが事実を捏造し、それを自信満々に真実として提示するという事実は、目新しいものではないが、今後もなくなることはない。パターンを探し出し、それを拡張するという、こうしたモデルの基本的な機能も同様だ。コンピューター・ビジョンも同様に誤検知を生み出す。最近の研究を言い換えれば、この「思考の錯覚(illusion of thinking)」は、人工知能が新しい問題に取り組んだり、新しい環境を処理したりする能力を著しく制限する。
トルストイは、ロシア侵攻中に「これまでの戦争の伝統に従わない戦争が始まった」が、ナポレオンは「戦争がすべてのルールに反して行われていること、まるで人を殺すことにルールがあるかのように、文句を言い続けた」と述べている。このようにトルストイは、ボロジノでのナポレオンの悲惨な敗北を、まさに人工知能が犯しがちな誤り、つまり一度適用されたルールが機械的に将来にも適用されるという誤った仮定のせいだとしている。したがって、モデルが訓練される予測の種類と、「戦争と平和(War and Peace)」で描かれたモスクワ到着前夜のナポレオンの姿との間にはほとんど違いがない。彼は、訓練に使用したデータから予想される勝利を想像したが、それは最終的に彼の手から逃れてしまったのである。
こうした幻覚は、モデルの体系的な過信によってさらに悪化する。研究によると、モデルは未熟な将校のように、単に知らないことを認めるよりも、自信を持って答えを提示することを好む。そうであれば、戦場での敵の行動に関する不完全な報告を人工知能が処理し、その行動がパターンに合致していると判断し、観測データの欠落を埋め、地上の軍曹が目撃した事実とは反証される敵の行動方針を自信を持って予測する、といった状況は容易に想像できる。
同様に、指揮官が人工知能モデルの提案に基づいて、幻覚的な地形に固定された交戦地域や、存在しない敵のパトロールを配置した交戦地域の作成を指示するのを想像するのは難しくない。総合的に考えると、人工知能は、爆発物を搭載したドローンの遠くで爆発する音しか感知できない戦場で、訓練で想定したようなシナリオ全体を効果的に想像できるかもしれない。
公平を期すために言うと、人工知能の支持者たちは、人間の判断に取って代わろうとする者は誰もいないと明言している。彼らはしばしば、人工知能が人間の指揮官に情報を提供し、能力を高め、能力を行使し、あるいはより効率的な指揮官を作ると主張している。それに、若い兵士なら誰でも、人間の指揮官も同じ過ちを犯すと指摘するだろう。存在しない敵を威嚇したり、的外れな交戦地域をデザインしたりするのに、将校は機械の助けを必要としない。では、人工知能を使うことに一体何が重要なのだろうか?
問題はまさに、我々が人工知能を人間以上の存在とみなし、研究者が「自動化バイアス(automation bias)」と呼ぶような敬意を払っていることにある。かつて偉人論者がナポレオンに託したような、戦争の複雑さを見抜く才能を人間に帰することは、今日ではほとんど笑い話だ。しかし今では、多くの人が人工知能の天才性に同様の信頼を寄せている。OpenAIのサム・アルトマン氏は、自身のプロジェクトを「超知能(superintelligence)」の創造と呼んでいる。
超知能(superintelligence)というコンセプトと偉人というコンセプトの間には、どれほどの隔たりがあるのだろうか?すると、我々は人工知能を、ナポレオンにはなれなかったナポレオン、つまり極小の天才的な積分者、トルストイが「戦争と平和(War and Peace)」で見事に打ち砕いた歴史の主人公のように扱う危険性がある。そして、もし人工知能を歴史上の偉人だとみなすなら、若い中尉がその提言に抵抗すると期待できるだろうか?
何をすべきか?
人工知能は、様々な形で、今後も存在し続けるだろう。米陸軍はこの戦間期に「ラッダイト運動(Luddite reflex)」※にとらわれる余裕はない。人工知能を作戦に統合する必要がある。旅団がいつ戦闘準備を整えるか、大隊がいつ燃料補給を必要とするか、兵士がいつ歯科検診を必要とするかを予測しようとしたことがある人なら誰でも、狭義の人工知能からどれほどの利益が得られるかを知っている。狭義の人工知能は、反復処理が多く、構造化され、状況に依存しないタスクにおいて、計り知れない効率性をもたらすと期待されている。次世代指揮・統制のような取り組みも同様の期待を抱かせている。しかし、人工知能がミッション・コマンドにもたらすリスクは相当に大きい。トルストイの不満は、米陸軍がそれらのリスクを理解し、軽減しようとする上で大いに役立つだろう。
※ ラッダイト運動(Luddite reflex)とは、新しい技術や変化に対して、抵抗や拒絶を示す反応を指す比喩的な表現。19世紀初頭にイギリスで起きた機械破壊運動「ラッダイト運動」に由来している。ラッダイト運動は、産業革命による機械化によって職を失うことを恐れた労働者たちが、機械を破壊したことから、新しい技術や変化に対する抵抗の象徴として使われるようになった。
人工知能がミッション・コマンドにもたらすリスクを軽減する一つ目の方法は、その使用を大量かつ単純なタスクに限定することである。人工知能は、少量で高度に複雑、状況依存型、そして深く人間的な活動(戦いの良い描写)には不向きである。したがって、戦役デザイン、戦術計画策定、敵の分析、そして兵士の指揮における人工知能の役割は限定的であるべきである。
こうした取り組みにおけるAIの活用は、人間の判断に必要な小さな入力の計算を迅速化する程度に限られている。戦争における人間と機械のチーム化(human-machine teaming)というコンセプトは新しいものではない(現代戦争研究所のアマンダ・コラッツォ少佐をはじめとする他の人々によって、既に深く研究されている)。しかし、この構想に熱狂するあまり、米陸軍は人間と機械の境界を慎重に引き、厳重に守らなければならないことを忘れてしまう危険がある。そうしなければならないのは、倫理的な理由だけでなく、トルストイが効果的に示したように、会戦における指揮が人間であれ機械であれ、アルゴリズム的な思考を屈服させるからである。
バーリン(Berlin)の言葉を借りれば、指揮は依然として「芸術的・心理学的」な仕事であり、そしてその仕事は今もなお人間の仕事である。こうした慎重さは、シミュレーションやウォーゲームにおける機械学習や人工知能の導入を禁止する必要はない。それは自滅行為となるだろう。しかし、将校たちは戦役や命令の立案をモデルに委託したいという誘惑を一切抑えなければならない。これは今は当然のことのように思えるが、近い将来そうではなくなるかもしれない。
二つ目の方法は、米陸軍指導者の教育に人工知能に対する健全な懐疑論(a healthy skepticism)を組み込むことである。まずは、学生の教育をアナログと人工知能を活用した部分に分けることが考えられる。これは、迫撃砲兵が弾道計算盤と弾道計算装置を用いて射撃任務を計画する訓練と似ている。将校は、人工知能をプロセスに組み込む前に、まず支援なしに計画を作成し、実行を指示する方法を学ぶ必要がある。
彼らの能力は、キャリアを通じて定期的に再認定を受ける必要がある。モデルがデータ品質に依存することを強調する機械学習の授業は、戦場におけるインテリジェンス準備(intelligence preparation of the battlefield: IPB)の授業を補完する必要がある。カリキュラム・デザイナーは、カリキュラムが既に過剰であると正しく指摘するだろう。しかし、人工知能を活用した指揮・統制が、その支持者が主張するほど革命的であるならば、指揮官への指導方法にも相応の変化が求められる。
リスクを軽減する三つ目の方法は、人工知能に対する同様の懐疑論を訓練に組み込むことである。戦間期、ジョージ・マーシャル(George Marshall)が歩兵学校を率いていた当時、彼と同僚の教官ジョセフ・スティルウェル(Joseph Stilwell)は、生徒たちを教室から連れ出し、台本のない演習のために野外に送り込み、戦闘の予測不可能性を模擬するために、粗悪な地図を提供した。彼らの例に倣い、米陸軍は野外演習やウォーゲームにおいて、指導者に幻覚的なモデルを意図的に提供すべきである。
こうしたリーダーたちは、人工知能(AI)を活用した指揮・統制プラットフォームが想定する戦場と、目の前の戦場が異なっていることを認識できる能力で評価されるべきである。そして、訓練チェックリストにおいて、部隊が任務を完全に遂行するためには、動的かつ劣悪な条件下で任務を遂行しなければならないと定められている場合、「劣化(degraded)」には幻覚状態や操作不能な人工知能も含まれるようになるべきである。
それでもなお、米陸軍の指導者たちはトルストイの教えを決して忘れてはならない。指揮とは偶発的な、人間的な営みであるということだ。会戦は往々にして、特有の問題を抱え、型にはまらない傾向がある。よく訓練された若い指導者にとって、こうした問題への近さは、むしろ強みとなる。その近さゆえに、彼らは戦場で、膨大なデータでは捉えられない極小の事柄を見抜くことができる。ミッション・コマンドの哲学は、いかに気まぐれで時に苛立たしいものであっても、その近さから生まれる洞察を最もうまく取り入れることができる。そうして初めて、米陸軍は硝煙(gun smoke)を通して戦争のトルストイ的な極小の事柄を見出し、それを統合する希望を持つことができるのである。