信頼できる人工知能のために:米陸軍の専門知識への人工知能の一体化 (US Army War College Press)
MILTERMでは、人工知能に関わる記事を限定的であるが紹介してきている。2月28日付の読売新聞では「誤って核使用すると「世界大戦」の恐れも…米、AI軍事規範作りへ中国巻き込み図る」との記事が掲載されている。この中で、15日の米上院軍事委員会での、ロナルド・レーガン大統領財団のロジャー・ザックハイム所長の議会証言を取り上げて、米国のAIに関する取組みについて「陸海空のシステムをAIによる自律型に置き換える投資規模は中国と比べはるかに劣っている」と訴えたと紹介している。
また、記事では「米国が提唱するAI軍事利用に関する国際規範」の抜粋を以下のように掲載している。
▽国際人道法に合致した形で使用
▽核兵器の使用は人間が完全な関与を維持
▽自軍のAI開発や使用に関する原則を公表
▽AI兵器の開発や使用などに際し、人間の関与を含む適切な扱いを保証
▽AI兵器担当スタッフの十分な訓練を確保
▽意図しない結果を回避する能力を設計上、組み込む
ここで紹介するのは、US Army War College Pressの論文の要約部分(Executive Summary)である。人工知能を軍事分野に適用する場合、現役自衛官の高木耕一郎氏が「AIは将来の戦争をどう変えるか」(新潮社「フオーサイト」)などで紹介している区分では、「情報処理」、「無人の兵器」、「意思決定」、「認知戦」が挙げられる。この論文では特にターゲッティングに関わるセンサー等の収集したデータの「情報処理」と火力発揮を決定する「意思決定」に関わる分野について焦点を当てて論じている。
人工知能を使う上で米陸軍として取り組むべき事項を、人工知能そのものの信頼性や使用する人間の問題など、上記の「米国が提唱するAI軍事利用に関する国際規範」にあることも論じられている。
軍事に関わる者が人工知能と向き合うことが必須な時代になったことは間違いなく、それぞれの立場での検討の一助となれば幸いである。(軍治)
信頼できるAIのために:米陸軍の専門知識への人工知能の一体化
Trusting AI: Integrating Artificial Intelligence into the Army’ s Professional Expert Knowledge
Anthony Pfaff
Christopher J. Lowrance
Bre M. Washburn
Brett A. Carey
2023/02/08
エグゼクティブ・サマリー:Executive Summary
はじめに:Introduction
人工知能技術を軍事目的に一体化することは、特別な課題である。第二次世界大戦中の原爆技術競争など、これまでの軍備競争(arms races)では、専門知識は国防総省の中にあった。しかし、人工知能(AI)の軍拡競争では、専門知識は主に産業界や学界に存在する。
AI技術の効果的な活用は、一部の専門職(professional)に委ねることはできない。効果的な空軍を持つために、誰もが飛行機の操縦方法を知っている必要はない。しかし、米軍がAI技術の可能性を最大限に発揮するためには、あらゆるレベルのほぼすべての軍人が、ある程度のAIリテラシー(AI literacy)とデータ・リテラシー(data literacy)を身につける必要がある。したがって、将来の即応性の重要な要素は、部隊のAIリテラシーとなる。
この文脈では、AIリテラシーとは、単にAIやデータを活用したシステムの使い方やデザイン、エンジニアリングの方法を理解する以上の意味を持つ。むしろ、データ、アルゴリズム、そしてそれらがサポートするシステムは、複雑な方法で相互作用し、ターゲティングのような見慣れたプロセスでさえ、より複雑で見慣れないものに変えてしまう。
問題をより難しくしているのは、専門的な観点(professional perspective)から、新しい技術を使いこなすには、その技術がどのように機能し、その応用が軍や米国政府、その国際パートナー、そして米国社会の組織的、倫理的、政治的な関心事にどのように影響するかを十分に理解する必要があるということである。
AIとデータ技術の一体化の課題:Challenge of Integrating AI and Data Technologies
AIを運用する際に伴う問題点は、特に致死性のターゲティング・プロセスでは、機械のスピードを生かすことと、意味のある人間の統制(maintaining meaningful human control)を維持することのトレードオフを知覚することから、しばしば問題が発生することがある。
人間が統制を放棄する程度に、責任を放棄することになる。責任を放棄すればするほど 説明責任が弱くなり 説明責任を弱くすればするほど 機械とそれを使う人間に信頼しない理由が生まれる
したがって、中心的な問いは次のとおりである。指揮官、参謀、運用者は、どのような根拠でAI技術とそれが可能にするシステムを信頼できるのか?ここでいう信頼(Trust)とは、複数の条件を含んでいる。まず、システムが効果的であることを期待する。つまり、人間だけのシステムより優れているとは言わないまでも、少なくともそれと同程度には意図した効果を生み出すことができることを期待する。
さらに、国連軍縮研究所の報告書が指摘するように、AI対応システム(AI-enabled systems)は予測可能で理解可能でなければならない。予測性(predictability)とは、システムが意図した目的を一貫して果たすこと、理解容易性(understandability)とは、機械が分かりやすい理由に基づいて行動することを意味する。
しかし、専門職(professional)の文脈では、専門職(professional)が技術を信頼するだけでは十分ではない。クライアントは、専門職(professional)が自分たちの利益のために、自分たちの価値観やその他の倫理的コミットメントを反映した形でAIを使用することを、さらに信頼しなければならない。
専門職(professionals)は、これらの条件が満たされていることを確認しなければならないため、この問いは、専門職(professional)の専門知識の問題と言い換えることができる。これには、専門職(professional)のメンバーが技術を使用できるように教育、訓練、認証を行い、専門職(professional)の制度を進化させて、技術の使用が効果的かつ倫理的であることを確認することが含まれる。また、新しい技術の獲得が専門職の組織文化や他の利害関係者にどのような影響を与えるかを知ることも、信頼(trust)の条件を満たすために重要である。
このプロジェクトでは、軍がこのような条件を満たす方法を理解するために、現在利用可能なAI、データ、画像を一体化してAI対応(AI-ready)になるための第18空挺部隊の取り組みであるプロジェクト・リッジウェイ(Project Ridgway)を調べた。プロジェクト・リッジウェイ(Project Ridgway)はボトムアップの取り組みで、軍団が民間企業を直接巻き込み、商業的に利用可能なデータとアルゴリズムを活用して、縦深の闘い(deep fight)におけるターゲティングをサポートする。
この報告書では、軍事専門職(professional)の文脈でAI駆動システム(AI-driven system)を信頼するには、第一にAIが適用される文脈を理解すること、第二にAIに何を任せているかを理解すること、最後にAI駆動システム(AI-driven system)とどう対話するか(システムが入力を受け取り、出力を行う方法を含む)を理解すること、が必要であることが明らかにされている。これらの条件を満たすことで、信頼(trust)に不可欠なデータの真正性を監査し確保することができる。
ターゲッティング:スピードが重要な理由:Targeting: Why Speed Matters
この文脈では、ターゲティングは、決定、検出、配信、および評価の4つのフェーズのプロセスで構成されている。現在、第18空挺部隊のターゲティング・プロセスで採用されているように、AIは主に検出フェーズに適用され、センサーがアルゴリズムに入力(一般に画像)を提供し、アルゴリズムがキュレートされたデータ(curated data)[1]に基づき、指定オブジェクトが存在するか、もし存在するならその場所を予測する。
将来的には、AIはアセット配分や戦闘損耗(battle damage)と効果の評価など、サイクルの他の部分にも影響を与えるかもしれない。ターゲティングは反復的かつ相互作用する。このプロセスは、各サイクルや、より大きなターゲティングサイクル内のサイクルで学習することによって反復され、AI駆動機械(AI-driven machine)のパフォーマンスを向上させる。ターゲティングは、同じサイクルに関わっている敵対者(adversary)との相互作用を伴う。
もし、敵対者も同じような装備をしていたら、より速くサイクルを回した方が勝ちとなる。機械は人間より速いので、ターゲティングを定めると人間は機械に頼らざるを得なくなる。スピードは重要なのである。
信頼できるAIの開発:Developing Trustworthy AI
このように機械に依存している以上、AI駆動システム(AI-driven system)に何を託すのか、自問自答する必要がある。実用的かつ倫理的な観点から、致死性のターゲティングは、敵(enemy)を倒すこと、非戦闘員の犠牲を避けること、そして部隊を守ることの必要性のバランスを取る必要がある。
これらの要請のバランスをとるには、リスクに関する問いに答えることが必要である。簡単に言えば、致死性の作戦は友軍戦闘員や非戦闘員をリスクにさらし、非戦闘員の犠牲を避けることは友軍戦闘員や作戦をリスクにさらし、部隊の防護は作戦や非戦闘員をリスクにさらすことになる。
どれか1つのリスクを減らすと、他の2つのリスクが発生する。AIを使えば、3つのリスクすべてを軽減することができる。AIは射撃をより速く、より正確にすることで、敵を倒す可能性を高めると同時に、友軍や巻き添えの被害を減らすことができる。
人間だけのプロセスでは、兵士と彼らが携行する武器の能力を理解し、彼らが武力紛争法を理解し遵守することを確認し、彼らが遵守しない場合に責任を負わせることができるかどうかで、信頼(trust)が決まる。AI主導のプロセスでは、信頼(trust)は、データを管理・監視し、アルゴリズムの性能を評価・最適化し、外部からの操作(external manipulation)からシステムを防護する方法を知っているかどうかに依存する。
人工知能は、特定の文脈でデータに対して動作するアルゴリズムのプロセスである。このプロセスを信頼できるかどうかは、少なくとも部分的には、構成要素を信頼できるかどうかにかかっている。信頼(trust)を確保するためには、データが監査可能であり、アルゴリズムがその作戦上の文脈において適切に理解されている必要がある。
AIを信頼するための障壁:Barriers to Trusting AI
AIを信頼するための障壁には、データを正しくキュレーションしたこと、データとアルゴリズムを正確かつ精密に訓練し直したこと、システムをスプーフィング[2]やその他の不要な操作(unwanted manipulation)から防護したことを保証する方法が不明確であることが挙げられる。
データ上の課題:Data Challenges
AIの文脈では、データ、アルゴリズム、外部干渉の関数である複数の他の要因が信頼(trust)に影響を与える。アルゴリズムは、多くの場合、学習させたデータと同程度の性能しかない。学習によって、機械は興味のある項目とそれ以外のものを区別できるようになる。
正確で、完全で、一貫性があり、タイムリーなデータ・セットを収集することは、非常に困難であり、ターゲティングが行われる環境に左右されやすい。データ・セットを更新し続けることは、継続的に行わなければならない重要な作業である。また、システムのパフォーマンスを最適化するために必要なデータをいつ収集したかを知ることは、非常に困難である。その結果、システムが学習したデータと異なるデータを入力した場合、システムはミスを犯すことになる。
パフォーマンスの問題:Performance Issues
パフォーマンスの問題は、通常、誤分類(misclassifications)、偽陽性(false positives)、偽陰性(false negatives)という形で現れる。例えば、AI分類器(AI classifiers)の入力が学習データに類似していない場合、予測ミスが起こりやすくなる。例えば、夏場に撮影されたターゲティングの画像のみを用いて分類器を学習させ、冬場に撮影された部分的に隠蔽されたターゲティングの画像を提示した場合、予測ミスが発生する可能性がある。
砂漠を走る戦車の画像だけを使って学習した分類器に、部分的に雪に覆われた戦車の画像を分類するよう要求した場合、分類器はおそらく間違いを犯すだろう。このような誤りに対処するためには、常に新しいデータ例を探し、収集し、それを使って必要に応じて分類器を再訓練し、更新することが重要であり、特に動作している環境との関連において重要である。
多くの場合、分類器の再訓練とアップデートは、システムが動作している間に新しいデータを収集し、どのサンプルがAIモデルのパフォーマンス向上に役立つかを特定することを意味する。
つまり、最先端の技術や包括的なデータ・セットの収集の難しさを考慮すると、分類器は間違いを犯す可能性がある。人工知能は「ブラック・ボックス」である。なぜなら、アルゴリズムの複雑さ、あるいはAIの出力がネットワークの接続の強さに依存するため、出力に至る経緯が人間には必ずしも判別できないからである。
しかし、指揮官や運用者は、AIの限界を理解し、同様の条件下でのAI対応システム(AI-enabled systems)のパフォーマンスを観察することで、リスク計算に基づき、ターゲティングの運用においてAIにどの程度の統制を与えるべきかを判断することができるようになるはずである。
また、敵がデータ・セットに毒を盛ったり、敵のアセットのシグネチャを変更したりして、積極的にAIを妨害しようとすることも問題である。例えば、ポイズニング攻撃(poisoning attack)は、機械学習モデルの学習データを改ざんすることで、学習段階において機械学習モデルを弱体化させることができる。
敵対的ポイズニング攻撃(poisoning attack)は、ターゲット識別モデルを訓練して、あるクラスのオブジェクトを完全に無視させ、高価値のターゲットが平然と隠れることを可能にする。入力攻撃は、敵対者がモデルの入力にノイズを注入し、不正な出力を生成するものである。
例えば、一時停止の標識に小さなテープを貼ったところ、自動運転車がその標識を時速60マイルの標識と誤認してしまったという例がある。同様に、敵対者が戦車を視覚的に加工し、機械学習モデルが戦車をトラックと認識することも可能である。しかも、それは決して難しいことではない。
人間の目には見えない小さな画素の変化が、分類アルゴリズムにパンダの画像を猿と誤認させる原因となっている。入力とポイズニングという2つのタイプの攻撃は、野外に置かれたモデルの有効性を損ない、信頼(trust)を低下させる可能性がある。さらに言えば、AI駆動型システム(AI-driven systems)は常に攻撃を受けていると考えるべきで、ユーザーはこの種の攻撃の影響を検出する方法を見つける必要がある。
データ・セットの感度(sensitivity)、アルゴリズムの複雑さ、妨害工作の可能性などを総合すると、説明責任の欠如が生じる。説明責任は、意図と行動に依存する。しかし、AI駆動システム(AI-driven system)に関わる指揮官、参謀、運用者が善意で行動し、システムがスプーフィングを除いて仕様通りに動作しているにもかかわらず、武力紛争法(law of armed conflict)の違反を含む被害が発生する可能性がある。
指揮官や参謀はシステムをよく理解していても、特に通常は信頼できるシステムに対して自動化バイアス(automation bias)に陥り、その結果、説明のつかない被害が発生する確率が高くなる。
重要なのは、AIの性能はスピードが全てではないということである。実際、運用中であっても、人間が機械と対話することで、機械はより良いアウトプットを提供する。つまり、AIの開発と採用には、スピードと有意義な人間の統制の間のトレードオフが必要だという考え方は、誤ったジレンマである。では、問いは、「人間はいつ、どこで、どのようにシステムと対話し、システムのパフォーマンスを最適化しながら統制を提供すればよいのだろうか?」である。
信頼できる、有能なシステムの開発:Developing Reliable and Capable Systems
信頼(trust)とリスクは、信頼できる有能なシステムの開発における中心的な関心事である。指揮官は、AIがいつ信頼できるか、そして、いつターゲティング・プロセスのいくつかの段階を、スピードの利点のために、より少ない監視で実行するかを知るための信頼できる方法を必要としているが、より多くのリスクを代償にすることになる。ここで研究されたシステムは、各ターゲットの分類における確率的信頼度の指標を提供するニューラル・ネットワークに依存している。
特に、確率的な信頼度と、任務に応じた指揮官のリスク許容度などの他の情報を組み合わせた場合、指揮官はターゲティングの際にこれらのニューラル・ネットワークを利用し、必要な人的監督のレベルについて情報に基づいた決定を下すことができるようになる。
指揮官のリスク許容度は、AIで分類されたターゲティングをどのように扱うかを決定するプロセスで役立つ。AIの運用に許容できるリスクレベルを決定するのは、指揮官の判断である。したがって、指揮官の最善の判断に基づき、その状況がリスクに見合うものであれば、時にはより大きなリスクを引き受ける柔軟性とオプションを与えるべきである。
例えば、対反乱任務(counterinsurgency mission)や、近くに多くの民間人がいる密集した都市環境で火力支援を行う場合、指揮官はリスクを避けるかもしれない。しかし、ほとんど開けた地形で激しい戦闘に直面したり、友軍が敵に制圧されるかもしれないときに最終防御射撃を行う場合、指揮官はリスク許容度が高くなる可能性がある。
リスク許容度を把握するために、指揮官にはレオスタット(rheostat)[3]のような装置が与えられ、それを調整することでリスク許容度をシステムに直接伝えることができるようになるかもしれない。一般にアンサンブルと呼ばれるこのアプローチは、導き出された推論が真実であるという確信を深めるため、またはエラーを検出するために使用することができる。
統制システム内での意思決定の論理:Decision-making Logic within the Control System
レオスタット(rheostat)は、ファジー論理統制装置(fuzzy-logic controller)は、指揮官のリスク許容度(risk tolerance)と機械の確実性を考慮し、人間が統制するための最適な設定を決定する。ファジー論理は、機械の信頼性と指揮官のリスク許容度のバランスをとるのに役立つ。
ファジー論理の目的は、ある値があるカテゴリに属する場所を特定する単一値の閾値をハード・コーディングすることを避けることである(例えば、34は中程度、32は低レベル)。むしろ、低、中、高という入力クラス間の遷移をプログラムすることである。
入力クラス間の遷移をプログラムすることで、入力を測定して言語セットに定量化する際に、ファジー論理がより不確実性に寛容になる。中程度のセットが低または高のセットと重なる領域(regions)は、入力が複数のセットに属し、それぞれに部分的に属しているものとして分類される範囲であり、例えば、80%が高、20%が中程度となる。
例えば、冷凍庫の温度調節器をプログラムして、温度を下げるように警告することができる。2つの変数(リスクと確実性)と3つの設定(低、中、高)があれば、人間の監視のための9つの推奨設定というルール・ベースが論理的に存在することになる。
ルール・ベースは、一連のif/thenステートメントを使用して統制装置のメモリにプログラムされ、以下の論理に従う。「AIの分類信頼度が低く、指揮官のリスク許容度が低い場合、人間の関与は最大となる。AIの分類信頼度が高く、指揮官のリスク許容度(Commander’ s Risk Tolerance)が高ければ、人間の関与は最小限である」。
3つのカテゴリー(低、中、高)を持つ2つの入力を仮定すると、機械が生成した確率と指揮官のリスク許容度(Commander’ s Risk Tolerance)によって表される2次元ルール・ベースによって、9つのルール一式を導き出すことができる。
ファジィ論理統制装置ーに基づくリスク・プロファイルと適応的チーミング:Risk Profiles and Adaptive Teaming Based on Fuzzy-logic Controllers
このルール・ベースは、実際にはどのような意味を持つのだろうか?統制装置の最大関与の決定は、人間が各ステップをリードする、人間主導のターゲティング・プロセスを意味する。人間主導のターゲティング・プロセスを使用することは、これらのステップでAIが援助することを排除するものではない。
言い換えれば、AIはどのステップも補強することができるが、ターゲットを進める前に人間が明示的に出力を検証する必要がある。反対に、最小限の関与とは、最終的な検証と承認のプロセスを除いて、AIがすべてのステップを自動化することである。この場合、射撃セルのリーダーは、射撃任務を進める命令を出す前に、ターゲッティング情報と推奨事項を確認する。
中程度の監視プロセス・フローは、AIアルゴリズムの分類信頼度と一体化段階(integration stage)からのリスク評価が厳しい閾値を満たす必要がある以外は、最小限の監視プロセス・フローと似たニュアンスである。いずれの場合も閾値を満たさない場合は、人間がAIアルゴリズムが生成した出力を検査する必要がある。
人材育成:Human Development
技術的な要素では、兵士がさまざまな程度のAIリテラシーとデータ・リテラシーを身につける必要があることを示している。そのためには、米陸軍はこのリテラシーが何を意味し、どのように認定するのかを明らかにしなければならない。AIリテラシーとデータ・リテラシーの程度を特定することは技術的要素に含まれるが、知識のある人材をどのように採用し、認定し、管理するかを決定することは、専門的な重要な課題となる。
AI やデータ・サイエンスに関する教育や技能を持つ人材の不足を解消するため、米陸軍は、リーダー、アナリスト、エンジニア、技術者レベルで、選ばれた人材を教育する計画を実施した。必要ではあるが、これらの計画は、特に短期的には、軍団レベルの能力を米陸軍全体に普及させるために必要な熟練した人材の範囲を提供するのに十分ではないかもしれない。
米陸軍の既存の計画が不十分である理由の一つは、米陸軍は適切なデータとAIのスキルを持つ兵士と、データとAIのスキルを効果的に活用する方法を知っているリーダーを必要としていることである。従って、米陸軍はAIリテラシーとデータ・リテラシーを委託やその他の入門レベルの教育や訓練に一体化することも検討すべきである。
さらに問題を複雑にしているのは、科学、技術、工学、数学一般に長けた人材、ましてやAIやデータ関連のスキルを持つ人材を管理する米陸軍の能力が限られていることだ。
実際、より効率的な管理システムがなければ、米陸軍の新教育プログラムによって訓練された要員の配置を最適化することは、特に作戦レベルでは不可能かもしれない。新しく訓練された人員を効果的に配置することは、新しい、しばしば商業的に利用可能な技術を活用し、米陸軍が敵対者(adversaries)に対して機敏さを維持するために不可欠である。
米陸軍の人材管理を最適化するには、教育要件の特定、人材と作戦ニーズの調整、人材追跡の方法を見直し、最も必要とされる場所で人材を活用できるようにすることが必要である。
この研究は、米陸軍がAIやデータ関連の専門知識の追跡を改善するために新しいスキル識別子を作成すること、専門知識を最も必要とされる場所と時間に提供するために兵站部隊(logistics corps)と同様に管理される技術部隊(technology corps)の設置を検討すること、配置の柔軟性(assignment flexibility)を高めるために特定のポジションを複数のスキルでコーディングすることを推奨している。
倫理面:Ethical
倫理的な観点から、ターゲティングは、友軍と同様に非戦闘員に対する潜在的な被害を防止、または少なくとも軽減することが必要である。特に大規模な戦闘作戦では、友軍や非戦闘員に犠牲が出る可能性があるため、専門職(professional)は、技術の適用が、防護されている人、インフラ、その他の物質的アセットに対する許容可能なリスク(acceptable risk)であることを確認する必要がある。
人工知能はまた、説明責任の問いも提起している。意思決定において機械がより大きな役割を果たすようになると、たとえ人間と機械の両方が正しく職務を遂行したとしても、悪い結果を招く可能性がある。そのような結果にどう対処するかを理解することが、AIを適用する上で重要になる。ここでは、AIによって実現された結果が、人間だけのプロセスよりも害が少ないかどうかという点で、成功を測ることができるかもしれない。
倫理的なターゲティングの要件を満たすために、指揮官は参謀や運用者がデータのキュレーションや訓練を行えるようにし、システムが人間だけのシステムと同等の性能を発揮できるよう、適切な間隔でそれを行わなければならない。また、参謀や運用者は、結果を分かりやすく説明できる程度にシステムに慣れ親しむ必要がある。
前述のファジー論理統制装置(fuzzy-logic controller)のようなインターフェースを導入すれば、倫理的なターゲティングの要件を満たすことが容易になり、指揮官は倫理的な失敗を生じさせるかもしれない統制を失うことなく、機械の速度をより活用することができるようになるだろう。このインターフェースは、指揮官がリスク評価の正確さについて説明責任を負い、指揮官がアルゴリズムを使用する文脈に合わせてデータが適切に管理されるようにすることで、説明責任に対処するものである。
また、このインターフェースは、機械自身がある意味でその出力に不安を感じていることを人間に知らせる手段を提供するため、自動化バイアス(automation bias)に対処することができる。これらの対策が十分であるかどうかは、システムが人間だけのプロセスと比較して、先に述べた倫理的要請をどれだけうまくバランスさせることができるかによる。倫理的要請のバランスをとることは、最終的にはターゲティング・プロセスに関わる人間の責任である。
さらに、合法的なターゲットと及び非合法的なターゲット(病院や学校など)を識別するようデータを訓練することで、巻き添え被害を回避するシステムの能力を向上させ、倫理的なパフォーマンスを実現することも可能である。例えば、「戦車80%、スクールバス10%」というような結果を出すことができれば、ターゲットの確率が指揮官のリスク許容範囲内であっても、指揮官や参謀に監視のための追加の理由があることを警告することができるだろう。
合法的なターゲットと及び非合法的なターゲットを考慮できるデータ・セットを構築することは、どのシステムにおいても利用可能な資源を超えるかもしれない。このような場合、指揮官はリスク評価において、違法なターゲットの可能性を考慮すべきである。
政治面:Political
政治的・文化的知識とは、ある新技術の使用が、武力行使に対する国民の期待にどのように影響するか、その期待が兵役に対する社会の知覚(perception)にどのように影響するか、その新技術を採用する国防省の他の取り組みが自身の取り組みにどのように影響するかを知ることである。
さらに、政治文化に関する知識は、国民の期待がどのような形で軍に入隊し、どのように任務に就くかに影響するため、上級の軍のリーダーは国民の期待の変化がどのように民軍関係や軍文化に影響するかを理解する必要がある。
技術を利用することで、兵士や非戦闘員に対するリスクが軽減される分、武力行使に伴う政治的リスクも軽減される。したがって、軍の上級リーダーは、技術を利用することでリスクがエスカレーションしないように、文民の上級リーダーの期待を管理する必要がある。さらに、軍の上級リーダーは、国民の支持を得るために、巻き添え被害に関する国民の期待を管理する必要がある。
おそらく最も重要なことは、軍の上級リーダーが技術の有効性に関する期待を管理することである。そうすれば、文民リーダーは技術に過度に依存せず、国民は成果がないことに不満を抱かない。結果を出せず、兵士にも非戦闘員にもリスクを負わせるような軍隊を、国民が信頼することはないだろう。
結論:Conclusion
新しい軍事技術を開発し、採用することは、軍事専門職(professional)であることの一部である。実際、軍隊の歴史は、技術革新と兵士が新しいシステムの運用方法を学ぶ物語(story)である。AIを一体化することの多くの側面は、新しいものではない。
人工知能技術は、さまざまな軍事兵器、システム、およびアプリケーションを改善する能力があるため、この種の技術は他の技術と区別される。この技術の応用が広がれば、戦争は暴力を管理するのと同じくらい、データを管理することになるだろう。
したがって、近未来の指揮官は、AI対応システム(AI-enabled systems)が、友軍や非戦闘員に対するリスクに関する指揮官の判断とどのように相互作用するかを理解する必要がある。また、指揮官は、参謀や運用者がデータを効果的にキュレーションし、訓練できるようにする方法を知っておく必要がある。最後に、指揮官と参謀は、AIとデータ技術およびその運用の側面でますます頼りにされることになる民間部門とのやりとりを経験することになる。
ノート
[1] 【訳者註】「キュレーション」(curation)とは、情報を選んで集めて整理すること。あるいは収集した情報を特定のテーマに沿って編集し、そこに新たな意味や価値を付与する作業を意味する。もともとは美術館や博物館で企画展を組む専門職のキュレーター(curator)に由来する言葉だが、キュレーターが膨大な作品を取捨選択して展示を構成するように、インターネット上にあふれる情報やコンテンツを独自の価値基準で編集して紹介するサービスもキュレーションと呼ばれ、IT用語として広く使われている。(引用:https://www.weblio.jp/content/%E3%82%AD%E3%83%A5%E3%83%AC%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3)
[2] 【訳者註】スプーフィング(spoofing):なりすましのことで、他人の名をかたり、自分以外の人物のふりをすること、および、他人のふりをして人を欺くことである。ITの分野では、ネットワーク上で他のユーザーの情報を使用して他のユーザーとして活動する、という意味で用いられることが多い。(引用:https://www.weblio.jp/content/%E3%82%B9%E3%83%97%E3%83%BC%E3%83%95%E3%82%A3%E3%83%B3%E3%82%B0)
[3] 【訳者註】レオスタット(rheostat):連続的または断続的に抵抗値が変えられる抵抗器。可変抵抗器。(引用:https://www.weblio.jp/content/rheostat)