軍事における人と機械をチーム化するために求められるもの
先の軍事における人と機械(自動化)の合流は如何になるのかの中で、豪州陸軍のMick Rayn豪州陸軍中将の寄稿(2017/12/11)を紹介した。人と機械のチーム化をする際に、人類がこれまで辿ってきた歴史の中での課題、すなわち、「科学・技術の進展を戦争に持ち込む際に問いかけられる倫理」に触れないわけにはいかないだろう。更に、倫理的課題に加えて「人と機械のチーム化」が与える影響が測り知れないとするときに、法の秩序の元に戦いを行うことを前提とすると、法的課題も事前に考えておかなければいけないものである。また、「人と機械のチーム化」を支えるものが、国家を挙げた経済・産業的基盤、知的基盤、人的基盤等々だとするならば、国家としての戦略的な課題ともいえるものになっていく。某国が、人工知能の研究と開発、そして人工知能を前提とする国内の制度改革を戦略的に進めていることが、単に空想の世界の課題ではなく、現実に直面する、いや、直面している課題である。以下は、「人と機械のチーム化」の戦略・倫理・信頼に関するMick Rayn豪州陸軍中将の「The Strategy Bridge」の寄稿(2018/1/23)である。
戦略、倫理、信頼問題
ミック・ライアン
第一次世界大戦でのドイツのUボート戦役の後、ヨーロッパと米国の多くは、潜水艦が不道徳であり、違法とすべきであると主張した。英国海軍はこの見解を支持し、Blairが述べたように、たとえ他の国が追随すれば潜水艦の軍隊を廃止することを提案した。1922年と1930年の潜水艦を禁止する英国の提案は敗北したが、船員と乗客が安全に置かれるまで、潜水艦は船を攻撃することができないという義務付けを課し、それらの使用に関して制限した。新たな戦争手段の開発に対するこの反応は、軍事組織がより大きな人間と機械の一体化を採用するにつれて対処しなければならない倫理的課題および法的課題の類型を説明するものである。
この記事は、ヒューマン・マシン・チーム化の主要な側面について検討した3つの記事のうちの最後のものである。最初の記事に、7つの「命題」を通じてヒューマン・マシン・チーム化の理論的根拠を検討した。2番目の記事では、人間と機械の密接な一体化を軍事組織が適用する3つのヒューマン・マシン・チーム化について検討した。この記事は、3番目で最後の記事で、ヒューマン・マシン・チーム化の主な課題を検討する。これらの戦略的、制度的、戦術的な課題は、ヒューマン・マシン・チーム化によって優位性を生み出すための制度的戦略を開発する際に軍事組織によって取組まなければならない。
Robert Sparrowのようなロボット工学および倫理の専門家によって表現されたこれらの懸念は、人間と機械の一体化の技術的側面の補完的要素として考慮される必要がある。2013年の戦争における人間増強に関する報告では、「倫理と技術の間に大きな時間的遅れがある場合、新技術が戦争の場面や戦争の戦域に完全に到着する前に、問題の検討を開始することが不可欠である」と述べている。このトピックの文献の評論では、複数の課題があることが明らかになった。これらは、広く戦略的、制度的、戦術的な問題に分類することができ、これらのそれぞれには、全体を通して考慮される倫理的ジレンマも含まれている。
戦略的課題
ロボットと高度な人工知能の使用は、戦争での「参入障壁」を低下させる可能性がある。自律ロボットのような先進的な兵器の使用は、ある国が戦争に簡単に参加したり、他の国を刺激する積極的な外交政策を採用しやすくすることができる。もしそうなら、それはユス・アド・ベルム(jus ad bellum)の違反、または少なくとも重大な適応である可能性がある。この議論は軍事組織をはるかに超えている。政府、学界、そしてより広範な地域社会の社会の幅広い分野での懸念である。2014年、Steven Metzは政策立案者の課題をまとめ、次のように書いている。
将来の大統領は、重装備または完全なロボット部隊を配備し、長時間現地に配備し続けることをより容易に見つけるだろうと思われる。これは抑止と危機の封じ込めに役立つかもしれない。しかし、ロボットを中心とした部隊を使いやすくすることで、将来の大統領に、米国が別な方法で避けるかもしれない紛争や危機を誘発する可能性がある。これは、米国人に対するテロ攻撃を誘発し、米国を泥沼に巻き込むことを含む多くの反対する取り組みをもたらす可能性がある。この国の創業者達は意図的に米国が力を使うことを難しくした。航空戦力のようなロボットは、この防火帯を蝕むことになる。
ヒューマン・マシン・チーム化でその有効性を強化する軍事組織が民軍関係に精神的重圧を与えることはほぼ確かである。ロボット、人間と人工知能チームおよび増強された人員が軍に奉仕する世界では、政府の信頼が不可欠となる。軍は、自律的なシステムのために例外的な迅速な対応時間を可能な高度に致命的な部隊は、常に国家政策の対象であることを政府と広く社会に保証しなければならない。Eliot Cohenが著書「最高司令部:戦時中の兵士、政治家、リーダーシップ[1]」で、軍は「例外的な職業であり、他とは離れている」と述べている。一体化した政策も無しに、軍により一体化したヒューマン・マシン・チームを作成することは、この違いを補強する役割を果たすかもしれない。それは民軍関係において対処されなければならない課題である。
[1] 【参照】Eliot Cohen著「最高司令部:戦時中の兵士、政治家、リーダーシップ」
より深いヒューマン・マシン・チーム化は、戦略に影響を与える可能性がある。 Hew Strachan(2013)は次のように書いている[2]。
[2] 【参照】Hew Strachan著「戦争の方向性:歴史的視点における現代の戦略」
…新技術の影響が戦略的に重要であることを否定するのは賢明ではない…. 蒸気船、有人航空機またはロケットは、地理的に勝利し、空間と時間の関係を変え、直接的に運用可能なものと同様に地政学的効果を持つ。
長距離爆撃機の新技術は、ソ連は自ら孤独な戦いを戦っていると見た連合戦争に同盟国が貢献したことを保証することによって、第二次世界大戦に戦略的な影響を与えた。同様に、ロボット、人工知能、人間の増強、そして人間と機械のより深い一体化は、外交政策の開発と実施と同様に軍事戦略に影響を与えるかもしれない。
戦略的意思決定支援ツールとしての人工知能の応用は、AyoubとPayneが書いたように[3]、人間の脆弱性の一部に対処し、戦略の開発と戦略の実装に与える影響を偏らせるかもしれない。人工知能は、疲労などの物理的な問題の影響を受けず、認知的負荷、リスクの摂取および嫌悪、偏見(バイアス)のような他の戦略の心理学的次元を考慮して構築できる。大量のデータを使いこなし、長年にわたる人間の仮説に挑戦し、人間が直ぐにミスを犯すパターンを認識することで、人工知能は人間の戦略的意思決定を改善する可能性がある。しかし、現在の人工知能は、プログラミングと利用可能なデータセットによって大きく制約を受けている。さらに、人工知能は、人間のユーザの価値観、倫理観、または戦略目標に侵害する戦略を「善し」とする可能性がある。したがって、人工知能は戦略と戦略的意思決定に影響を及ぼすが、それを行う程度は、政策立案者や上級の軍事指導者の意志決定に留めておくべきである。
[3] 【参照】Kareem AyoubとKenneth Payne著「人工知能の時代における戦略」
交戦規定は自律型ロボットにとっての課題である。これは戦術上の問題のように見えるかもしれないが、実際にはこれらのルールは戦略と国の政策を源にするものである。Isaac Asimovの法則は自律型ロボットのための簡単なプログラマ化可能な規則であるように見えるが、交戦規定はAsimovの法則より、より複雑である。これは、ロボットにおいて望ましくないまたは予想外の振る舞いを引き起こす結果をもたらすかもしれない矛盾する命令の余地を残す。不明瞭な責任はこれに関連する別の課題である。(過失か意図的かに関わらず)自律的なロボットによる不適切な行為や力の権限を持たない使用を与える責を負うものは誰か?デザイナー、ロボット製作者、調達担当者、ロボット統制者/監督者、現場の指揮官、ロボット自体のいずれかなのか?
ある人は、人間が動作するように学習する能力(capacity)を持つ人工的なエージェント故に、機械の振る舞いに常に責任を負うとは限らないと主張する人もいる。これはMathias(2004)によって「責任のギャップ[4]」として記述されており、彼は現在、「人間が介入することなく行動方針を決定し行動することができる、開発中または既に使用されている機械がある。彼らが行動するルールは生産プロセス中に設定されず、機械の稼動中に機械自体によって変更される可能性がある」と述べている。しかしながら、Johnson(2014)は次のように述べている。「責任のギャップは、人工的エージェントの技術的複雑さから生じるだけではない。責任のギャップが存在するかどうかは、技術の複雑さではなく人間の選択に依存する[5]」 Horowitz and Scharre(2015)は、「兵器自体は戦争の法律に従わない。兵器は、戦争の法律に従うか、違反するような方法で人々によって使用されるものである[6]」 人間は、少なくとも予見可能な将来において、ロボットと自律システムの行動に責任を持ち続ける必要がある。
[4] 【参照】Andreas Matthias著「責任のギャップ:学習オートマトンの行動に責任を負う」
[5] 【参照】Deborah G. Johnson著「人の責任がない技術」
[6] 【参照】Michael C. Horowitz and Paul Scharre著「ロボット戦争の道徳」
責任の問題は、ロボットが誰を、または何を殺すのかを決めることで重要である。いくつかの状況が急速に発展し、我々がロボットやシステムに重大な決心を任せたいと思う非常に迅速な情報処理を求める必要な場合がある。Lin、Bekey、Abneyが指摘しているように[7]、人間の兵士が各ロボットの動作を監視しなければならない場合、これはロボットが最初に設計された有効性を制限する可能性がある。
[7] 【参照】Patrick Lin, George Bekey, Keith Abney著 「自律した軍事ロボット:リスク、倫理、そしてデザイン」
制度的課題
より密接に結合された戦闘システムにおける人間と機械の一体化は、軍事組織が戦う方法を検討することが求められる。現在、Ilachinksi[8]が指摘しているように、すべての形態の無人システムは、有人中心の作戦コンセプト(CONOPS)の観点で作戦の中に一体化されている。これは、人間の能力の限界を取り巻く作戦を暗黙的にデザインすることによって、不必要に自己制限的である。人間と機械による地上戦闘部隊に対する将来の戦闘コンセプトは、この構成を超えて移動しなければならず、大きな投資決定に先立ってしっかりと開発されなければならない。
[8] 【参照】Andrew Ilachinski著「人工知能、ロボット、スウォーム-問題と質問、そして検討提案」
この新たに一体化された部隊の人間と機械をつなぐ安全なネットワークのデザインと実装は重要な基盤になる。一見すると戦術的な問題ではあるが、この安全なネットワークは戦術的組織間(地上部隊、統合部隊、有志連合部隊)を結びつけるだけでなく、戦略的なリーチバック機能を持った戦闘空間に配備されたものをつなげるように制度的レベルでデザインされなければならない。これはネットワーク・アーキテクチャの課題であり、この解決策はヒューマン・マシン・ネットワークの間を流れる情報が安全で確実であることが必要とされている。
制度的文化も課題になる。歴史の大部分の軍事組織は、人間の制度として自らを見てきた。これにより、班(分隊)から統合部隊レベルまでの、人中心のチームの文化を強化してきた。さらに、異なる職業専門性は、より大規模な軍隊内で独自のサブカルチャーを開発することが多い。これらの文化やサブカルチャーは、結束と団結心を育成するための強力な要素である。しかし、Williamson Murrayが書いたように、軍事文化は、新しい考え方やテクニック、技術の導入や変化の障壁にもなる。組織文化を変えることは、より一体化されたヒューマン・マシン・チームの制度的発展のあらゆるレベルの指導者に焦点を当てることが必要である。
教育と訓練に対する新しいアプローチがこのより一体化された部隊に求められる。歴史とそして現在を通して、訓練は、個人やチームとして軍事成果を達成するために人間を教えることに焦点を当ててきた。より一体化された人間と機械の統合部隊では、この訓練への基本的なアプローチが課題となる。同様に、軍事指導者のための教育は、現在、戦争の術(Art of War)と戦争の科学(Science of War)における知的発達を達成しようとしている。学習する機械がこの環境に追加されれば、制度的および個人的な専門的な軍事教育は適応しなければならない。
新たな訓練と教育のアプローチの一部は、ヒューマン・マシン・チームの共通の目標の理解を発展させることである。人間と自律的な機械は、もし共に効果的に働こうとすれば、共通の目標を持ち、認識を共有する必要がある。自動化に関連する商用航空機事故の多くは、飛行乗務員が1つの目標(例えば、アプローチの間にグライドスロープに留まる)を持ち、飛行管理コンピュータが別のもの(例えば、回り道を実行する)を持っているときに発生している。将来の自律システムを導入するには、人や複数の人が達成しようとしていることの各機械の認識を高めるだけでなく、優れた人の訓練が求められる。
最後に、軍事要員のキャリア開発と管理もまた新しい人間と機械の部隊に適応させる必要がある。ロボットを、多くの「汚い、退屈で、危険な」機能に人間に置き換える可能性があるため、多くの下位階級の兵士を配置換えする可能性がある。これは、陸軍最も低い階級にある大部分の伝統的なキャリア「三角形」の変更を必要とする。
戦術的な課題
人間とロボットの将来のチーム化において重要な戦術的課題は、人員の認知的負荷が増加する可能性があることである。例えば、歩兵兵士が複数の無人航空機および無人地上車両に対する責任を負う可能性があり、一方で人間のチームで作業する必要があるかもしれない。通常の状況下では、これは要求される。戦闘では、兵士に深刻な認知的負荷をかけることになる。募集、訓練、教育、評価、知的能力と弾力性の開発は、この課題に取り組むために適応させる必要がある。より一体化された人間と機械の部隊を構築するための重要な目的は、認知的負荷を軽減することでなければならない。
兵士のロボットと人工知能のリスクへの同意は、取り組まなければならない課題である。2007年10月、南アフリカ軍によって配備された半自律型加農砲が機能しなくなり、9人の兵士が死亡し、他に14人が負傷した。これは合法的で倫理的な悩みである。2008年の調査に、潜在的に欠陥のあるロボットを扱うなど、珍しいまたは新しいリスクが存在することを兵士に知らされるべきかどうか?についての質問がある。
おそらく最も重要な課題は信頼を確立することである。どのようにして、危険で厳しい環境で人間とチームを組むロボットを信頼することができるか?軍の指導者たちはその人についての意思決定と、そして命を守り、命を懸けることについて潜在的に意志決定をするための、高度な分析と人工知能を信頼すべき程度について確立しなければならない。人の能力の改善を配布するために彼らの身体に埋め込まれた物体に人が置く多くの信頼についても確立されるべきである。最後に、増強された人間について、つまり増強された人間と、増強されない人間で構成されたチームは信頼出来るかどうかはまだ証明されていない。
複数の学者は、機械に標的を決定させ、機械にあからさまに射撃する決定を委任することは人間の尊厳に違反し、人は「機械によって殺されない権利を有する」と主張している。Stephen HawkingやElon Muskなどの技術者は、人工知能に反対している[9] [10]。他の学者は、将来、自律システムや人工知能が戦争や社会において大きな役割を果たす可能性があることを受け入れ、技術の開発と倫理観の検討を並行して進めることを提案している。Amir Husain (2016)は、次のように述べている。
[9] 【参考記事】Stephen Hawking 氏は「A.Iは我々の文明の歴史の中で最悪の出来事である可能性がある」と語る
[10] 【参考記事】Elon Musk氏は「AIは 核兵器よりもはるかに危険である」
…自律システムが将来の覇権の柱になるならば、今こそ、自律性が効果的かつ技術的に実行可能でありながら法的かつ道徳的に可能になる枠組みを提示する適切な時期である。
ミッション・コマンドの理論と実践は、これらの質問が少なくとも部分的にどのように答えられるかについてのいくつかの洞察を提供する。ミッション・コマンド-任務をどのように達成するかを特定せず隷下部隊の指揮官に割り当てる実践-は、ロボットと人工知能との信頼できる関係に適合させることができる指揮官と隷下部隊との間の基本的関係を確立している。しかし、それはハイブリッドな人間と機械の部隊を構築する際に解決しなければならない問題に完全に対処できていない。
したがって、より一体化された人間と機械の部隊を開発するにはかなりの難題が残っている。戦略的課題は軍隊だけではなく、政策立案者や政治指導者にも影響を与える。制度的レベルでは、変化に対する抵抗は軍事指導者を非難する。戦術的なレベルでは、人員が認知的感覚では過負荷でなく、そのロボットや人工知能のパートナーに信頼を持っていることを確実にすることは削減するための重要な障害となる。最後に、法的・倫理的分野における考慮すべき課題は、より一体化された人間と機械の部隊に向けてのあらゆる動きにおいて検討されなければならない。潜在的な敵対者は同様の関心を示さないかもしれないが、西洋の民主主義社会の本質は、これらが人間と機械の一体化の技術的側面と並行して取り組むことを要求する。
結論
次の10年間で、軍事組織は人工知能と機械が人間の心よりも優れた性能を発揮できるRay Kurzweil[11]のシンギュラリティを達成することはまずない。しかし、技術は、人工知能、機械、ヒューマン・マシン・チーム化が新しくてエキサイティングな可能性を幅を開けている点にまで到達しそうである。これらは社会を豊かにしますが、軍事組織が軍の専門性についてどのように考えるかに深く挑戦し、21世紀の戦いの知的で、倫理的で、物理的厳しさについて軍の人々を準備する。
[11] 【参照】Ray Kurzweil
人類はこれまでにもこうした形態の課題に苦しんできた。何世紀もの間、戦争における新技術の適用は、紛争前、紛争中、紛争後に議論を生み出してきた。1139年に、Pope Innocent II[12]は第2ラテラン評議会を率いて、戦争でのクロスボウの使用を禁止した。この時、クロスボウは非常に先進的な技術であり、最小限の訓練と強度を必要とし、比類のない致死性を有していた。身分が低く急いで訓練された小作農は、戦争の既存の力の構造に挑戦して、武器を使うことができた。ローマ・カトリック教会は、戦争の性格を大きく変えたものとして新しい武器を見た。
[12] 【参照】Pope Innocent II
新たな戦争手段の開発に対するこの反応は、軍事組織が人間と機械の一体化のためにはるかに広い計画を採用する場合に対処しなければならない懸念の形態を示している。各軍部組織は、国家や軍種にかかわらず、ヒューマン・マシン・チーム化の課題に異なったアプローチをする。軍事文化、国家戦略、社会的期待の変化は、異なる軍事制度から複数の解決策が得られるようにする。ヒューマン・マシン・チーム化のために開発されたこのような様々な制度的戦略は良いことである。少なくとも西側の軍事組織間では、教訓の共有とベスト・プラクティスの相互受粉を提供する。しかし、中心的な問題は、軍事組織が、ヒューマン・マシン・チームの未来をうまく利用しようとすれば、この記事で述べた課題に取り組む現実的な戦略をそれぞれ持っていなければならないということである。
“軍事における人と機械をチーム化するために求められるもの” に対して1件のコメントがあります。
コメントは受け付けていません。