戦争をデザインする?軍事の人間とコンピュータの相互作用(HCI)への倫理的・実践的課題 (Association for Computing Machinery)
科学・技術の軍事利用における倫理的な視点は、どの国においても非常に重要な課題だと言える。特に近年では、AI、バイオテクノロジー、量子技術などの先端分野が急速に進展しており、それらが軍事に応用される可能性が高まっている。その中で、倫理的なガイドラインや透明性のある議論が欠かせないという点は、学術界・軍事界の双方にとって共通の責任だといえる。
いわゆる科学・技術が軍事に転用される「デュアル・ユース」問題は、科学の平和的利用と軍事への応用という二面性を持ち、特にAIなどの先端技術では軍民の線引きが困難化している。
このような課題に関する論稿を紹介する。紹介する論稿は、ロシア・ウクライナ戦争の事例も分析しながら、人間とコンピュータの相互作用(HCI)の側面から課題を抽出し、議論を深める必要性を論じている。
防衛省も最新の科学・技術を適用することを念頭に、安全保障技術研究推進制度(防衛省ファンディング)や防衛イノベーション科学技術研究所の設立などの取組みを行っている一方で、倫理的な側面についても「防衛省の研究開発評価指針(令和5年改正)」や「装備品等の研究開発における責任あるAI適用ガイドライン」などがその取組みといえるのだろう。(軍治)
なお、[ ]内の数字は末尾の参照文献の番号
戦争をデザインする?軍事の人間とコンピュータの相互作用(HCI)への倫理的・実践的課題
Designing for War? Ethical and Practical Challenges to a Military HCI
計算機学会(Association for Computing Machinery)
Author: Barry Brown
要約
この小論文では、あまり認識されていないが、デザインの最も顕著な使用例のひとつである軍事技術について探求する。人間とコンピュータの相互作用(HCI)、軍事、そして用兵(warfighting)が相互に依存している3つの事例を用いて、倫理的かつ実際的な課題を探る。まず、ヘッド・マウント・ディスプレイ(HMD)の開発は、軍事用と民間用の適用を分離することが不可能に近い「ライオンと子羊」※1の問題を提起している。
※1 ライオンと子羊(the lion and the lamb)とは、聖書の中で重要な意味を伝えるために使用される 2 つの強力なイメージ。これらのシンボルはイエス・キリストのさまざまな側面を表しており、イエス・キリストの二面性を示すために使用されていると云われる。ここでも、新たな技術が二面性を持つことの象徴として使用されている。
次に、軍事用ハードウェアの製造や製作に民間人を参加させる方法として、メイカースペース※2がどのように利用されるようになったかを見ていく。最後に、AIとロボットの採用、そしてロボットとドローンがどのように新しいクラスの兵器として発展しているかを見ていく。議論では、HCIがデザインに役立つ技術の適用について、どのように批判的に考察しうるか、また「危害軽減(harm reduction)」の人間とコンピュータの相互作用(human computer interaction)の機会について考える。
※2 メイカースペース(makerspaces)とは、3Dプリンターやレーザー・カッターなどの最新機器から伝統的な道具まで様々な道具を備え、人々が「つくる」「学ぶ」「探求する」「共有する」体験ができる公共の作業スペースを指している。
1. はじめに
技術の軍事利用は、研究にとって多くの倫理的かつ実際的な課題を提示する。特に、人間とコンピュータの相互作用(human computer interaction)や、コンピュータ・サイエンスの人間中心の部分において、研究の到達目標は、実践により適合するシステムを作り出すこと、そして新しいニーズや新しい事例をサポートすることに集中している[5, 73]。最近、コンピュータ・サイエンスの著者は、技術が我々の幸福にどのような影響を与えるかという広範な批評とともに、ダーク・パターンや振舞いの操作(behavioural manipulation)など、技術がもたらしうる弊害に疑問を投げかけ、探求するようになっている[4, 38, 86]。
この小論文では、技術の最も顕著な使用例のひとつである防衛・軍事用途の技術を探求する。このような用途が人間中心のデザイン研究にもたらす課題に焦点を当てる。デザインが技術の軍事利用にどのように貢献してきたのか、どのようにアプローチすればよいのか。研究はどのように軍事的文脈のためのデザインを調査し、貢献すべきなのか?我々は軍事利用を支援し、軍事資金を求めるべきなのでしょうか?あるいは、我々の仕事は軍や軍国主義に真っ向から反対し、「危害軽減(harm reduction)」に焦点を当てるべきか、平和に直接焦点を当てるべきか。
人間とコンピュータの相互作用(human computer interaction)は、技術が適用される多種多様な用途に細心の注意を払ってきたが、軍事用途の研究はやや稀である。デザイン分野や、人間とコンピュータの相互作用(human computer interaction)の中心的な会議や学術誌のプロシーディングスには、軍事的適用に関する研究はほとんど見られない。しかし、ヘッド・マウント・ディスプレイ(HMD)や人間ドローンとの相互作用(human drone interaction)など、我々がデザインに積極的に取り組んできた技術の多くは、実際には戦いで主に適用されてきた。軍事費もまた、特定の研究の到達目標を他の研究の到達目標よりも優先させることで、研究に影響を与えている。本稿では、このような不快な事例の研究から学べるだけでなく、多くの点で無視することは倫理的に怠慢であることを主張する。
技術のデザインに焦点を当てた研究は、その適用やその領域におけるユーザのニーズと明らかに結びついている [60] 。しかし、軍事的な適用は、倫理的なデザインをどのように考えるべきかを問うものである。倫理的研究の第一の戒律が「危害を加えないこと」であるとすれば、危害を直接、あるいは間接的な要件とする適用をどう考えればよいのだろうか。「事例としての殺人(killing as a use case)」は、軍事についてだけでなく、我々が構築する技術の争われる有害な用途を切り開くための挑発的な思考方法である。
例えば、「マテリアル・ターン(Material turn)」※3の中で、技術への関係的なアプローチや、人工物、行為、行為者、デザイナーの間の複雑な相互関係を探求する最近の動きを見てみよう[33, 81]。兵器は、複雑さと相互関連性という点で、おそらくほとんど実用的な事例である[33, 81]。傷つけたり殺したりするようにデザインされた兵器では、「ユーザ(the user)」をどのようにコンセプト化すればよいのだろうか。加害者も被害者も「ユーザ」ではないのか。暴力の脅威と、兵器の使用の一部でもあるはずの脅威を、我々はどのようにコンセプト化するのだろうか。
※3 「マテリアル・ターン(Material turn)」とは、現代社会において、従来の人間や社会中心のアプローチから、物質や材料といった非人間的な要素に注目が集まり、それらが社会の形成や構造に与える影響を再評価する「物質への転換」を指す概念。対義語は「メンタル・ターン(mental turn)」、「スピリチュアル・ターン(spiritual turn)」などが挙げられる。
本稿ではまず、戦いの倫理(the ethics of warfare)に関するさまざまな立場や、戦争における科学技術の中心的役割について検討し、問題となっている倫理的問題を概観する。特に、サイバー戦、AI、ソーシャル・メディアは、民間人を用兵(warfighting)に巻き込むものであり、学術的にも一般的にも最近の話題となっている。このような問題を実際の事例から探り、デザイン、軍事、用兵(warfighting)が相互に依存している現在の3つの「HCI適用」について議論する。最初の事例は、ヘッド・マウント・ディスプレイ(HMD)の開発であり、軍事的な適用が、より民間的で芸術的な適用とともに、どのように段階的に進歩してきたかを探る。これは、研究の適用が、しばしば同じ基本技術から、どのように民間と軍事の両方になりうるかという「ライオンと子羊」という難しい問題を提起している。
2つ目の事例は、HCIで研究されている一見無害なイノベーションであるメイカースペースが、軍事用ハードウェアの製造や製作に民間人を参加させる方法としてどのように使われるようになったかを論じている。この事例では、ある目的のために開発されたイノベーションが、まったく異なる目的のためにどのように使われるようになったかを考えることができる。ウクライナのメイカースペースにおける技術の防衛的開発という事例は、多くの倫理的問題を提起している。最後となる3つ目の事例では、軍事的な文脈におけるAIとロボットの採用について議論する。
これは、パキスタンにおける米国のドローン攻撃から、ウクライナ戦争におけるドローンの広範な使用にまで及ぶ。人間とドローンの相互作用(human-drone interaction)はHCIにおいてある程度の関心を集めており、人間とロボットの相互作用(human-robot interaction)はHCIの活発なサブフィールドであるが、通常、議論される適用は良性のものである。しかし、善意とは裏腹に、ロボットの実際の重要な用途は、自動運転車ではなく、対人兵器の開発の次の段階としての戦闘での使用なのかもしれない。
ここでの我々の到達目標は、論じる問題に対して強い編集的立場をとることではなく、むしろ議論と討論をオープンにすることである。これは、デザイン・コミュニティが最近、論争を呼ぶようなテーマを取り上げたり、意見が対立する分野、特に社会全体ではほとんどコンセンサスが得られていないようなトピック、我々の多様な国際的アカデミック・コミュニティ内ではなおさらであるようなトピックをオープンにするよう呼びかけていることを受けてのことである[11]。
コンセンサスを得ることは不可能かもしれないが、異なる立場や主張を誠実に理解することで、新たな、潜在的に有益な理解を深める一助になればと願っている。欧州の一国を拠点とする研究者として、我々は自らの立場、つまり-研究と軍との結びつきには強い懐疑的である-ということを認める。しかし、我々の国籍が提供する複雑で矛盾した安全保障の恩恵を受けていることも認める。そして、ここに挙げた3つの事例は、我々自身の状況や、ウクライナ紛争、スーダン、ミャンマー、パレスチナ、ソマリアで進行中の戦争など、最近のグローバルな軍事的出来事によって文脈づけられている。
約20年にわたり減少を続けてきた武力紛争による死者数は、2023年に再び増加に転じ、2024年にはこの総数を上回った[22]。相対的な平和と繁栄、戦争と紛争の減少が続いた時期を経て、我々は新たな軍国主義と紛争の時代に向かっているのかもしれない。こうした事象は通常HCIにとって重要な課題とは見なされないが、「戦争の前触れ(drums of war)」という憂慮すべき背景として作用している。したがって最近の出来事は、我々の研究における軍事的役割(現実的・潜在的を問わず)をより真剣に捉えるべきだという示唆となるだろう。
2. 軍事研究の倫理
戦争、研究、軍事に関する倫理論争について、まず簡単に紹介しよう。戦争は常に技術に依存してきた。1415年のアジャンクールの戦い[54]では、イングランド王ヘンリー(Henry)が地面に大きな角度をつけた木製の杭を大量に設置し、これにより自軍の弓兵を騎兵の突撃から守った。戦いの歴史(the history of warfare)は多くの点で、戦術のイノベーションと並行して発展した攻防技術による陰惨な物語である。したがって科学技術は軍事進歩の中核を成す。様々な兵器が採用されるにつれ、戦争の様相は幾度も変化してきたからだ[54]。したがって研究は戦争における周辺活動ではない―むしろ技術的進歩が短命な軍事的成功を生むという点でその中心的な原動力である。 [109]。
学術研究は主要な研究拠点の一つとして、戦いにおけるイノベーション(innovations in warfare)につながる基盤技術の開発において極めて重要な役割を果たしており、特に多くの米国の大学は軍事研究から多額の資金提供を受けており、またそれに参加している。学術界の関与なしには、多くの軍事技術(特に核兵器など)の生産、維持、更新は不可能である[90]。こうした軍事による学術研究への関与そのものが、長年にわたる議論の対象となってきた[109]。
軍と研究界の連携については、様々な批判がなされてきた。軍と学界の協力関係は利益相反や二重の忠誠心を生み出す可能性があり、学者は国家安全保障上の利益に対する義務と、学術的誠実性や科学的透明性との間でバランスを取らねばならないからである[89]。また軍事研究は秘密保持や機密情報の枠組みの中で行われることが多く、透明性や説明責任に関する倫理的懸念を引き起こしている。
軍事関連プロジェクトに携わる研究者は、兵器化リスク、民間人被害、国際的な安全保障の不安定化など、自らの研究がもたらす広範な社会的影響を考慮する責任を負う[39]。軍事研究に従事することにより、研究者は暴力と軍事化の永続化に寄与し、紛争の根本原因に対処し、非暴力的な紛争解決手段を促進する取組みを阻害する可能性がある。
軍事研究は国家安全保障上の要請や防衛予算に後押しされ、多額の財政支援を受けている一方で、平和構築、紛争解決、非暴力的な紛争変容を目指す研究イニシアチブへの資金提供は依然として著しく低い水準にある。この資金格差は、外交的・人道的・非暴力的な代替手段よりも軍事化された安全保障アプローチが優先される、より広範な社会的優先順位と権力構造を反映している[14]。これは、軍国主義(militarism)が市民の安全保障(civilian security)と並行してハイブリッドな役割をますます担う中で生じている現象である[37]。
これらは、戦争そのものの倫理をいかに捉えるかというより広範な議論の中で位置づけられる。特定の戦争形態を正当化しようとする試みは数多く存在し、特に「正戦の理論(just war theory)」[77]が代表的である。ウォルツァー(Walzer)[108]は、場合によっては「正戦論(justice of war)」が成立し得ると主張する。すなわち、自衛のため、他者を守るため、最終手段として、予想される害悪に見合った必要性をもって行われる戦争である。これは「戦争における正義」と並行する概念であり、軍事のターゲットと非軍事のターゲットを区別するなど、倫理的に遂行される戦争を指す。
オレン(Orend)[72]は、人道的介入、内戦への介入、「戦後正義(post-war justice)」の重要性に関する問題に焦点を当ててこれらの議論を展開する。これらの議論に対する批判は、「正戦(just war)」というコンセプトが、植民地主義的・ポスト植民地主義的戦争を正当化し、不平等な国際経済体制を永続・維持するため、あるいは「テロとの戦争(war on terror)」という継続的なアジェンダの一環として操作されてきたことを指摘している。その結果、さらなる不安定化と苦痛が生じている[37]。
戦争と正義のコンセプトは、技術や戦いの研究の問題に直接適用されてきた。例えば、サイバー攻撃の倫理[45](しばしば民間のターゲットをターゲティングする)や、戦いにおけるAI使用をめぐる議論[52]がそれにあたる。これは国家安全保障を理由に正当化されることが多い国家監視体制の拡大と関連している[37]。これらの問題は、軍事ロボット、特に自律型ロボットのガバナンスに関する議論(後述)にも見られる。こうした技術は戦争に数多くの戦略的影響を及ぼす可能性があり、どのような法的枠組みを構築すべきか、あるいはどのようなガバナンス機構(国際軍備管理条約など)を採用すべきかという課題を提起している。
根本的に、ここでの中心的な倫理的課題は、デヴィッド・ヒューム(David Hume)が指摘した「is-ought」問題にある。これは記述的事実(あるもの:what is)から規範的道徳命題(あるべきもの:what ought to be)を導出することの難しさを浮き彫りにしている[36]。ヒューム(Hume)は、世界のあり方に関する記述から、正当化なしに行動規範への飛躍を行う誤謬を観察した。
例えば、「人間は本来攻撃的である(humans are naturally aggressive)」と述べることは、攻撃性が道徳的に許容されることを論理的に意味しない。このギャップ-しばしばヒューム(Hume)の断頭台と呼ばれる-は、倫理的結論には単なる経験的観察以上のもの、すなわち規範的前提が必要であることを示唆している。哲学者たちはこの隔たりを様々な方法で埋めようとしてきた。例えばジョン・サール(John Searle)の「制度的事実(約束など)が義務を生む」という主張や、自然法理論家たちの「道徳規範は人間の本質から導き出せる」という主張などがそれにあたる[36]。
この議論は倫理学において、特に科学、道徳、政策立案に関する議論において中心的な位置を占め続けている。そこでは事実の主張から倫理的指針を推論しようとする誘惑が依然として存在する。世界がどうあるかを観察することはその状態を正当化しない一方で、世界がどうあるべきかを単に述べるだけでは、実際にどうあるかという現実的な状況に言及しないという同様の限界がある。規範的なものと現実的なものは相互に依存し合っている。
2.1 デュアル・ユースの課題
特に技術と軍事の関係に関する研究においては、いわゆる技術の「デュアル・ユース(dual use)」が最大の課題となる。有益な適用を目的とした科学的知見が、有害な目的にも悪用される可能性があるからだ。デュアル・ユース研究における倫理的考察は、科学者や研究機関の責任を問うものであり、悪用される可能性のある知見を公表すべきか否かという困難な判断を迫る。
「責任ある研究とイノベーション(responsible research and innovation)」(RRI)[70]というコンセプトは、透明性、包括性、長期的なリスク評価を重視する倫理的な科学実践を促進する一つの枠組みとして注目を集めている。科学コミュニティ内に責任ある文化を育むためには、教育と啓発活動も極めて重要である。結局のところ、デュアル・ユース研究における倫理的な意思決定には、科学的な開放性と、安全保障および危害防止の必要性とのバランスが求められる。
生物学はこうした問題が長く議論されてきた分野の一つである。生物科学の進歩、特に合成生物学や遺伝子工学の進展に伴い、新たな倫理的ジレンマが生じ、学際的な監視が必要となっている[70]。病原体の伝染性や病原性を研究するために病原体を改変する機能獲得研究の事例は、公衆衛生上の備えの強化と、偶発的または意図的な悪用のリスクとの間の倫理的緊張関係を象徴している[57]。
生物兵器禁止条約(BWC)や各国のバイオセキュリティの枠組みなどの規制措置は、こうしたリスクを軽減しようとしているが、その施行は依然として一貫性を欠いている。エヴァンス (Evans)[30] などの学者は、安全保障と科学的開放性の間の緊張関係を乗り切るためには、明確な倫理的ガイドラインが必要であると強調している。しかし、デュアル・ユースのコンセプトは、意図的な悪用だけでなく、危険な病原体の意図しない放出などの偶発的なリスクも包含している。最近の歴史は、管理不十分なデュアル・ユース技術が引き起こす可能性のある結果を示す例として引用することができる。
技術評価(TA)は、新興技術がもたらす社会的・経済的・倫理的・環境的影響の可能性を評価するためにデザインされた、体系化された学際的プロセスである。急速な技術進歩への懸念への対応として20世紀半ばに始まった技術評価(TA)は、政策立案者や利害関係者に、技術が広く普及する前にリスクと便益を予測するための枠組みを提供する[79]。
純粋に技術的な評価とは異なり、技術評価(TA)は倫理的ジレンマ、規制上の課題、長期的な持続可能性など、より広範な社会的考慮事項を取り入れる。これらの技術を体系的に分析することで、技術評価(TA)はイノベーションとリスク軽減のバランスを取った情報に基づいた意思決定を促進する。特にライフ・サイエンス分野では、技術評価(TA)は科学的・倫理的・政策的な考慮事項を喚起し、新興技術が社会に積極的に貢献すると同時に害を最小限に抑えることを保証している。
例えば、CRISPR※4遺伝子編集技術の開発は、ヒト生殖細胞系列の改変や生物戦(biological warfare)への適用に関する懸念を引き起こしている。同様に、合成生物学は新規生物の創出を可能にするが、これは医療や産業に有益である一方、新たな病原体のデザインに悪用される可能性もある。効果的な技術評価枠組みには、リスク分析、利害関係者との対話、規制監督が組み込まれており、責任ある科学的イノベーション(scientific innovation)を導くものである。
※4 CRISPRとはClustered Regularly Interspaced Short Palindromic Repeatsの略で、近年原核生物でファージやプラスミドに対する獲得免疫機構として機能していることが判明したDNA領域のことを指す。(参照:https://www.tmd.ac.jp/grad/bac/CRISPR.html)
これらのイノベーションは精密医療や生態系工学といった利点をもたらす一方で、遺伝情報のプライバシー、生態系の安定性、社会経済的不平等に関する倫理的懸念も提起している[51]。技術評価(TA)の重要な側面は、公衆の関与と倫理的先見性を組み込むことであり、技術的進歩が民主主義的価値観や社会的ニーズに沿うことを保証する[74]。科学的専門知識と政策的考慮を統合することにより、技術評価(TA)は技術的進歩とグローバル・ガバナンスの複雑な相互作用を導く貴重なツールとなり得る。
3. 軍事の人間とコンピュータの相互作用
学術研究と軍事研究の交差点を認識しつつ、我々は人間とコンピュータの相互作用(human computer interaction)に目を向ける。計算機学会(ACM)憲章には軍事プロジェクトへの関与を明示的に禁じる条項は存在しない。しかし注目すべきは、商業的あるいは倫理的な配慮の差異によるものか、計算機学会(ACM)カンファレンスで発表されるHCIの軍事的適用を探求する研究論文が極めて少ない点である。人間工学分野では状況が異なり、例えば戦場状況認識システムのデザイン、軍事航空電子機器、指揮統制の人間工学的側面などに関する広範な研究が行われている[21, 56]。ラウトレッジ※5は防衛分野における人間工学をテーマとする著名な書籍シリーズを刊行しており、これらのトピックの多くを網羅している。
※5 ラウトレッジ(Routledge)は、人文科学・社会科学分野の学術書、ジャーナル、オンライン文献を出版するイギリスの大手出版社
いくつかの論文では、紛争とその影響について論じられている。例えば、シュクロフスキー(Shklovski)とウルフ(Wulf)による戦いの間の市民のレジリエンスに関する議論[88]や、セマーン(Semaan)による戦争時のインフラ崩壊に関する研究[87]などである。また、市民のレジリエンス[34, 48]や平和のためのHCI[47]について論じた研究も存在する。軍事文化と実践に関しては、ドソノ(Dosono)ら[26]とルー(Lu)ら[65]が退役軍人や将校の技術利用体験を記述している。実際の用兵(warfighting)についても、ほとんどが言及されるに過ぎない。
例外の一つは、用兵(warfighting)の一環として用いられた特定技術(コロンビア内戦における反政府勢力コロンビア革命軍-人民軍(FARC-EP)による異なる無線通信技術の採用)を論じたデ・カストロ・レアル(de Castro Leal)の2019年の研究である[23]。より広範には、危機情報学分野にも関連研究が存在する[96]。ただしここでも焦点は主に紛争の結果への対応にある。シュミット(Schmid)はHCIにおける軍事研究の有用な最新文献レビューを提供し、特に「軍事分野における人間とコンピュータの相互作用(human computer interaction)に関するビジョンがしばしば暗黙的に扱われている」点を指摘している[85]。すなわち、軍事的適用が明示的に言及されることは稀で、ほとんどの適用例は暗黙的に、あるいは一般原則の適用を通じて議論されているのである。
3.1 初期の人間コンピュータ相互運用(HCI)における軍事的関与
軍事研究は当時、少なくともコンピュータと人間の相互作用(CHI)や関連分野において主題の中心ではなかったかもしれないが、HCIの初期段階において、インターフェースの基本要素が軍事の多大な投資なしに創出されたとは考えにくい[27, 105]。ハムリー(Hamrie) は、人間工学と軍事活動との多くの関連性を文書化している [41]。人間工学の古典的な書籍「人間の尺度(The Measure of Man)」は、戦車デザインのための軍事研究に端を発している。そして、「第二次世界大戦後の時代までに、「ユーザ(user)」、「人的要因(ergonomics)」、「人間工学(ergonomics)」に関する議論は、米国および欧州の産業、科学、軍事の文脈で 1 世紀以上にわたって存在していた。戦争は新たな身体性の形態をもたらし、[…]「人的性能(Human performance)」専門家を育成した」[41]。
確かに、多くの従来型技術やユーザ・インターフェースは、大規模な軍事国家支出を通じて開発されるに至った。有名な「すべてのデモの母」は、結局のところ国防高等研究計画局と米空軍によって資金提供されたものであり、そのアイデアを商業的適用へと発展させたのは他者であったにせよ。適用面では、HCIが貢献する多くのデバイスやシステムが用兵(warfighting)に多大な影響を与えてきたことは明らかである。たとえそうした用途がデザイン議論の最前線に立つことは稀であっても。その後、技術の商業化ははるかに多様化したものの[29]、多くのインターフェース技術は依然として、その研究の軍事的適用との一種の共生関係にあると言えるだろう[84]。
おそらく、成果志向の強い研究分野であり、人間中心デザインに特に焦点を当てていることから、軍事的適用に関する具体的な議論がほとんど見られないのは驚くべきことではない。軍事が「単なる別の適用分野」ではないとはいえ、様々な適用分野を探求することは、HCIにおけるコンセプトの拡大において長年の基本方針であった。我々は主張したい。我々の技術の多くが軍事用途に使用されていることから、これらの事例をどうするかという点ではどのような決定を下すにせよ、少なくとも軍事用途を最も重要な適用領域の 1 つとして検討すべきだと我々は主張する。
3.2 定義-軍事の人間とコンピュータの相互作用(HCI)とは何か
これまでの議論における二つの曖昧さについて、いくつかの明確化が必要である。第一に、ここでいう「軍(the military)」とは何を指し、「軍事HCI」とは何を意味するのか。「軍(the military)」の正確な境界線は複雑である[110]。特に米国のような国では、様々な理由から軍が他国に比べて広範な役割を担っているため、この傾向が顕著である。米軍は時に「最終手段としての政府機関」として活用され、災害救援や市民緊急事態対応を実施してきた。
これは、米軍が「国家建設(nation building)」の役割を担った他の国々でも同様である。例えば、イラク侵攻後の軍事政権としての機能などが挙げられる[18]。この拡大した役割は広く批判されており、特に米軍内部からも「用兵(warfighting)」のための能力を弱体化させるという指摘がなされている。とはいえ、軍事行動における「致死的」あるいは「キネティック(kinetic)」な側面は、その活動の一部に過ぎないという事実は変わらない[12]。
軍隊自体を超えて、様々な種類の兵器製造業者(arms manufacturers)が技術開発において重要な役割を果たしている。多くのよく知られたIT企業(計算機学会(ACM)カンファレンスに資金提供しているような企業を含む)は、世界中の軍隊向けにハードウェアやソフトウェアを販売する活動に積極的に関与しており、特に軍艦、軍用機、さらには兵器そのもの向けに特注システム(custom systems)を提供している[71]。政府の軍事支出規模を考えれば、世界中の様々な軍事組織への販売が技術ビジネスの柱となっているのは驚くべきことではない。このため、関与する様々な主体を、その活動が民間か用兵(warfighting)用か、「キネティック(kinetic)」か無害(benign)かを問わず、明確に区別することは困難である。
同様に、HCIの観点からも、「HCI研究」とHCIの適用分野を明確に区別することはできないと主張できる。HCIの中核には、その適用分野に向けたデザインへの関心が存在するため、様々な事例を理解することは明らかにHCI研究の一部である。逆に、HCIはHCIの原理や手法を用いるシステムを理解することと密接に関わっている。これをさらに広げて言えば、HCI研究を支援する軍事資金も存在する。
軍事活動と相互に行き来するアイデア、手法、コンセプトの流れを考慮する必要がある。例えば、将校の訓練において習得されたHCIの原則が、その後軍隊での業務(デザインなど[110])で活用される事例が挙げられる。さらに視野を広げると、現代技術の大半がHCIやインタラクション・デザインに深く影響を受けている現状を踏まえ、我々のデザイン原則やインタラクション技術、あるいは特定の技術的発明が、いかに軍事分野に適用されるようになったかを考察すべきだろう。本稿では調査の幅を広げるため、「軍事」と「HCI」の両概念についてある程度の曖昧性を意図的に残す。
4. 軍隊とHCIの3つの事例
この背景は、軍事用途の理解、分析、デザインに対するHCIのアプローチにおけるいくつかのジレンマを概観するものである。
ここで一般論から離れ、実際の軍事活動とHCIの関与に関する具体的事例に移り、HCIが軍事と結びついた具体的な事例を検討しよう。ここでの我々の到達目標は、HCIと軍事の関連性を探り、生じる倫理的ジレンマを検証し、我々が実施可能な研究に適用できる一般的な教訓を見出すことである。各事例を大まかに二つの部分に分けて構成した。
まず、各技術や事例の歴史を説明した後、それが生み出す「課題(challenge)」と、それが初期の倫理的・実践的立場をいかに刺激し複雑化させるかについて論じます。これらの事例は、この分野に関する思考を探求・拡大するとともに、HCIを現代の発展・議論・懸念と結びつけるために選ばれました。つまり、「今まさに起こっていること」を考察することで、軍事HCIについて思考を始める出発点を見出すのである。
最初の事例はヘッド・マウント・ディスプレイ(HMD)の開発であり、軍事用途が民間や芸術分野での適用と並行して段階的に進歩してきた経緯を扱う。第二の事例では、メイカースペースが民間人を軍事機器の構築・製造に巻き込む手段として活用されるようになった経緯を論じる。この事例は、HCI分野で開発された技術が全く異なる目的で適用される過程を考察させる。最後に議論する事例は、軍事分野におけるAIとロボットの採用である。
人間とドローンの相互作用(human-drone interaction)はHCIにおいて一定の関心を集めてきたが、これまで議論されてきた適用例は概してより無害なものに偏っていた。これら三つの事例はそれぞれ異なる課題を提起する:第一に「ライオンと子羊(the lion and the lamb)」の問題、すなわち同一技術システムの適用から善用と悪用が同時に生じうる点; 第二に「トロイの木馬(Trojan horse)」問題:研究者が開発した技術が、創始者の意図に反し軍事用途を主たる適用先とする事例。最後に「殺人ロボット」問題:軍事的適用を認識した上で開発した技術が、結局は戦いの一環として主要な適用先を持つ事例である。
4.1 事例1:ヘッド・マウント・ディスプレイ(HMD)
最初の事例研究では、レジャー、芸術、軍事など幅広い用途で適用されてきたインターフェース技術を取り上げる。ヘッド・マウント・ディスプレイ(HMD)は、Apple Vision ProヘッドセットやMeta Questなど、多くのVRおよびXRシステムを支える基本出力技術である。1968年にエンゲルベルト(Englebert)の研究室で開発された「ダモクレスの剣(Sword of Damocles)」は、天井設置型ディスプレイをユーザの目(user’s eyes)の近くに装着する形式で、初期のヘッド・マウント・ディスプレイ(HMD)の一つとして注目されている[43]。この研究は、軍事用途向けヘッド・マウント・ディスプレイ(HMD)の開発とも同時期に行われた。
戦闘機パイロットが装着するヘルメット・マウント・ディスプレイは、1960年代に南アフリカ軍によって開発された。またトーマス・ファーネス(Thomas Furnes)は1967年に米空軍向けにヘッド・マウント・ディスプレイ(HMD)を開発し(彼はその後この分野の研究者として顕著な経歴を築いた)[32, 35]。また、ほぼ同時期の1969年には、芸術家マイロン・クルーガー(Myron Krueger)がヘッド・マウント・ディスプレイ(HMD)の芸術的適用を開発した。彼が「人工現実(artificial reality)」と呼んだ一連のインタラクティブ・コンピュータ・アート作品-グローフロー(Glowflow)、メタプレイ(Metaplay)、サイキック・スペース(Psychic Space)-である。その後まもなく、1974年にはスティーブ・マン(Steve Mann)によるウェアラブル拡張現実の著名な研究が始まった。ちょうど同じ年に、米海軍が戦闘機で初の運用可能なヘルメット・マウント・サイト・システムを採用した[32, 35]。
ヘッド・マウント・ディスプレイ(HMD)においては、民生・軍事・芸術分野での適用が、主に独立した形で並行して発展した。この傾向は90年代以降も続き、1993年にはファイナー(Feiner)、マッキンタイア(Macintyre)、セリグマン(Seligmann)が計算機学会(ACM)通信誌で拡張現実(AR)を提唱した[31]。並行して米陸軍は「夜を支配する」ためのヘッド・マウント型暗視システムを開発し、第一次イラク戦争で広く運用した[55]。暗視技術は革命的な技術として実証され、現在ではあらゆる軍隊の用兵装備(warfighting equipment)の中核を成している。暗視技術は当初、デジタルヘッド・マウント・ディスプレイ(HMD)ではなく画像増強を基盤としていたが、近年のシステムは拡張現実との共通点が増している。「ENVG-B」のようなヘッド・マウント・システムは、暗視機能と拡張現実を組み合わせ、地図を表示したり、兵器搭載カメラとの接続を通じて角を曲がった先を見通したりする機能を備えている[1]。
ヘッド・マウント・ディスプレイ(HMD)のこうした用途は、創造的/芸術的な適用と用兵(warfighting)の間を行き来しているように見える。ゲーム(そしておそらく仮想戦闘での使用)から、夜間視認や多視点兵士システムを通じた実際の戦闘での使用まで多岐にわたる。マイクロソフトのHoloLensシステムはこの多様な用途の最近の例である。当初は民生用途向けに開発されたが、現在ではほぼ専ら米陸軍との大型契約の一環としてマイクロソフトが開発を進めている。これは「統合視覚拡張システム(integrated visual augmentation system:IVAS)」※6と改称されたシステムであり、兵士が暗視映像だけでなく、兵器からの視点、角を曲がった先の視点、さらには地域をスキャンするドローンの視点など、様々な視覚的視点にアクセスすることを可能にするものである。このシステム自体、特に軽量な画像増強グラスと比較した場合のコスト、重量、性能面から議論を呼んでいる[78]。
※6 IVAS は米陸軍のPEO STRIが所掌し実装に向けて各種の実験の末、Soldier Borne Mission Commandとプロジェクト名を変え米陸軍のPEO Soldierの所掌となっている。
4.1.1 課題
ヘッド・マウント・ディスプレイ(HMD)は、軍事用途と民生用途の両方で非常に魅力的な技術であることは明らかだ。このことは、民生用途に向けた技術開発が進めば、それが逆に軍事用途の開発にも寄与する可能性が高いという課題をもたらす。あるいはより広く言えば、基盤となるハードウェア自体の開発が進むことで、あらゆる用途における拡張現実技術が向上する。もしHCIの軍事用途を他の用途から分離したい場合(おそらく戦いに直接適用される技術の開発を避けるため)、これは困難な事例となる。
これは「デュアル・ユース」問題と関連している。つまり、ある技術が民生用と軍事用の両方の用途を持つ場合であり、例えば硝酸アンモニウムは肥料であると同時に爆弾の原料としても使用できる。実際、研究の適用分野におけるこの衝突は新たな問題ではない。1950年代、ジョン・フォン・ノイマン(John Van Neumann)はこれを「ライオンと子羊(the lion and the lamb)」の問題として論じた。マンハッタン計画(Manhattan project)に携わった物理学者として、彼は明らかにこうしたジレンマに馴染み深い人物であった:
最初から一つの疑似解決策を除外しておくのが賢明である。この危機は、これやあれといった一見特に忌まわしい技術の形態を抑制することで解決されるものではない。第一に、技術の各要素は、その基盤となる科学と同様に、あまりにも複雑に絡み合っているため、長期的にはあらゆる技術的進歩の完全な排除に匹敵する措置でなければ抑制には至らない。
また、より日常的で差し迫った観点から見れば、有用な技術と有害な技術は至る所で非常に近接して存在するため、善悪を区別することは決して不可能である。これは、秘密の「機密(classified)」科学技術(軍事)と「公開(open)」された科学技術を苦労して分離しようとした者なら誰もが知っている事実だ。その成功は、せいぜい半世紀ほど持続する一時的なものに過ぎず、それ以上のものになることも、またそうなることを意図されたこともない。同様に、いかなる技術領域においても有用と有害の区分は、おそらく十年もすれば無に帰するだろう。[107]([8]も参照)
フォン・ノイマン(Van Neumann)は、たとえ可能であったとしても、特定の研究分野や技術を禁止することは意味をなさないとしている。ある技術(ヘッド・マウント・ディスプレイ(HMD)など)に強い軍事的適用がある場合、我々はそのような適用を一方的に禁止しようとするべきだろうか?これは比較的単純な事例であり、その適用は比較的容易に予測できた。次の事例で議論するように、技術の予期せぬ適用についてはどう対処すべきか?「デュアル・ユース」はHCIの適用を区別することを困難にする。したがって、軍事的適用は必然的にHCIの民生での適用と共存することを認めなければならない。
実際、グーグル社員が自社の軍事研究プロジェクト「プロジェクト・メイヴン」への関与に抗議した事例は、従業員が企業をこうしたプロジェクトから遠ざける影響力を行使できる模範的な例としてしばしば引用される[66]。しかし、マイクロソフトでの同様の抗議活動を振り返り、同社上級副社長のブラッド・スミス(Brad Smith)は、大半の技術企業が既に米軍や海外の軍事組織へソフトウェアを大量供給している現状を指摘した[92]。では米陸軍にMicrosoft Wordを販売すべきではないのか?軍用ドメインからのGoogle検索を禁止すべきなのか?
新たな戦争技術開発への関与に対する抗議や正当な懸念にもかかわらず、「軍産複合体(military-industrial complex)」の根深い本質ゆえに、軍によって何らかの形で採用・使用されない成功したソフトウェア・システムはほとんど存在しない。単に「ライオンと羊が隣り合わせ」というだけでなく、その羊(民間企業)は、無料学校給食の配給からジャベリン・ミサイルのターゲティングに至るまで、複雑なサプライ・チェーン網に組み込まれている。我々の研究が軍事に適用されること自体に反感を抱くとしても、この立場を論理的に突き詰めれば、実際には維持が困難な立場である。
4.2 事例2:メイカースペース
ヘッド・マウント・ディスプレイ(HMD)の開発史に関する背景知識を踏まえると、軍事用途はこの分野に携わる者には少なくとも広く知られている。それが提示するジレンマはある程度予測可能だ。開発の歴史から、ヘッド・マウント・ディスプレイ(HMD)の軍事分野における潜在的な適用は予測できる。しかし、おそらく予測が難しい「デュアル・ユース」技術も存在する。第二の事例として、メイカースペースの軍事利用を検証しよう。
メイカースペースは、個人が様々な物理的ツールとデジタル・ツールを利用できる共同作業場であり、分野を超えた実践的な創造と探求を促進する。これらの空間の到達目標は、支援的なコミュニティ環境の中で、個人がアイデアのプロトタイプを作成し、新たなスキルを学び、具体的な問題解決に取り組む力を育むことにある。メイカースペースのコンセプトは、1970年代のハッカー運動に遡ることができ、当時愛好家たちが集まって知識を共有し電子機器を改造していました[20]。しかし時を経て、これらの空間は「ものづくり」の社会的・協働的側面[64]、STEAM教育(科学・技術・工学・芸術・数学)における役割[101]、そして協働学習[94]への重点を次第に強めてきた。
メイカースペースはHCIで発明されたものではないが、HCIでは「所在するコミュニティのニーズに応える役割」「排除されたグループへの働きかけ」「研究機関や産業研究所と並行して機能する専門化分野としての役割」において採用されてきた。そこでは「自分自身でやる(DIY)」制作がHCIのイノベーションの場として台頭している。[101] メイカースペース運営における多様な手法と実践もHCI内で活発に議論されており、その目的を明確化するとともに、我々の到達目標達成に向けた様々な方法論の確立が試みられている。
ヘッド・マウント・ディスプレイ(HMD)の場合と同様、方法としてのメイカースペースの発展は、軍事プロジェクトと全く無関係というわけではない。初期のアマチュア無線コミュニティは、技術的スキルを持つ人材を容易に見つけられる場として、第二次世界大戦中に米軍の募集拠点となった[42]。ターナー(Turner)が詳しく述べているように、軍産複合体と「サイバーカルチャー」の発展の物語は深く絡み合っている[105]。
一部の研究者は、メイカースペースが軍事技術開発に起業家精神をより統合し得ることを主張し、「ものづくり」の実践が軍隊の様々なプロジェクトへのアプローチ手法に転用可能だと指摘している[9, 46, 110]。実際、メイカースペースの背景にある参加型アプローチ-技術に精通していない人々を技術生産に巻き込むこと-は、民間人を軍事装備の生産に参画させるという予想外の用途において、メイカースペースを効果的に機能させる。
ロシア・ウクライナ戦争の一環として、ウクライナ・メイカーズ協会はロシア侵攻に対する抵抗を支援する軍事技術開発のため、ウクライナ全土にメイカースペースの展開を先駆けて推進している[40]。紛争前の戦争に至る数年間、ウクライナではキーウ(Kyiv)、リヴィウ(Lviv)、ハルキウ(Kharkiv)などの都市でメイカースペースが増加し、技術とスタートアップのシーンが急成長していた(https://hacklab.kyiv.ua/en/)。これらのスペースは、創作者や発明家に資源と共同体の雰囲気を提供し、イノベーションと起業家精神(entrepreneurship)の文化を育んだ。紛争の勃発とともに、これらのメイカースペースは戦争の差し迫ったニーズに対応するために方向転換した。
これらのスペースの汎用性により、平時のプロジェクトから戦時下の必需品への迅速な転換が可能となった。メイカースペースはその後、3Dプリンターやレーザー・カッターを用いてフェイスシールド、マスク、その他の個人用防護具(PPE)を生産するなど、医療物資の不足解消に貢献した。これは、サプライ・チェーンが深刻な混乱に陥った戦争初期において極めて重要であった。さらに、従来の供給ラインが逼迫する中、メイカースペースは重要な戦術装備の製造を開始した。防弾チョッキの部品、携帯用電源ユニット、偵察任務用ドローンの部品などが生産された。
これらの装備品を現地で生産する能力は、供給のギャップを補っただけでなく、最前線部隊の即時的なニーズに基づいた迅速な試作と適応を可能にした。Make誌の2023年記事[106]は、対車両用スパイクの開発、手榴弾の尾部部品の3Dプリント、様々なドローンの開発、そして異なる戦術への適応に必要なドローン操縦士の訓練といった取組みを記録している:「現在ウクライナには約18のメイカースペースが存在し、その多くは戦争中に資金調達に苦労している。」
2022年11月、キーウ(Kyiv)のメイカースペースがロケット弾の直撃を受けた。早朝に爆発が発生し、3Dプリンターなどの設備は失われたが、負傷者は出なかった。多くのメイカーが軍に徴兵されたが、その大半は軍隊でもプロセス改善を続け、新技術の開発と改良を重ね、チーム内の信頼を築き、自らの任務に深い責任感を持って取り組んでいる。民間メイカーたちも、防衛に必要な装備の供給や機器の改造・修理を通じて支援を続けている。
確かにウクライナにとって、戦争初期には海外から調達するよりも、軍事装備の現地生産が重要であった。国内工場や、古い兵器を創意工夫で新たな兵器に改造する活動が、製造の焦点となった。メイカースペースはプロト工場としての役割を担い、標準的な軍事調達インフラの外で生産を促進できる場となった。メイカースペースで利用可能な知識とツールは、即席爆発装置(IED)の製作だけでなく、IED対策技術の開発も促進した。
この二重の機能は、攻撃的・防御的製造の両面において、これらの空間が持つ戦略的価値を実証した。メイカースペースは通信システムの開発・強化にも寄与した。これには分散した部隊と指揮センター(command centres)間の連携維持に不可欠な、安全な通信経路の構築、信号増幅装置、その他の装置の開発が含まれる。とはいえ、メイカースペースへの依存は、危機に対する国家・制度的対応の不十分さも浮き彫りにしている[50]。
メイカースペースと並行して、軍事行動のための資金調達手段としてクラウドファンディングが登場した。愛国者は紛争で使用されるロケットに自身の「名前」を刻むことを選択できる:
資金調達もより独創的(かつ陰惨な)形態を帯びている。SignMyRocket.comというウェブサイトでは、寄付者が自分の名前を砲弾に刻印し、それをロシア兵に向けて発射できる。わずか150ドルで、ウクライナが西側から供給を受けたM777榴弾砲から発射される標準的な155mm砲弾を購入できる。さらに2,000ドルを追加すれば、Mavic 3ドローンから投下される手榴弾に名前が刻まれる。
「ご署名いただいた[手榴弾]が必ず兵士に命中することを保証します」と寄付者は確約される。「兵士たちは動画で命中するまで再挑戦します」。最も多額の寄付者はT-72戦車の砲塔に名前を刻印できる。「署名入り戦車はあなたの文字を刻みながら侵略者と戦い続けます」とサイトは約束する。創設者らは現在、聴力を失いつつあるウクライナ砲兵隊員のための耳栓購入を、Amazonのウィッシュリストを通じて支援者に呼びかけている。[2]
こうした市民参加の試みは、一見したほど新しくはないかもしれない。米国戦時国債は、戦争遂行のための資源を集めると同時に、市民を直接戦争に巻き込むという初期の試みの一つであった。市民の用兵(warfighting)への関与は、第二次世界大戦における「総力戦(total war)」の多くの行動の中心であった。実際、市民が正当なターゲットとなったのはこの戦争においてであった。
総力戦(total war)とは、民間人を含む社会のあらゆる側面が戦争の取組みに向けて動員されることを意味した。この動員には兵器や物資の製造だけでなく、士気の維持や軍事インフラの支援も含まれた。その結果、工業地帯、交通の要所、通信網など戦争の取組みに貢献する民間地域は、正当な軍事的ターゲットと見なされた。
戦略爆撃は主要な戦術として台頭し、戦いにおける民間人の関与の本質を根本的に変えた。敵の工業生産能力を破壊し、民間人の士気をくじくことを狙いとした大規模な爆撃作戦が実施された。東京大空襲や広島・長崎への原爆投下はこの戦略の典型例であり、膨大な民間人犠牲者と破壊をもたらした。メイカースペースの活用や紛争へのクラウドファンディングの関与は、このように戦闘員と非戦闘員の役割境界を曖昧にしてきた歴史の流れに位置づけられる。
4.2.1 課題
先の事例でフォン・ノイマン(Von Neumann)は「軍事から完全に独立した科学」の可能性自体を疑問視したが、メイカースペースの事例は、そもそもそのようなものが望ましいのかどうかを問いかけるかもしれない。「正戦(just war)」の是非は議論の余地があるものの、ほとんどの哲学において、軍事行動への抵抗は、その戦争が均衡のとれた方法で遂行されている限り、正当化されうる。ウクライナ紛争が示すように、我々は平和的な主体のみで構成される世界には生きておらず、軍隊の役割は、その名称が示す通り、防衛にある。
ウクライナが自らを守る機会を否定すべきだろうか?あるいは我々の研究分野から得られた技術や手法を採用・展開する機会を?これは他国が防衛のため強力な軍隊を維持すべきか―つまりその軍隊を可能な限り強力にするため、可能な限り多くの技術や手法を展開・採用すべきかという問題へとつながる。HCIは西側の軍隊を可能な限り強力にする役割を果たすべきではないのか?何しろ、米戦略航空軍団のモットーは、皮肉を込めて「平和こそ我々の職業」である。
メイカースペースは民間レベルではある程度の成功を収めてきたものの、その真の適用分野は軍事的な性質を持つ可能性がある。デザイナーとして、我々がデザインしたものがユーザの体験(user’s experience)を決定づけるものではないことは承知している。しかし同時に、特定の技術に取り組む際、その技術が最終的にどのように採用され使用されるかを制御できないことも事実だ。これは特に、メイカースペースのような手法において顕著である。その開放的な本質ゆえに、当初想定した範囲を超えた事例にも適用可能となるからだ。
平和的な用途を想定して特定の技術に取り組むものの、結果として戦略兵器を完成させてしまう可能性はあるだろうか。これは「トロイの木馬(Trojan horse)」問題と捉えられるかもしれない。つまり、技術の開発段階で想定されていた用途とは異なる形で、その技術が実際に効果的に適用される事例である。航空学にはこうした事例が数多く存在する:レーダーは当初、視界不良時の船舶衝突防止を目的に開発された[49]が、主要用途の一つは敵機の探知・迎撃となった。暗号技術、デジタル写真技術、サイバーセキュリティ-これらは全て民生用途で開発された技術でありながら、軍事分野でも重要な用途を持つ[91]。
「トロイの木馬(Trojan horse)」のギリシャ神話のように、贈り物のように見えるものに全く異なる目的が潜んでいることがある。この場合、メイカースペースはイノベーションの民主化をめぐる数多くの利点をもたらし、社会における技術の役割に多くの有益な形で貢献しているように見える。しかし戦争時には、むしろ軍事生産を民間領域に持ち込み、総力戦(total war)の価値観と実践を促進する役割を果たす可能性もある。
4.3 事例3:人工知能とロボティクス
これで最後の、おそらく最も挑戦的な事例にたどり着きました。AIはHCI全体にわたり様々な興味深い課題を提示している。機械学習やその他の統計的手法によるシステム動作の能力が拡大するにつれ、HCIはAIと人間の相互作用をいかに検証・デザイン・批判するかを探求してきた。大規模言語モデルの活用、AIモデルの公平性、AIの適用方法、AIの倫理などである。したがってHCIは、世界におけるAIの役割を理解し、様々なAI適用を修正・管理する手法、タイミング、理由を解明する上で重要な役割を担っている。
軍事分野におけるAIの採用は、特定の「HCI問題」として浮上する-軍事的適用においてAIを倫理的にどう活用すべきか?意外にも、米軍はAIの倫理的適用における先駆者の一つとして台頭している。米国防総省はAI導入に際し、責任性、公平性、追跡可能性、信頼性、統治可能性という5つの「倫理原則」の採用を義務付けている[10]。少なくとも表向きはAIの倫理的導入が優先されているものの、実際の軍事的適用における倫理的事例は明確に記録されていない。
米国外では、より問題のある動きが見られる。イスラエルの2つの出版物が報じたところによると、イスラエル国防軍(IDF)はガザ地区での空爆のターゲットを特定するため、人間の監視を最小限に抑えたAI搭載システム[93]に大きく依存しているという。「ラベンダー(Lavender)」と名付けられたこのシステムは、大量の監視データを処理し、パレスチナ人をハマスまたはパレスチナ・イスラム聖戦の戦闘員候補としてマークしていた。さらに「Where’s Daddy?(パパはどこ?)」と名付けられた別の自動化システムが、ターゲットを自宅まで追跡し、爆撃対象としてマークするために使用されたとされている。
しかしこれに対し、イスラエル国防軍(IDF)は報告書を否定し、「IDFはテロリストを特定したり、人物がテロリストかどうかを予測しようとする人工知能システムを使用していない。インテリジェンス・システムはターゲットを特定するプロセスにおける分析官の単なるツールに過ぎない。…『システム』…はシステムではなく、単にインテリジェンス源を相互参照することを目的としたデータベースである」と記した。[68]
これらの課題は、用兵(warfighting)におけるロボットの普及拡大にも当てはまる。人間中心のAIと同様に、人間とロボットの相互作用(Human robot interaction:HRI)はHCIの活発なサブ分野として発展しており、様々な形でロボットとの潜在的な相互作用をデザインし理解する方法を探求している。HRIにおける核心的な課題はナビゲーションである[67]:ロボットが人間が存在する空間を移動する際、人間との衝突や危害を回避するにはどうすべきか。
これにより、ドローンのデザインに関する研究が進められている。ドローンは本質的に飛行ロボットであるためだ[17]。ドローンは消費者向け技術として発展し、主に動画撮影、ドローンレース、困難な環境の探索といった娯楽用途に利用されている。これがさらにHCI分野において、ドローンの様々な創造的適用-例えばソマエステティック技術※7[61]としての活用-を探求する契機となった。ドローンが身体と多様な方法で相互作用する可能性を模索するこれらの研究は、人間とロボットの相互作用に関する研究と結びついている。
※7 ソマエステティク(somaesthetic)とは、リチャード・シュスターマンによって提唱された、身体的経験の美学的な理解と活用を探求する学際的な分野のことで、「身体感性論」とも呼ばれる。
ドローンは、あらゆるロボットと同様に、限られたセンサーを用いて環境を検知・分割する能力が必要である。その後、その環境について基本的な推論を行い、安定かつ目的を持って環境内を移動する方法を計算できる必要がある。「ソーシャル・ドローン」の可能性は注目されているものの、騒音レベルなどの技術的制約により、その適用範囲はある程度制限されている[28]。
しかし、先述のメイカースペースの事例と同様に、ドローンには明らかに軍事目的での重要な適用がある。人を追跡・追尾できるロボットのような一見無害なデザインにも、明らかな軍事的適用が見て取れる。ドローンに関しては、インターフェース-すなわち効果的な制御能力-が最も困難なデザイン領域の一つであるかもしれない[16, 102]。ここでは、この分野における活発なHCI研究と、その軍事分野での実用化の両方を目の当たりにしている。
明らかに、ドローンはますます、おそらくは主に軍事技術となっている。米国はアフガニスタンとイラクへの軍事介入の一環として、遠隔監視や紛争関与者とされる者をターゲットとした殺害にドローンを広く活用してきた。このいわゆる「遠隔統制戦争(remote control war)」では、米国の統制センターが衛星を介して、操作者から遠く離れた地域で活動するドローンと連携し、現地工作員と技術の複雑な「キル・チェーン(kill chain)」に依存していた。
ドローン戦(drone warfare)は、地上部隊を投入しない用兵の形態(a form of warfighting)として、米国、ひいては西洋諸国が関与する紛争の象徴となっている。この形態により米軍の犠牲者は減少したものの、当該地域における民間人の恣意的な殺害の倫理性は議論の余地がある。例えば、当時の英国首相デヴィッド・キャメロン(David Cameron)は2007年、英国法が死刑を禁止しているにもかかわらず、ましてや裁判を経ない法外殺害を禁じているにもかかわらず[15, 75]、ドローン打撃を命じて英国人2名を殺害した。
ドローンは近年の欧州紛争において様々な形で採用されてきた。特にナゴルノ・カラバフ紛争が顕著である。アルメニアとアゼルバイジャンの間のナゴルノ・カラバフ戦争では、ドローンは通常の地上部隊と並んで「柔軟な殺戮兵器」としての実力を証明し、アナリストらはこれを「新たな、かつ全く異なる戦いの道具(a new and quite different tool of warfare)」として指摘した-遠隔操作の殺戮兵器というより、むしろ浮遊する地雷のような存在だと[110]。ウクライナ戦争では、ドローンは同様の役割を多様に発展させた。当初、ウクライナにおけるドローンは「遠隔操作戦争」の役割を担うように見えた。トルコがウクライナに供給したバイラクタルTB2ドローン[53]は比較的大きく高度なシステムであった。しかしその大きさや高価さゆえ、このドローンは近接戦闘の状況(close combat situations)では容易なターゲットとなった。
代わりに、ウクライナ紛争におけるドローン戦(drone warfare)は消耗の戦争(a war of attrition)へと変貌し、ドローンが国内全域で塹壕戦(trench warfare)に相当する戦闘を可能にしている。ドローンは観測・ターゲティング、いわゆる「浮遊兵器」として、また特定のターゲットへの自爆ドローンとして使用されている。戦争初年度には民生用ドローンが双方で採用・改造されたが、戦況が進むにつれ、電波・電磁攻撃への耐性が高いドローン(有線ドローンなど)が主流となりつつある[59]。
ロシア側でも軍事部隊はドローンを活用している。偵察任務にドローンを投入し、ウクライナ軍の陣地に関するインテリジェンス収集、戦場状況の評価、ウクライナ軍部隊の動きの監視を行っている。さらにロシア軍は精密誘導弾を搭載したドローンを用いて、ウクライナ軍の軍事インフラや要員をターゲットとした打撃を実施している。ロシア軍戦略へのドローン統合は、ウクライナ軍の作戦を妨害し、防衛能力を低下させ、地上攻勢を支援することを狙いとしている[24, 58]。最近の紛争分析によれば、ドローンの活用により戦車の優位性が低下し、戦いが第一次世界大戦的なある消耗の戦争のスタイル(one style war of attrition)へと逆戻りしていることが示唆されている[24]。
ドローンの生産は当初、双方において小規模な家内工業(cottage industry)として始まり、様々な用兵の用途(warfighting applications)に合わせたカスタムドローンの製造にメイカースペースの技術が適用された。しかし最近の動向で最も顕著なのは、単に双方がどれほど大量のドローンを投入しているかだ-ある推計によれば、月間1万機のドローンが双方で失われている。片道攻撃型ドローンの到達率はわずか20%で単価2万ドルだが、最大2000kmの射程でターゲットを攻撃可能だ。これにより戦闘は「撃破単位あたりのコスト」の問題へと変容した[59]。
実際、この紛争におけるドローンの大量配備は、主要なNATO加盟国のような巨額の資金を投入する軍隊でさえ、「殺傷コスト(cost per kill)」に関する多くの問題を提起している。1000ドルのドローンが50万ドルの誘導ミサイルに撃墜された場合、どちらが実質的な勝者かは明らかではない。欧州米空軍司令官のジェームズ・ヘッカー将軍は最近、ドローンが様々な軍事システムに関するコスト予測を覆したと述べた[44]。例えばウクライナの「ズヴォーク(Zvook)」システムは、国内に分散配置された8,000個のマイクロフォンのネットワークを活用し、接近するドローンの騒音を検知する。米国基準では極めて低コストでありながら、非常に効果的なドローン探知システムを構築した[44]。
ドローンの最大の弱点は、依存している無線通信システムである。位置特定にはGPSが不可欠であり、多くのドローンは遠隔操縦される。これにより自律性という軍事的論理が徐々に浸透している―最大の弱点が論理と意思決定における他者依存であるならば、自ら判断できるドローンの方が堅牢だということだ。しかし、いわゆる「キル・ボット(kill-bots)」の開発は多くの研究者にとって長年の懸念事項である。コンピュータ・ビジョンなどのAIシステムがドローン・ハードウェアと統合され、自律的な殺戮システムを生み出す可能性があるからだ。
こうしたドローンの配備に伴う倫理的問題は広範に及ぶ。しかし実用面でも、こうしたシステムが容易に誤作動を起こし、民間人や非戦闘員、さらには味方すら殺害する可能性は容易に想像できる。これは自律型AIシステムと「アライメント問題(alignment issues)」※8に関するより広範な懸念につながり、システムが自律的に敵を決定し、自ら選んだ敵に対して殺傷兵器を配備するシナリオが想定される[24]。
※8 アライメント問題(alignment issues)とは、AIの目標や価値観が人間の目標や倫理観と一致しない場合に、AIが予期しない、あるいは人間にとって有害な行動をとる可能性があるという課題
自律性に関する議論は重要だが、時間と空間に制約された基本的な自律性は、用兵の観点では(in terms of warfighting)特に新しいものではない。ミサイルはターゲットへ向けて進路を選択し続け、場合によっては自ら異なるターゲットを選定することさえある。低技術な「自律型殺戮ロボット(autonomous kill-bot)」の一例が地雷であり、これは感知されると爆発するように設定されている。地雷の恣意的な本質は実に恐ろしく、国連のオタワ条約(地雷禁止条約)が採択され、世界164カ国が署名した。しかし注目すべきは、ロシアが署名せずウクライナで地雷を配備し続けているだけでなく、ウクライナ自身も継続中の紛争において条約参加を一部停止し、現在では主要な地雷の主要な使用国となっている点である[6]。
4.3.1 課題
自律型ドローンと戦いの倫理を巡っては、広範な議論が交わされてきた。ピーター・アサロ(Peter Asaro)[3]は、こうしたシステムが人権に及ぼす脅威、軍人の非人間化、そして人間が自動化システムに依存する傾向を指摘し、全ての致死性自律システムの禁止を主張している。ロフ(Roff)は致命的な技術(fatal technologies)がもたらす道徳的課題[82, 83]、戦闘員の道徳的平等性の認識の重要性、被害最小化の義務について広く論じており、これらは理解力や洗練度が極めて限定的な自律戦闘システムの構築と両立させるのが困難な考慮事項である。
HCI分野で広く知られるルーシー・サックマン(Lucy Suchman)は、軍事システム、特にドローンや自律システムに関する批判を数多く執筆している[98, 99, 100]。サックマン(Suchman)は、こうしたシステムが責任の欠如を助長すること、さらに領土や推定無罪に対するあらゆる敬意を損なうことを批判している。ドローンの使用は、特に超法規的暗殺作戦(operations of extrajudicial assassination.)を支援する航空監視の拡大を伴うため、その正確性が正当化の根拠として用いられている。
サックマン(Suchman)は、追跡、そしてその後のターゲティングの役割を、一見平凡な位置情報技術の中核的部分として記述している。フォリス(Follis)(2017, 1012)を引用すると:「軍事分野において、[.]視覚の目的は常に作戦的である。単に視認したり記録したりするためではなく、視認した対象を追跡しターゲットとするためである。」 [100]。ロボット工学の分野内でも、様々なロボット・システムの倫理(特に軍事ロボット[63, p.111-344])や、倫理そのものが意思決定システム(自動運転車[76]など)やより広義の機械倫理[103]の一部となる可能性について、活発な議論が続いている。
自律性とロボット工学の研究が、汎用人工知能の可能性すら考慮せずに、軍事能力の飛躍的向上をもたらすとしたら、我々はどう言うべきだろうか。これは人間とロボットの相互作用研究のあり方について、いくつかの困難な問いを突きつける。この場合、我々の目標は善意に基づく-人間と広く相互作用し共存できるロボットである。しかしその目標は、自律型殺人ロボットの開発を「偶然にも(accidentally)」支援することにもなりかねない。
同様の枠組みを採用すれば、これを原子爆弾の開発と対比させることができる。我々は現在の紛争において意味を持つ技術をデザインするが、後に実は世界を形作る性質を持つシステムを完成させていたことに気づくのだ。それは単にライオンと子羊が隣り合わせにいるというだけでなく、子羊など存在せず、我々は最初からライオンのために働いてきたということである。
5. 議論
これら三つの異なる事例は、いずれも軍隊とHCIの相互作用について考える上で異なる課題を指摘している。
最初の事例では、フォン・ノイマン(Von Neumann)の「ライオンと子羊(the lion and the lamb)」問題を指摘した。すなわち、我々が開発する技術や手法の適用についてどのような感情を抱こうとも、それが何に用いられるかを予測したり制御したりすることは時にほぼ不可能である。これは、2番目の事例であるメイカースペースにも当てはまり、それらが用兵(warfighting)における民間人の取組みを組織化する手段として利用され得ることを示している。
これを「トロイの木馬(Trojan horse)」問題として紹介した。つまり、技術が実際に効果的に適用される場面は、開発時に意図されたものとは異なる場合があり、当初は贈り物のように見えるものが全く異なる目的を秘めている可能性がある。最後に、軍事分野におけるAIの複雑な適用について考察し、特にドローンやロボットといった新型兵器の近年の発展について議論した。
議論においては、軍事的なHCIの可能性を明らかにするとともに、反戦的なHCIを探求し、最後にHCIが我々の「悪い」世界の本質について慎重に考える必要性を考察したい。
5.1 (反)軍事的なHCIの可能性
本稿では、軍事 HCI の倫理的課題と、比較的適用的な分野が軍隊と関わる場合やその関わり方に関して倫理について考える必要がある方法を慎重に前面に押し出してきた。
もちろん、軍事分野におけるHCIの直接的な適用は数多くある。部隊や兵士などの支援技術から、意思決定や意思決定支援、そして関係者全員のための可視化や概要把握まで、多岐にわたる。我々は、倫理がこれらの中心に据えられており、我々は何のために、誰のためにデザインしているのかを深く考える必要があると考えている。
エンド・ユーザは戦闘地域にいる兵士や指揮官だとすぐに思いがちだが、現実はもっと複雑である。軍事HCIインターフェースは、最前線の兵士から遠隔地で活動するインテリジェンス分析官、そしてターゲットとなり被害を受ける人々まで、幅広い関係者に対応する必要がある。これらのグループはそれぞれ異なるニーズ、システムとの相互作用のレベル、そして倫理的な利害関係を持っている。また、軍事行動に関わる複雑な行為主体性も認識する必要がある。つまり、兵器を所持する人だけでなく、ターゲットとなる人々、つまり兵器を所持する人だけでなく、潜在的な犠牲者(victims)についても考慮する必要がある。
軍事HCIは、従来のユーザ中心デザインを再考する必要がある。なぜなら、特定のユーザの能力を向上させるだけでなく、我々が生み出す技術のより広範な影響と、それが社会、政治、倫理の領域全体に及ぼす波及効果を検証する必要があるからだ。最近の事例研究や、より広範な責任ある技術に関する研究は、この点において役立つ[80]。
では、我々は一体何をデザインしているのか、と自問する必要がある。インターフェースとデザインは特定の兵器にとどまらない。軍事は、兵站、通信、サイバー防衛、監視、インテリジェンス収集、そして人道支援にまで及ぶ。これらのシステムはそれぞれ、独自の倫理的ジレンマとデザイン上の課題を抱えている。例えば、ドローンのインターフェースは、空爆を行うためのツールであるだけでなく、監視、偵察、そして人命救助につながる可能性のある捜索救助活動のためのシステムでもある。
これらのシステムのデザインは、情報処理の速度から意思決定の方法、そしてシステムと人間のオペレーターにどの程度の自律性を与えるかまで、あらゆることに影響を及ぼす可能性がある。これは、実際の事例をどのように考えるかに関わってくる。戦争を行うこと(to wage war)を容易にするシステムをデザインしているのか、それとも説明責任、透明性、そして自制を促進するシステムをデザインしているのか?より効率的な戦いのツール(more efficient tools of warfare)の開発を通じて紛争の激化を助長しているのか、それとも緊張を緩和し人道的成果を優先するシステムをデザインしているのか?
このように、軍事HCIの可能性は、デザインによって実現される成果だけでなく、デザインする相互作用の種類にも大きく左右される。これらの疑問に関連して、コンピュータ・サイエンス研究自体が依存している資金調達の仕組みという、より広範な論点が浮かび上がるが、これは今後の論文で議論するべきだろう。
5.2 反戦のためのアイデア
これを踏まえ、戦争に対抗する可能性を探るHCIの可能性もあると我々は主張する。これは、紛争と戦争を理解し、研究し、紛争に対抗する方法を開発・デザインする方法を探るHCIである。これは、[48]([95]も参照)のような、紛争の前兆に対処する上で技術がどのように関与するかを探る議論を基盤としている。しかし、何をするにしても、我々は、想像上の純粋に慈悲深い世界ではなく、我々が直面する実際の政治状況の中で、これを位置づける必要がある。
HCIは、複雑な地政学的・社会的ダイナミクスを視覚化し、解釈する手段を提供し、関係者が様々なシナリオを検討し、交渉し、解決策を共同で検討するためのインタラクティブなプラットフォームを提供する。これには、特定の軍事行動の長期的な影響を明らかにするのに役立つシミュレーションや、対話と視点の共有のための中立的な場を提供することで紛争当事者間のコミュニケーションを促進するインターフェースなどが含まれる。これらのツールにより、関係者は紛争のニュアンスをより深く理解し、エスカレーションではなく解決の機会を見出すことができるようになる。
HCIの関連する反戦的適用としては、防衛と非致死性を優先する技術のデザインに焦点を当てることができる。これには、民間人と軍人の両方に対する防護手段を強化するシステムが含まれる。非致死性を重視するデザインは、危害を与えることなく脅威を無力化または無効化する技術開発の可能性も開く。同様に重要なのは、HCIによって開発された様々な価値観に基づくデザイン原則を、戦時における人権、尊厳、そして被害の最小化をどのように優先するかを探るために活用できることである。
これには、デザインプロセスの初期段階から倫理的配慮を組み込み、国際人道法の遵守と戦争による人的被害の軽減を意図した技術開発を確実に行う必要がある。共感、透明性、説明責任といった価値観を重視することで、HCIは紛争に対するより人道的なアプローチ、すなわち緊張緩和、民間人の保護、そして暴力の範囲と影響の抑制に貢献する可能性がある。
5.3 悪い/現実的政治HCIのためのHCI
しかし、そうする前に、平和のためのHCIではなく、戦争のためのHCIへと我々を大きく駆り立てるような圧力(政府の資金提供など)を検証する必要もある。これは研究者にとって自由で恣意的な決定ではない。上記の適用例が示すように、残念ながら世界は極めて暗く、悲観的な場所になり得る。多くの場合、我々は皆で共に、一方の損失が他方の利益となるような状況には陥っていない。我々は、一致と相互利益を見つけ、「危害軽減(harm reduction)」について考える努力をすることができるし、そうすべきである。しかし、我々が住む世界の本質を認識し、その「現実世界」で研究を行う必要もある。
このことから得られる教訓は、(近年のHCI研究[69, 97, 104]に倣い)技術の悪用をより真剣に受け止める必要があるということである。本論文の執筆時点で目指していたのは、「悪」を積極的に支援するHCIではなく、HCIが悪用されることを現実的に認識したHCIである。そして、我々はデザインだけでなく、より広い意味での行動においても、少なくとも時には利己的であり、技術をそのような狙いのために利用してしまうことを理解する必要がある。
これは、困難な世界においても学術的なデザインと研究が必要であるという洞察に基づいて構築しようとする、現実的政治(realpolitik)HCI [62] と考えられるかもしれない [97]。これは、「善のためのHCI(HCI for good)」よりも批判的な視点を発展させる可能性を秘めている。それは、我々が住む世界の複雑な現実を基盤として、HCIがさまざまな目的、さらには悪意のある目的で使用されることを受け入れようとする視点であり、この複雑な現実的政治(realpolitik)を理解し、場合によってはそれに合わせてデザインするという、ある種の責任を我々に課す。ここでの貢献の一つは、上で引用した責任ある技術に関する議論や、セキュリティとデザインに関する議論に参加することである。
6. 結論
本稿は、これまでほとんど見過ごされてきたものの、グローバルな紛争の再燃によってますます関連性が高まっている、デザインと軍事的適用の接点に関する本質的な会話を始めることを狙いとしている。倫理的な課題の探求を通じて、技術的イノベーション、デザイン、軍事利用の間の複雑なもつれを明らかにし、一見良さそうに見える研究が、軍事的な文脈の中でいかに意図しない結果[25]をもたらしうるかを示した。
「ライオンと子羊(the lion and the lamb)」、「トロイの木馬(Trojan horse)」、「殺人ロボット(killer robots)」という3つの課題は、倫理についての思考を喚起し、「すべての軍隊は悪い(all military bad)」とか「適用を無視する(ignore the applications)」といった立場に安住することを止めさせようとするものである。それはまた、倫理をめぐる新たな研究[13]を誘発する試みでもあり、倫理は単純明快な決定と適用の領域であると同時に、議論と探求の領域でもある。このような精神から、本稿は特定の立場を主張するものではなく、むしろ、我々の分野で開発された技術が二重の、そしてしばしば矛盾した目的を果たす可能性があるという現実に直面したときのHCI研究者の責任について、議論と考察を促すことを試みている。
我々は、このような状況の中で我々が果たす役割を再考し、この分野に内在する倫理的ジレンマのいくつかに対処できるような、「危害軽減(harm reduction)」や「現実的政治(realpolitik)HCI」といった代替的な道を探る必要がある。これらのトピックは困難であり、分野としてのコンセンサスを欠くかもしれないが、異なる立場や議論を誠実に理解することは、新たな、潜在的に有益な理解を発展させる助けになると信じている。
謝辞
ストックホルムのSTIRグループ、コペンハーゲンのHCC、ペドロ・フェレイラ(Pedro Ferreira)、ウェンディ・ジュ(Wendy Ju)、ニコラス・マルテラーロ(Wendy Ju)に、以前の草案について有益なコメントをくださったことに感謝したい。
参照文献
[1] Nick Adde. 2019. New Wave of Night Vision Tech to Boost Soldier Lethality. National Defense 103, 782 (2019), 32–33. https://www.jstor.org/stable/27022442 Publisher: JSTOR.
[2] Anonymous. 2022. How crowdfunding is shaping the war in Ukraine. The Economist (2022). https://www.economist.com/the-economist-explains/2022/07/27/how-crowdfunding-is-shaping-the-war-in-ukraine
[3] Peter Asaro. 2012. On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making. International review of the Red Cross 94, 886 (2012), 687–709. https://www.cambridge.org/core/journals/international-review-of-the-red-cross/article/on-banning-autonomous-weapon-systems-human-rights-automation-and-the-dehumanization-of-lethal-decisionmaking/992565190BF2912AFC5AC0657AFECF07 Publisher: Cambridge University Press.
[4] Shaowen Bardzell. 2010. Feminist HCI: taking stock and outlining an agenda for design. In Proceedings of the SIGCHI conference on human factors in computing systems. 1301–1310.
[5] Oliver Bates, Vanessa Thomas, and Christian Remy. 2017. Doing good in hci: Can we broaden our agenda? interactions 24, 5 (2017), 80–82. Publisher: ACM New York, NY, USA.
[6] Jasper Baur. 2024. Ukraine is Riddled with Land Mines: Drones and AI Can Help. IEEE Spectrum 61, 5 (May 2024), 42–49. Conference Name: IEEE Spectrum.
[7] Medea Benjamin. 2013. Drone Warfare: Killing by Remote Control. Verso Books. Google-Books-ID: BpgOezulpoMC.
[8] Ananyo Bhattacharya. 2021. The man from the future: The visionary life of John von Neumann. Penguin UK.
[9] Leo Blanken, Romulo G. Dimayuga II, and Kristen Tsolis. 2021. Making Friends in Maker-Spaces: From Grassroots Innovation to Great-Power Competition. (2021). https://digital.lib.ueh.edu.vn/bitstream/UEH/69582/1/3.pdf
[10] Defense Innovation Board. 2019. AI principles: recommendations on the ethical use of artificial intelligence by the department of defense: supporting document. United States Department of Defense (2019). https://media.defense.gov/2019/Oct/31/2002204459/-1/-1/0/DIB_AI_principles%20Supporting%20Document.pdf
[11] Alan Borning, Batya Friedman, Jofish Kaye, Cliff Lampe, and Volker Wulf. 2020. SurveillanceCapitalism@CHI: Civil Conversation around a Difficult Topic. In Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems. ACM, Honolulu HI USA, 1–6.
[12] Hal Brands. 2018. American grand strategy in the age of Trump. Brookings Institution Press.
[13] Barry Brown, Alexandra Weilenmann, Donald McMillan, and Airi Lampinen. 2016. Five provocations for ethical HCI research. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. ACM, 852–863.
[14] Barry Buzan. 2008. People, states & fear: an agenda for international security studies in the post-cold war era. ECPR press. https://scholar.google.com/scholar?cluster=6510506540419010786&hl=en&oi=scholarr
[15] Laurie Calhoun. 2017. Death from above: The perils of lethal drone strikes. Bulletin of the Atomic Scientists 73, 2 (March 2017), 138–142. Publisher: Routledge _eprint: https://doi.org/10.1080/00963402.2017.1288459.
[16] Jessica R. Cauchard, Jane L. E, Kevin Y. Zhai, and James A. Landay. 2015. Drone & me: an exploration into natural human-drone interaction. In Proceedings of the 2015 ACM International Joint Conference on Pervasive and Ubiquitous Computing. ACM, Osaka Japan, 361–365.
[17] Jessica R. Cauchard, Mohamed Khamis, Jérémie Garcia, Matjaž Kljun, and Anke M. Brock. 2021. Toward a roadmap for human-drone interaction. Interactions 28, 2 (March 2021), 76–81.
[18] Rajiv Chandrasekaran. 2010. Imperial life in the emerald city: Inside Iraq’s green zone. Vintage.
[19] Mark Coeckelbergh. 2022. Robot Ethics. MIT Press. Google-Books-ID: nUpTEAAAQBAJ.
[20] E. Gabriella Coleman. 2013. Coding Freedom: The Ethics and Aesthetics of Hacking. Princeton University Press.
[21] Malcolm James Cook, Helen SE Thompson, Corinne SG Adams, Carol S. Angus, Gwen Hughes, and Derek Carson. 2005. Human Factors and Situational Awareness Issues in Fratricidal Air-to-Ground Attacks. In Human Performance, Situation Awareness, and Automation. Psychology Press, 166–171. https://www.taylorfrancis.com/chapters/edit/10.4324/9781410610997-29/interpolation-method-rating-severity-runway-incursions-thomas-sheridan-dot-volpe-national-transportation-systems-center-cambridge-ma
[22] Shawn Davies, Garoun Engström, Therése Pettersson, and Magnus Öberg. 2024. Organized violence 1989–2023, and the prevalence of organized crime groups. Journal of Peace Research 61, 4 (July 2024), 673–693.
[23] Débora De Castro Leal, Max Krüger, Kaoru Misaki, David Randall, and Volker Wulf. 2019. Guerilla Warfare and the Use of New (and Some Old) Technology: Lessons from FARC’s Armed Struggle in Colombia. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. ACM, Glasgow Scotland Uk, 1–12.
[24] Marc R. DeVore. 2023. “No end of a lesson:” observations from the first high-intensity drone war. Defense & Security Analysis 39, 2 (April 2023), 263–266. Publisher: Routledge _eprint: https://doi.org/10.1080/14751798.2023.2178571.
[25] Kimberly Do, Rock Yuren Pang, Jiachen Jiang, and Katharina Reinecke. 2023. “That’s important, but…”: How Computer Science Researchers Anticipate Unintended Consequences of Their Research Innovations. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems(CHI ’23). Association for Computing Machinery, New York, NY, USA, 1–16.
[26] Bryan Dosono, Yasmeen Rashidi, Taslima Akter, Bryan Semaan, and Apu Kapadia. 2017. Challenges in Transitioning from Civil to Military Culture: Hyper-Selective Disclosure through ICTs. Proceedings of the ACM on Human-Computer Interaction 1, CSCW (Dec. 2017), 1–23.
[27] Paul N. Edwards. 1997. The Closed World: Computers and the Politics of Discourse in Cold War America. MIT Press, Boston, MA.
[28] Sara Eriksson, Kristina Höök, Richard Shusterman, Dag Svanes, Carl Unander-Scharin, and Åsa Unander-Scharin. 2020. Ethics in Movement: Shaping and Being Shaped in Human-Drone Interaction. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. ACM, Honolulu HI USA, 1–14.
[29] Henry Etzkowitz and Chunyan Zhou. 2017. The triple helix: University–industry–government innovation and entrepreneurship. Routledge.
[30] Nicholas G Evans. 2013. Dual-use governance in an age of innovation. BioSocieties 8, 1 (March 2013), 96–100.
[31] Steven Feiner, Blair Macintyre, and Dorée Seligmann. 1993. Knowledge-based augmented reality. Commun. ACM 36, 7 (July 1993), 53–62.
[32] Bob Foote and James Melzer. 2015. A history of helmet mounted displays. In Display Technologies and Applications for Defense, Security, and Avionics IX; and Head-and Helmet-Mounted Displays XX, Vol. 9470. SPIE, 155–165. https://www.spiedigitallibrary.org/conference-proceedings-of-spie/9470/94700T/A-history-of-helmet-mounted-displays/10.1117/12.2181337.short
[33] Christopher Frauenberger. 2019. Entanglement HCI The Next Wave? ACM Trans. Comput.-Hum. Interact. 27, 1 (Nov. 2019), 2:1–2:27.
[34] Batya Friedman, Lisa P. Nathan, Milli Lake, Nell Carden Grey, Trond T. Nilsen, Robert F. Utter, Elizabeth J. Utter, Mark Ring, and Zoe Kahn. 2010. Multi-lifespan information system design in post-conflict societies: an evolving project in Rwanda. In CHI ’10 Extended Abstracts on Human Factors in Computing Systems. ACM, Atlanta Georgia USA, 2833–2842.
[35] Tom Furness. 2014. Keynote Address: Seeing Anew: Paradigm shifting across the virtuality continuum. In 2014 IEEE International Symposium on Mixed and Augmented Reality (ISMAR). IEEE, xxii–xxii. https://ieeexplore.ieee.org/abstract/document/6948400/
[36] Bernard Gert and Bernard Gert. 1998. Morality: its nature and justification (rev. ed. ed.). Oxford University Press, New York.
[37] Stephen Graham. 2011. Cities under siege: The new military urbanism. Verso Books. https://books.google.com/books?hl=en&lr=&id=E1Hp_dpHBAAC&oi=fnd&pg=PP2&dq=info:y4gwubN-fowJ:scholar.google.com&ots=2OwTYKdSfd&sig=eDJwTcbGQVsgZ3MSBsgzlmYMjM8
[38] Colin M. Gray, Yubo Kou, Bryan Battles, Joseph Hoggatt, and Austin L. Toombs. 2018. The Dark (Patterns) Side of UX Design. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, Montreal QC Canada, 1–14.
[39] Hugh Gusterson and Catherine Besteman. 2019. Cultures of Militarism: An Introduction to Supplement 19. Current Anthropology 60, S19 (Feb. 2019), S3–S14.
[40] Brad Halsey. 2023. What America Can Learn From The Defenders Of Ukraine. https://makezine.com/article/maker-news/what-america-can-learn-from-the-defenders-of-ukraine/
[41] Aimi Hamraie. 2017. Building access: Universal design and the politics of disability. U of Minnesota Press.
[42] Kristen Haring. 2007. Ham radio’s technical culture. Mit Press.
[43] Daniel Harley. 2024. “This would be sweet in VR”: On the discursive newness of virtual reality. New Media & Society 26, 4 (April 2024), 2151–2167.
[44] JAMES B. HECKER. 2024. AIR SUPERIORITY: A Renewed Vision. Æther: A Journal of Strategic Airpower & Spacepower 3, 2 (2024). https://search.ebscohost.com/login.aspx?direct=true&profile=ehost&scope=site&authtype=crawler&jrnl=27716120&AN=178576629&h=yysl03BNnHfoyMB%2FbzNS6mpyP350cZBTO%2BDcsm4Origeqa8YkTX00YIojAFl6Mtk5NtkGazz2PF4EIAP6V7Fww%3D%3D&crl=c
[45] Kenneth Einar Himma and Herman T. Tavani (Eds.). 2008. The Handbook of Information and Computer Ethics (1 ed.). Wiley.
[46] Shane D. Hirschi, Dawn A. Morrison, Megan A. Kreiger, Mariangelica Carrasquillo-Mangual, Brandy N. Diggs-McGee, Jonathan M. Goebel, and Bjorn K. Oberg. 2020. Army installation makerspaces in the Morale, Welfare, and Recreation (MWR) operational environment: a business case analysis. (2020). https://apps.dtic.mil/sti/citations/AD1104637 Publisher: Construction Engineering Research Laboratory (US).
[47] Juan Pablo Hourcade and Natasha E. Bullock-Rest. 2011. HCI for peace: a call for constructive action. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM, Vancouver BC Canada, 443–452.
[48] Juan Pablo Hourcade and Lisa P. Nathan. 2013. Human Computation and Conflict. In Handbook of Human Computation, Pietro Michelucci (Ed.). Springer, New York, NY, 993–1009.
[49] Thomas P. Hughes. 2004. American genesis: a century of invention and technological enthusiasm, 1870-1970. University of Chicago Press.
[50] Oleksii Izvalov. 2023. Game Jam During Military Invasion: Difficulty Level We Did Not Ask For. In Proceedings of the 7th International Conference on Game Jams, Hackathons and Game Creation Events(ICGJ ’23). Association for Computing Machinery, New York, NY, USA, 42–45.
[51] Sheila Jasanoff, J Benjamin Hurlbut, and Krishanu Saha. 2015. CRISPR democracy: Gene editing and the need for inclusive deliberation. Issues in Science and Technology 32, 1 (2015), 25–32. Publisher: University of Texas at Dallas.
[52] James Johnson. 2022. The AI Commander Problem: Ethical, Political, and Psychological Dilemmas of Human-Machine Interactions in AI-enabled Warfare. Journal of Military Ethics 21, 3-4 (Oct. 2022), 246–271.
[53] Zachary Kallenborn. 2022. Seven (initial) drone warfare lessons from Ukraine. Modern War Institute at West Point, le 5 (2022). https://cove.army.gov.au/sites/default/files/2024-03/2205_Drone%20warfare_A%20collection%20of%20articles_May-Jun2022.pdf
[54] John Keegan. 1983. The face of battle: A study of Agincourt, Waterloo, and the Somme. Penguin.
[55] Jack L. Kimberly Jr. 1990. We owned the night. Journal of Electronic Defense 13, 10 (1990), 33–37. https://go.gale.com/ps/i.do?id=GALE%7CA9020718&sid=googleScholar&v=2.1&it=r&linkaccess=abs&issn=0192429X&p=AONE&sw=w Publisher: Horizon House Publications, Inc.
[56] Benjamin A Knott, Vincent F Mancuso, Kevin Bennett, Victor Finomore, Michael McNeese, Jennifer A. McKneely, and Maria Beecher. 2013. Human Factors in Cyber Warfare: Alternative Perspectives. Proceedings of the Human Factors and Ergonomics Society Annual Meeting 57, 1 (Sept. 2013), 399–403. Publisher: SAGE Publications Inc.
[57] Frida Kuhlau, Anna T Höglund, Stefan Eriksson, and Kathinka Evers. 2013. The ethics of disseminating dual-use knowledge. Research Ethics 9, 1 (March 2013), 6–19.
[58] Dominika Kunertova. 2023. Drones have boots: Learning from Russia’s war in Ukraine. Contemporary Security Policy 44, 4 (Oct. 2023), 576–591. Publisher: Routledge _eprint: https://doi.org/10.1080/13523260.2023.2262792.
[59] Dominika Kunertova. 2023. The war in Ukraine shows the game-changing effect of drones depends on the game. Bulletin of the Atomic Scientists 79, 2 (March 2023), 95–102.
[60] Kari Kuutti and Liam J. Bannon. 2014. The turn to practice in HCI: towards a research agenda. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM, Toronto Ontario Canada, 3543–3552.
[61] Joseph La Delfa, Mehmet Aydin Baytas, Rakesh Patibanda, Hazel Ngari, Rohit Ashok Khot, and Florian ’Floyd’ Mueller. 2020. Drone Chi: Somaesthetic Human-Drone Interaction. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. ACM, Honolulu HI USA, 1–13.
[62] Bruno Latour. 2005. From realpolitik to dingpolitik. Atmospheres of democracy1444 (2005).
[63] Patrick Lin, Keith Abney, and George A. Bekey. 2014. Robot Ethics: The Ethical and Social Implications of Robotics. MIT Press. Google-Books-ID: mL34DwAAQBAJ.
[64] Silvia Lindtner, Garnet D. Hertz, and Paul Dourish. 2014. Emerging Sites of HCI Innovation: Hackerspaces, Hardware Startups & Incubators. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems(CHI ’14). Association for Computing Machinery, New York, NY, USA, 439–448. event-place: Toronto, Ontario, Canada.
[65] James Haoge-Ma Lu, Canela Corrales, and Bryan Semaan. 2019. Designing for separation: Participatory design with military veterans. iConference 2019 Proceedings (2019). https://www.ideals.illinois.edu/items/110374 Publisher: iSchools.
[66] Irja Malmio. 2023. Ethics as an enabler and a constraint–Narratives on technology development and artificial intelligence in military affairs through the case of Project Maven. Technology in Society 72 (2023), 102193. https://www.sciencedirect.com/science/article/pii/S0160791X22003347 Publisher: Elsevier.
[67] Christoforos Mavrogiannis, Francesca Baldini, Allan Wang, Dapeng Zhao, Pete Trautman, Aaron Steinfeld, and Jean Oh. 2023. Core Challenges of Social Robot Navigation: A Survey. ACM Transactions on Human-Robot Interaction 12, 3 (Sept. 2023), 1–39.
[68] Bethan McKernan and Harry Davies. 2024. ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets. The Guardian (April 2024). https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes
[69] Donald McMillan and Barry Brown. 2019. Against ethical AI: Guidelines and self interest. In Halfway to the future symposium, nottingham, united kingdom, november 19-20, 2019. tex.organization: Association for Computing Machinery (ACM).
[70] Seumas Miller and Michael J. Selgelid. 2007. Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences. Science and Engineering Ethics 13, 4 (Dec. 2007), 523–580.
[71] Jeff Nesbit. 2017. Google’s true origin partly lies in CIA and NSA research grants for mass surveillance. Quartz (blog), December 8 (2017). https://topinfo.us/albums/userpics/10001/33/Google___s_true_origin_partly_lies_in_CIA_and_NSA_research_grants_for_mass_surveillance.pdf
[72] Brian Orend. 2000. War and international justice: a Kantian perspective. Wilfrid Laurier Univ. Press.
[73] Antti Oulasvirta and Kasper Hornbæk. 2016. HCI research as problem-solving. In Proceedings of the 2016 CHI conference on human factors in computing systems. 4956–4967.
[74] Richard Owen, Jack Stilgoe, Phil Macnaghten, Mike Gorman, Erik Fisher, and Dave Guston. 2013. A Framework for Responsible Innovation. In Responsible Innovation (1 ed.), Richard Owen, John Bessant, and Maggy Heintz (Eds.). Wiley, 27–50.
[75] Lisa Parks and Caren Kaplan (Eds.). 2017. Life in the Age of Drone Warfare. Duke University Press Books, Durham (N.C.).
[76] Franziska Poszler, Maximilian Geisslinger, Johannes Betz, and Christoph Lütge. 2023. Applying ethical theories to the decision-making of self-driving vehicles: A systematic review and integration of the literature. Technology in Society 75 (Nov. 2023), 102350.
[77] Richard J. Regan. 2013. Just War. CUA Press.
[78] LtCol Marcus Reynolds. 2021. The Future Warrior Has Arrived. Marine Corps Gazette (2021). https://www.mca-marines.org/wp-content/uploads/The-Future-Warrior-Has-Arrived.pdf
[79] Arie Rip, Thomas J. Misa, and J. W. Schot (Eds.). 1995. Managing technology in society: the approach of constructive technology assessment (1. publ ed.). Pinter Publishers, London New York.
[80] Tara Roberson, Stephen Bornstein, Rain Liivoja, Simon Ng, Jason Scholz, and Kate Devitt. 2022. A method for ethical AI in defence: A case study on developing trustworthy autonomous systems. Journal of Responsible Technology 11 (Oct. 2022), 100036.
[81] Erica Robles and Mikael Wiberg. 2010. Texturing the “material turn” in interaction design. In Proceedings of the fourth international conference on Tangible, embedded, and embodied interaction(TEI ’10). Association for Computing Machinery, New York, NY, USA, 137–144.
[82] Heather M. Roff. 2014. The Strategic Robot Problem: Lethal Autonomous Weapons in War. Journal of Military Ethics 13, 3 (July 2014), 211–227.
[83] Heather M. Roff and Richard Moyes. 2016. Meaningful human control, artificial intelligence and autonomous weapons. In Briefing Paper Prepared for the Informal Meeting of Experts on Lethal Autonomous Weapons Systems, UN Convention on Certain Conventional Weapons. https://www.academia.edu/download/93364637/MHC-AI-and-AWS-FINAL.pdf
[84] Phillip Rogaway. 2015. The moral character of cryptographic work. Cryptology ePrint Archive (2015).
[85] Stefka Schmid. 2023. Safe and Secure? Visions of Military Human-Computer Interaction. (2023). https://dl.gi.de/items/841cc5bd-8e25-40de-804f-8fb4fedddf11 Publisher: GI.
[86] John S. Seberger, Irina Shklovski, Emily Swiatek, and Sameer Patil. 2022. Still Creepy After All These Years: The Normalization of Affective Discomfort in App Use. In CHI Conference on Human Factors in Computing Systems. ACM, New Orleans LA USA, 1–19.
[87] Bryan Semaan and Gloria Mark. 2011. Technology-mediated social arrangements to resolve breakdowns in infrastructure during ongoing disruption. ACM Transactions on Computer-Human Interaction 18, 4 (Dec. 2011), 1–21.
[88] Irina Shklovski and Volker Wulf. 2018. The Use of Private Mobile Phones at War: Accounts From the Donbas Conflict. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, Montreal QC Canada, 1–13.
[89] Kristin Sharon Shrader-Frechette. 2014. Tainted: How philosophy of science can expose bad science. Oxford University Press.
[90] Peter W. Singer. 2010. The ethics of killer applications: Why is it so hard to talk about morality when it comes to new military technology? Journal of military ethics 9, 4 (2010), 299–312. Publisher: Taylor & Francis.
[91] Peter W. Singer and Allan Friedman. 2014. Cybersecurity: What everyone needs to know. oup usa.
[92] Brad Smith and Carol Ann Browne. 2021. Tools and weapons: The promise and the peril of the digital age. Penguin.
[93] Noah Smith. 2024. The Israel Defense Forces’ Use of AI in Gaza: A Case of Misplaced Purpose. https://rusi.orghttps://rusi.org
[94] Michael Smyth, Ingi Helgason, Frank Kresin, Mara Balestrini, Andreas B. Unteidig, Shaun Lawson, Mark Gaved, Nick Taylor, James Auger, Lone Koefoed Hansen, Douglas C. Schuler, Mel Woods, and Paul Dourish. 2018. Maker Movements, Do-It-Yourself Cultures and Participatory Design: Implications for HCI Research. In Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, Montreal QC Canada, 1–7.
[95] Thomas N. Smyth, John Etherton, and Michael L. Best. 2010. MOSES: exploring new ground in media and post-conflict reconciliation. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems(CHI ’10). Association for Computing Machinery, New York, NY, USA, 1059–1068.
[96] Robert Soden and Leysia Palen. 2018. Informating Crisis: Expanding Critical Perspectives in Crisis Informatics. Proc. ACM Hum.-Comput. Interact. 2, CSCW (Nov. 2018), 162:1–162:22.
[97] Robert Soden, Michael Skirpan, Casey Fiesler, Zahra Ashktorab, Eric P. S. Baumer, Mark Blythe, and Jasmine Jones. 2019. CHI4EVIL: Creative Speculation on the Negative Impacts of HCI Research. In Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems(CHI EA ’19). Association for Computing Machinery, New York, NY, USA, 1–8.
[98] Lucy Suchman. 2020. Algorithmic warfare and the reinvention of accuracy. Critical Studies on Security 8, 2 (May 2020), 175–187.
[99] Lucy Suchman. 2023. Imaginaries of omniscience: Automating intelligence in the US Department of Defense. Social Studies of Science 53, 5 (Oct. 2023), 761–786.
[100] Lucy Suchman, Karolina Follis, and Jutta Weber. 2017. Tracking and Targeting: Sociotechnologies of (In)security. Science, Technology, & Human Values 42, 6 (Nov. 2017), 983–1002.
[101] Nick Taylor, Ursula Hurley, and Philip Connolly. 2016. Making Community: The Wider Role of Makerspaces in Public Life. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. ACM, San Jose California USA, 1415–1425.
[102] Dante Tezza and Marvin Andujar. 2019. The state-of-the-art of human–drone interaction: A survey. IEEE Access 7 (2019), 167438–167454. Publisher: IEEE.
[103] Suzanne Tolmeijer, Markus Kneer, Cristina Sarasua, Markus Christen, and Abraham Bernstein. 2021. Implementations in Machine Ethics: A Survey. Comput. Surveys 53, 6 (Nov. 2021), 1–38.
[104] Bill Tomlinson. 2020. Suffering-Centered Design. In Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems(CHI EA ’20). Association for Computing Machinery, New York, NY, USA, 1–19.
[105] Fred Turner. 2010. From counterculture to cyberculture: Stewart Brand, the Whole Earth Network, and the rise of digital utopianism. University of Chicago Press.
[106] Yuri Vlasyuk. 2023. Makers in Defense of Ukraine: A Year Of Fighting Back With Innovation. https://makezine.com/article/maker-news/makers-in-defense-of-ukraine/
[107] John Von Neumann. 1955. Can we survive technology? Time, Incorporated.
[108] Michael Walzer. 2015. Just and unjust wars: A moral argument with historical illustrations. Hachette UK. https://www.google.com/books?hl=en&lr=&id=A-03DgAAQBAJ&oi=fnd&pg=PT23&dq=Just+and+Unjust+wars&ots=kTgiiCxEKy&sig=o1mMgPvBxqtiKemWJsOWXAlU06U
[109] Jessica Wang. 1999. American science in an age of anxiety: Scientists, anticommunism, and the Cold War. Univ of North Carolina Press.
[110] Cara Wrigley, Genevieve Mosely, and Michael Mosely. 2021. Defining Military Design Thinking: An Extensive, Critical Literature Review. She Ji: The Journal of Design, Economics, and Innovation 7, 1 (March 2021), 104–143.