上院公聴会で専門家がAI規制を呼びかけ (www.techtarget.com)
MILTERMでは、人工知能に関する記事をいくつか紹介しているが、ここでは、米国議会では人工知能に一定の規制をかけることを検討していると報じられている記事を紹介する。人工知能の軍事利用も進められている中でこの規制の動きがどのような意味を持つかも含めて考えるきっかけとなれば幸いである。また、この記事では、MILTERMでも紹介した自衛隊幹部の研究機関ハドソン研究所日本講座の客員研究員のインタビューも載せている。最後に公聴会冒頭の議長の発言も参考として付している。(軍治)
上院公聴会で専門家がAI規制を呼びかけ
Experts call for AI regulation during Senate hearing
人工知能の導入が進むにつれ、専門家は、技術による被害から消費者を守るために、議会がAI規制を制定する時期に来ていると考えている。
Makenzie Holland, News Writer
Published: 10 Mar 2023
マケンジー・ホランド(Makenzie Holland)は、ビッグテックと連邦規制を担当するニュースライターである。TechTarget入社以前は、Wilmington StarNewsの一般記者、Wabash Plain Dealerの犯罪・教育担当記者を務めていた。
企業、消費者、政府機関が人工知能ツールの活用方法を模索している中、今週、専門家たちは議会に対し、この技術が抱える課題に対応したAI規制の策定を求めた。
AIの懸念は、住宅や雇用の機会に誰を選ぶかなどの決定に影響を与える可能性のあるアルゴリズムの偏りから、本物の人間の外見や声を模した画像や音を人工的に生成できるディープフェイクAIの使用まで多岐にわたる。
しかし、AIは救命薬や高度な製造業、自動運転車の開発にもつながっている。実際、人工知能の導入が進んだことで、「事実上すべての分野」で先端技術が急速に発展していると、米上院国土安全保障・政府問題委員会の委員長であるゲーリー・ピーターズ(Gary Peters)上院議員(ミシガン州)は述べた。ピーターズ氏は、水曜日のAIのリスクと機会に関する委員会公聴会で発言した。
欧州連合はAI規制を検討しているが、米国の政策立案者はまだAI法案を進めていない。ホワイトハウスは昨年、倫理的なAIシステムの導入について企業を指導する「AI権利章典のためのブループリント」を発表した。公聴会では、専門家の証人が、技術がもたらすリスクや増え続ける国家安全保障上の懸念から消費者を守るために、AI規制の必要性を訴えた。
米国商工会議所も今週、AI報告書の中でAI規制を呼びかけている。報告書によると、政策立案者は「AIが責任と倫理を持って使用されるように、これらの機会や懸念から発せられる疑問について議論し、解決する必要がある」という。
ピーターズは公聴会の中で、「人工知能は確かに大きな可能性を秘めている」と述べた。しかし、「私たちの安全やプライバシー、経済や国家の安全保障に影響を与えかねない潜在的なリスクも存在する」と付け加えた。
AIのガードレールを確立する:Establishing AI guardrails
AIがもたらす最大の課題のひとつは、アルゴリズムがどのように結果を導き出すのかについて、透明性、説明責任、理由付けがなされていないことである。つまり、この技術には、適切に使用されることを確認するためのセーフガードが必要だとピータースは述べている。
「AIシステムがどのように意思決定を行うのか、このような可視性の欠如は、その使用に対する国民の信頼を築くための課題を生み出す」とピーターズは述べている。
公聴会の中で、非営利団体Center for Democracy and Technologyの社長兼CEOであるアレクサンドラ・リーブ・ギブンズ(Alexandra Reeve Givens)氏は、政府によるAI利用は、ミシガン州で起きたような、住宅の拒否、仕事の機会からの拒絶、詐欺の疑いにつながる恐れがあると述べた。(ギブンズ氏証言: https://www.hsgac.senate.gov/hearings/artificial-intelligence-risks-and-opportunities/testimony-givens-2023-03-08-2/)
ギブンズ氏によると、州の失業保険システムは2013年から2015年にかけて、34,000人以上の個人の失業申請を誤って不正と分類したとのことである。
「責任あるデザインと説明責任を果たすことなく、こうしたリスクの高い現場でAIシステムが使用されると、人々の生活に壊滅的な打撃を与えることになる」と彼女は言う。
ギブンズ氏は、このような問題を解決するために、政府主導で「堅牢で用途に応じたガイダンス」を提供する必要があると述べ、良いスタートとしてホワイトハウスの「AI権利章典のためのブループリント」を挙げた。ギブンズ氏は、AIシステムの使用、およびそのデザインとテストに関する透明性の向上を求めた。また、AIシステムが意図したとおりに動作することを確認するために、適用された環境での継続的なテストが必要であると彼女は述べている。
ブラウン大学のコンピュータ・サイエンスとデータ・サイエンスの教授で、ホワイトハウスの科学技術政策室の元アシスタント・ディレクターであるスレシュ・ヴェンカタスブラマニアン(Suresh Venkatasubramanian)氏は、AIシステムに関する安全措置の必要性に言及した。(ヴェンカタスブラマニアン氏証言:https://www.hsgac.senate.gov/hearings/artificial-intelligence-risks-and-opportunities/testimony-venkatasubramanian-2023-03-08-2/)
彼は、そのような予防策には次のようなものが考えられると述べている。
– AIシステムが説明通りに動作することを確認するためのテスト。
– アルゴリズムが差別的な行動を示さないようにすること。
– アルゴリズムによる個人データの利用を制限する。
– 透明性と人間の監督を必要とする。
AI権利章典の青写真(Blueprint for an AI Bill of Rights)の開発に携わったヴェンカタスブラマニアン氏は、議員に対して、「政府のAI利用だけでなく、民間のAI利用についても、これらのアイデアを法律に明記すること」を訴えた。
「AIにはガードレールが必要で、私たちは最悪の失敗から守られながら、AIがもたらす進歩の恩恵を受けることができる」。
AI国家安全保障、競争力の意味合い:AI national security, competitiveness implications
AIの応用は、斬新なサイバー兵器や高度な生物兵器の開発、大規模な偽情報攻撃の展開など、国家安全保障上の大きな課題をもたらすと、調査会社ランド社の社長兼CEOのジェイソン・マセニー(Jason Matheny)氏は公聴会で述べている。(マセニー氏証言:https://www.hsgac.senate.gov/hearings/artificial-intelligence-risks-and-opportunities/testimony-matheny-2023-03-08/)
「ほとんどの尺度では、現在、米国はAIにおける世界のリーダーである」とマセニーは述べている。「しかし、中華人民共和国が2030年までに世界の主要なAIイノベーションセンターになることを目指し、中国のAI国家戦略の明確な目標としていることから、これは変わるかもしれない」。中国とロシアも軍事化したAI技術を追求しており、課題を激化させているという。
研究機関ハドソン研究所日本講座の客員研究員である高木耕一郎氏によると、確かに中国は米軍に対抗するためにAI開発をさらに加速させるだろうとのことである。高木氏によると、研究者や中国人民解放軍の将校は、AIに焦点を当てた中国の新たな軍事戦略が「米軍を追い抜くことを可能にする」と述べているという。
「今後の米中間の軍事的対立は、人工知能や機械学習のためのデータに焦点が当てられる可能性が高い 」と述べた。「こうした観点から、米国が人工知能への投資を促進することは極めて重要である」。
ホワイトハウスは先月、全米科学財団と共同で、米国を中国に対抗する道筋をつけるための国家的なAI研究インフラの確立に関する詳細な報告書を発表した。
マセニー氏は、国土安全保障省を含む国家安全保障機関は、サイバー防衛に影響を与える可能性のあるAIの開発を追跡し、安全、セキュリティ、プライバシーを優先するAIの国際基準の作成に参加し、AIに関する規制枠組みを「米国の国家安全保障、市民の自由、競争力に対するAIのリスクとメリットの評価に基づいて作成すべきである」と述べた。
【参考】
ピーターズ議長の開会宣言
人工知能の リスクと機会
Chairman Peters Opening Statement As Prepared for Delivery
Full Committee Hearing: Artificial Intelligence: Risks and Opportunities
March 8, 2023
本日の公聴会では、人工知能に関連する潜在的なリスクと機会の両方について議論し、人工知能がグローバルな舞台で我が国の競争力にどのような影響を与えるかを検証し、これらの技術が安全かつ責任を持って使用されることを保証する方法について議論する。
政府、産業界、市民社会における人工知能の導入により、事実上あらゆる分野で先端技術が急速に発展し、我が国のあらゆる場所で、何百万人ものアメリカ人の生活を一変させることになった。
救命薬や高度な製造業の開発、企業や政府による公共サービスの向上、モビリティの向上と道路の安全性を高める自動運転車など、人工知能は確かに大きな可能性を秘めている。
しかし、この急速に進化する技術は、私たちの安全、プライバシー、そして経済と国家の安全保障に影響を与える可能性のある潜在的なリスクもはらんでいる。私たちは、この技術の使用がより広まるにつれ、それが適切に使用されていることを確認するために、適切な保護措置も講じなければならない。
人工知能がもたらす最大の課題のひとつは、アルゴリズムがどのようにその結果を導き出すかについて、透明性と説明責任が欠如していることである。多くの場合、AIモデルをデザインする科学者やエンジニアでさえ、AIモデルがどのようにして出力に至るのかを十分に理解していない。このように、AIシステムがどのように意思決定を行うのかが見えないことは、AIシステムの利用に対する社会的信頼を築く上での課題となっている。
また、AIモデルは偏った結果を出すことがあり、そのシステムに接する人々にとって意図しない、しかし有害な結果をもたらす可能性がある。
AIモデルの中には、学習させたデータセットやアルゴリズムの適用方法によって、人種、性別、年齢、障がいを理由に差別するような出力を生成する危険性があるものがある。
これらのシステムが刑事司法、大学入試、あるいは住宅ローンの適格性判断に使用されているかどうかにかかわらず、偏った判断とそれを取り巻く透明性の欠如は、AIが意思決定プロセスで役割を果たしたことにさえ気づいていない人々に不利な結果をもたらすことがある。このようなシステムにもっと透明性と説明責任を持たせることは、AIの有用性を損なうようなあらゆる種類の偏りを防ぐのに役立つ。
また、多くの政府機関や企業が、私たちの日常生活を向上させるAIシステムの構築に取り組んでいる一方で、AIを利用して意図的に危害を加えたり、私たちの国益を損なったりする悪質な行為者や敵対者がもたらすリスクについても、広い目で見ておく必要がある。
ChatGPTやディープフェイクのような生成型人工知能を使えば、説得力はあるが虚偽の情報を作成することができ、現実を歪め、社会の信頼を損ない、最悪の場合、広くパニックや恐怖を引き起こすために使われることさえある。
また、このような不適切な使用によるリスクは、国境を越えて広がっている。
中国政府のような敵対勢力は、これらの技術で世界のリーダーになること、そして人工知能の優位性が確実に生み出す経済的優位性を利用することを競っている。米国は、グローバルな経済競争力を守るために、独自のAIシステムを開発し、その適切な使用方法を人々に教育する最前線に立つ必要がある。
もしそうしなければ、アメリカの企業が中国政府のような経済的競争相手からこれらの成熟した技術を購入しなければならないリスクがあるだけでなく、アメリカのコアな価値観を共有しない敵対者によって開発された説明責任の薄いツールになり、深刻な国家安全保障上のリスクとなる。
最後に、人工知能は未来の仕事に大きな影響を与えるだろう。AIシステムが、現在のような職場を破壊する可能性があることは間違いない。
だからこそ、米国がこれらの技術を開発する際には、それらとともに働くことができる労働力の開発も不可欠なのである。私たちは、AIツールが人間の労働者に取って代わるのではないかという懸念に対処し、代わりに、AIツールがどのように人間を支援し、職場を強化するかに焦点を当てなければならない。
本日の公聴会の目的は、このようなリスクや課題を検証し、この技術によるメリットや機会を確実に活用するために、議会がどのような措置を講じるべきかを議論することである。
これには、これらの技術が適切に使用され、すべてのアメリカ人の市民権と市民的自由を保護することを保証することも含まれる。
前議会では、私は超党派の法律を成立させ、調達のセーフガードや、取得担当者の知識を高めるなどして、政府による人工知能の適切な使用を確保し、これらの技術のリスクと能力を理解するための適切な訓練を受けられるようにする措置をとった。
そして、今議会ではこのような取組みを積み重ね、委員会の同僚とともに、AI技術の開発を支援し、それらが適切かつ効果的に使用されていることを確認することを楽しみにしている。
本日のディスカッションが、この重要なテーマに関する数回にわたる最初のものとなることを願っている。そして、本日は人工知能の分野の専門家であり、これらのシステムの導入と産業界、市民社会、政府への広範な影響について議論できる証人のパネルをお招きできることを嬉しく思う。