「ターミネーター」現実化は防げない? アメリカが進めるAIの軍事利用

ビジネス IT・科学

  • ブックマーク

 最先端の科学技術が軍事転用されるのは世の常であり、それは人工知能(AI)も例外ではない。実際、米国防総省は、敵か味方かを判別でき、敵に狙いを定めることができる人工知能、いわゆる“自律型致死兵器”の研究を進めている。神戸大学名誉教授の松田卓也氏は、この研究を「真の危険」だと断じる。

 そして、映画『ターミネーター』に触れるのだ。

「あれはスカイネットという人工知能と、その手足として働く機械軍が人類を滅ぼす、という話で、それを作ったのは国防総省だという設定です。シリーズ3では、国家安全保障のために開発したスカイネットが、ウイルスに感染して人間のコントロールを離れ、人間への脅威になってしまった。これは非常に起こりうるストーリーです。私は人工知能は、使い手次第で武器にも美味しい料理を作る道具にもなる包丁に似ていると思っていますが、アメリカの場合、選択肢のある包丁ではなく、初めから武器として生まれたライフル銃を作ろうとしているのですから」

 では、ターミネーターが現実化する前に、手を打つことはできないのか。

「昨年7月、ブエノスアイレスで行われた国際人工知能会議で、イギリスの理論物理学者、スティーブン・ホーキング氏らが、AIの軍事利用に警鐘を鳴らす公開書簡を提出した」

 と話すのはドワンゴ人工知能研究所の山川宏所長だが、軍事評論家の神浦元彰氏が言う。

「自律型無人兵器は、どこの国も他国に出し抜かれないように、コソコソと隠れて開発していますから、その使用を制限するような国際協定を作ることは、無理だと思います」

 開発にも使用にも歯止めをかけられないのだとすれば、近未来に我々はどんなリスクを背負うことになるのか。あらためて問うと、松原仁教授(公立はこだて未来大学システム情報科学部複雑系知能学科)はこう説く。

「人的被害を出さずに戦争ができ、そして勝てるようになると、戦争を始める敷居が低くなりかねない。安易に戦争に訴えるようになる危険性があります」

 また、神浦氏は、

「自律型無人兵器があるのとないのとでは、戦力に大きな格差が生じます。おそらくアメリカや日本は持てる国、北朝鮮や中東の小国などの貧しい国は持たざる国になる。その格差が広がるほどテロが増えると思います。対面で戦っても勝てないし、殺すのが機械では、相手のダメージも少ない。持たざる国は、より大きなダメージを与えるため、空港や観光地、デパートなどのソフトターゲットを狙ってくるでしょう」

 と予想する。

■地雷に似ている

 ここで松田氏に、「ルビコン川」(後戻りできない一線)を渡るリスクについて、さらに具体的に説いてもらう。

「IBMが進めるシナプスという計画があります。現在、人工知能のほとんどは、コンピューター上で動くソフトウェアで計算するノイマン型ですが、大きくて単価も高く、電力コストも莫大なので、ニューロ型という、人間の脳を真似た、小型で軽量なチップ型ハードウェアにしようというのです。ニューロ型はパターン認識、つまり画像認識に長けたチップ型人工知能で、この研究に米国防総省の新技術開発機構、DARPAが資金提供している意味を考えてみましょう。このチップをミサイルに搭載すれば、動き回る敵をミサイルが自律的に追い回して狙うことができます。問題は、標的が市民なのかテロリストなのか、敵なのか味方なのか、常に正しく見分けられるとはかぎらないことです。敵兵だけでなく市民も殺される可能性がある点で、地雷に似ていますね」

 むろん、悲観ばかりしていても始まらない。

「国連で自律型致死兵器の開発を停止する運動をしていくしかない。また、アメリカの人工知能開発が世界を牽引しているから危険なので、日本の開発チームの台頭も急務です」

 とは松田氏の提言だ。最後に、『どうすれば「人」を創れるか』(新潮社刊)の著者で、大阪大学大学院基礎工学研究科の石黒浩教授の言葉に希望を託したい。

「技術が進んで人間は不幸になったでしょうか。産業革命などによる技術力の向上で、人間は以前よりずっと幸福になったはずで、労働が効率化し、生活レベルは上がり、浮浪者は減った。教育時間も増えました」

 人間が賢明であることを信じたいものである。

「特集 『人工知能』は世界をどこに導くか 第3弾 ターミネーターが現実になるAIの軍事利用」より

週刊新潮 2016年4月7日号掲載

メールアドレス

利用規約を必ず確認の上、登録ボタンを押してください。