兵士のストレス軽減のため殺人を任される“自律型致死兵器”
最先端の科学技術は常に軍事に利用されてきた。そして今、アメリカをはじめ各国が人工知能(AI)を軍事利用すべく多額の研究開発費を投じており、AI搭載の無人兵器が兵士の役割を担う日も、そう遠くはないとか。
***
〈わかったよ……ユダヤ人を毒ガスで殺せ、さあ人種間戦争だ!!!!! 14/88!!!! ヒトラー万歳!!!!〉
こんな、引用するのさえおぞましい文言がツイッターに投稿されたのは、3月23日のこと。つぶやいたのはマイクロソフトが開発したAI「テイ」だった。他人のツイートから学ぶ能力があり、悪乗りしたユーザーにヘイトスピーチを教え込まれた結果、トンデモ発言を繰り返し、登場して1日足らずで退場させられてしまった。
もっとも「テイ」は、電源を切りさえすれば、もう悪さをしない。また、一つのことしかできない「専用人工知能」なので、実際にユダヤ人に向かって攻撃を始める危険性はない。
■善悪や倫理観は相対的なもの
それでも、『人類を超えるAIは日本から生まれる』の著書がある神戸大学名誉教授の松田卓也氏は、
「テイの件は、人工知能の研究が抱えるリスクについて考えさせられる、よい機会だと思います」
と、こう続けるのだ。
「今、研究者たちは様々なことができる“汎用人工知能”の開発をめざしていますが、これは完成した瞬間は白紙、つまり赤ん坊の状態です。人間も生まれた時は脳のシナプス結合がなく、たとえば新生児の視力は0・01ほどで、物を観る練習を重ねて視力が上がっていく。教育を受けることでシナプス結合が活発になっていくんです。言葉を話し、価値観を持つには、さらに高級な教育が必要で、白紙の状態の人工知能にも同じことが言えます。テイがヒトラーを称賛したのは人間が教育した結果。これからは、汎用人工知能が同じように教育されたらどうなるか、ということを考えなければなりません」
なにが起こりうるというのだろうか。
「善悪や倫理観は相対的なものです。“人を殺すのは悪だ”と言っても、戦場では敵を殺すのは自国を守る意味で善ですし、イスラム国の人が外国人の首を切るのは悪だと言いますが、日本の戦国時代には、首を持ち帰るのが褒美の物差しでした。イスラム国の人が自分たちの正義を人工知能に教えたら、“人を殺す善”を実行するように育つでしょう。だから、どこで誰が教育するのか、ということが最重要だと思います」
要は、教育次第で、AIはターミネーターのようにもなるというのだ。
■助け合う関係にも?
むろん、AIが人間の脅威になる、と決めつけるのも早計だろう。ほとんどすべての仕事がAIに代替されるようになる、そんな近未来について、ドワンゴ人工知能研究所の山川宏所長は、
「AIを持っているところに富が集中し、経済的格差が拡大する。ですから、ベーシックインカムを導入する、つまり国民にお金を配るようなことを考えないと、AIを使いこなせる人ばかりが儲かってしまう」
と指摘するが、公立はこだて未来大学システム情報科学部複雑系知能学科の松原仁教授は、AIも使い方次第だと、こう説く。
「AIが実生活に溶け込み、人間が意志決定をゆだねるようになれば、仕事における上司と部下、もしくはパートナーのように、信頼できる相手になると思う。私は将来は、人間とAIがたがいに助け合う相関関係の世界になると思います」
■AIのリスク
おそらく、AIの開発に歯止めをかけることも、その進化を止めることもできないだろうから、人類の幸福のために、それを有効活用する手立てを考えるほかあるまい。それには、AIのリスクを我々が認識しておくべきだろう。
「一部の人が悪用することで、人工知能が問題を起こすリスクはある。広告や携帯ゲームなどに人工知能を活用し、人間の心理を読み解いて、ユーザーに多額の課金をさせるよう誘導する、などというのはリアルなリスクだと思います」
東京大学大学院工学系研究科の特任准教授、松尾豊氏は、そう指摘したうえで、こう続ける。
「人工知能開発がアメリカを中心に、軍の資金力を頼りに進んでいったという背景は、事実ですね」
その理由について、軍事評論家の神浦元彰氏が説くには、
「兵士が負傷した際の損害賠償や、亡くなった場合の遺族年金の負担は、非常に膨大です。兵士の役割を無人兵器が担えば、それらを支払う必要もないし、兵士の犠牲も減らせるのだから、費用対効果が大きい」
松原教授も補って言う。
「良い悪いは別として、基本的に最先端の科学技術は、軍事に転用されるのが現実です。特にアメリカは、人工知能を軍事利用するために、多額の研究開発費を投入している。イラク戦争においても、人工知能の成果を使うことで、自分たちの人的被害を少なくして敵を有効に攻撃できた、投資した研究開発費も回収できた、と総括しています」
■“リーパー”“ガーディアム”
イスラエルの国境線を走る無人装甲車「ガーディアム」
AIの軍事利用は、誰も止められない勢いで進んでおり、すでに“成果”も挙がりはじめているというのだ。軍事ジャーナリストの清谷信一氏が言う。
「アメリカは9・11後、タリバンなどを殲滅するためアフガニスタンやイラクに進攻し、泥沼の戦線が長引いて人的被害もコストも肥大化。それらを減らすことを考えるようになった。現在、リーパーという無人戦闘機が活躍していて、飛行は自動で行われ、反撃によって人的被害が生じる心配はゼロ。イスラエルでも自国兵の被害を少しでも減らすため、ガーディアムという無人装甲車が長い国境線を走っています。あらかじめプログラムされた道を走り、不審者を見つけると警告し、ともすれば発砲すると脅すこともあります」
また、先の神浦氏は、
「無人戦車から無人潜水艦まで各国で開発中です。無人機は急激な加速や重力にも耐えられ、食事や休憩のスペースも、緊急脱出装置も要らないため、コンパクトにでき、効率がいい」
と説き、加えて、こう予想する。
「将来的には“自律型無人兵器”が登場し、敵味方の識別や、その時の最適な攻撃方法をコンピューターが選択するようになります」
■人工知能の「ルビコン川(後戻りできない一線)」
“自律型無人兵器”を“自律型致死兵器”と言い換え、その意味を説くのは、前出の松田氏である。
「現在、アメリカは多くの無人兵器を戦争に使っていますが、現状では航空機は意志を持たず、アフガニスタン上空の無人機をアメリカから遠隔操作し、空爆しています。つまりゲーム感覚で操作し、人を殺しているんですが、これは心理的負担がむしろ大きいらしく、退役したり鬱になったりする兵士が多く出ている。そこで米国防総省は“人工知能にすべてを任せよう”と考え、敵か味方かを判別でき、逃げ惑う敵を追いかけて狙いを定めることができる人工知能、いわゆる“自律型致死兵器”の研究に明け暮れています」
そして松田氏は、この研究を「真の危険」だと断じて、こう続ける。
「前にも言いましたが、善悪や倫理観は相対的です。我々には自律型致死兵器は悪でも、アメリカ国防総省にとっては、自国の兵士の精神を安定させるための善なのです。現在、その開発に積極的なのはアメリカ、イスラエル、イギリスなどで、アメリカが実現すれば中国やロシアも黙っていない。そうなれば、殺人ロボットとしての人工知能が世界中に蔓延してしまう。その見地からすれば、“人工知能のルビコン川”は自律型致死兵器の発明なんです」
「特集 『人工知能』は世界をどこに導くか 第3弾 ターミネーターが現実になるAIの軍事利用」より