欧米が規制強化、中露によるサイバーテロも懸念 ChatGPTが抱える最大のリスクとは?
「うそを見分けるのは難しい」
そんな辻氏は「がんの治療をしたいのですが、どうしたらいいですか」と聞いてみたこともあったという。
「お薦めの病院として上位に案内してきた三つのうち、二つが自由診療主体の怪しげなクリニック。あの有名な近藤誠氏が運営していた病院の名前もありました。現時点では、ネットリテラシーが低い高齢者や子供が使うにはかなり問題があると思います」
明らかな間違いを、さも本当のように回答してくる対話型AIは、その構造にこそ問題があるという。
ITジャーナリストの三上洋氏に聞くと、
「私自身もプロフィールを尋ねたところ、“出身は東京大学”などと根も葉もない答えが返ってきましたね。簡単にいえば、対話型AIは、インターネット上に散らばる大量のテキストデータを読み込み、学習して回答を導き出す仕組みですが、具体的にどんな引用元から情報を収集し、アウトプットしているのかの詳細はブラックボックスなので、あらかじめ知りたいことについて質問者にもざっくりとした理解がないと、うそを見分けるのは難しいと思います」
機密情報の扱いは?
正確な回答を導くためには、こちらから具体的な情報、時には個人情報を与えるプロセスが不可欠になってくると三上氏は言う。
「たとえば企業が今後の戦略について有益なアドバイスを得ようと質問する際、今までの業績など企業秘密ともいえる具体的情報をAIに教える必要があります。で、いったんAIに渡した情報は、その後どう使われるのか。第三者には漏れないのか。別の人の回答に反映されないのかといったリスクがつきまとうのです」
ネット上に散らばるあらゆる情報をエサにして、巨大化を続ける対話型AI。恋愛相談や資産運用など、他人に知られたくない自分だけの秘密を打ち明けるのは、避けた方がよさそうだ。
[3/5ページ]