スプートニク日本
スプートニクはAIがミスをした様々な事例を調べた。2016年3月、マイクロソフト社がチャットボットTayをお披露目。米国に住むティーンエージャーのように話すよう作られた。若者が使うスラングをボットの語彙に含め、SNSの他のユーザーとのチャットを通じて学習した。Tayは「あなたたち人間って最高!」という楽観的なメッセージから会話を始めたが、その日が終わるころには「フェミニストは嫌いだ」「ユダヤ人は嫌いだ」といった言葉を発するようになった。プロジェクトは停止された。
米IBMは医療業界でののスーパーコンピューター「ワトソン(Watson)」の活用を強く期待していた。だが後に、ワトソンは腫瘍の診断で頻繁に誤診を出し、患者の命にかかわる助言も出していたと発覚した。
中国で起きた笑ってしまうケースもある。AIを用いた顔認証システムはバス広告の女性を実際の人物だと認識し、信号無視だと判定して罰金を科したのだ。最近では、今年の春、米ラスベガスの見本市で米テスラの自動運転車がロシア・ペルミの企業のロボットをはねた。
AIの論理は完全に予測不可能な場合がある。モラルの概念はプログラミングされていたとしても、AIの価値体系において、常識と比べて二義的だと理解されることもありえる。「狂った」コンピュータがどう振る舞うかとのシナリオは、無数にある。
昨年、バズフィードはオバマ米前大統領がトランプ現大統領を罵る動画を公開。だが動画後半でネタばらしされたように、実際にはこれは、オバマ氏が発言したと見せかけた動画だった。バズフィードはこのように、将来あり得るフェイクニュースの形態を披露した。専門家は、この技術が情報戦争における最先端兵器になりうると懸念する。
日常生活へのAIの浸透のリスクと、それを阻止する方法は?スプートニクの取材に応じ、元IBM社員で革新的なビジネス用ソフトを開発するCodigy社の創業者でCEOであるロシアの有名なIT専門家、ドミトリー・ドリゴ氏がこれらの質問に答えた。
スプートニク : AIがどんどん様々な分野に浸透することの主なリスクは?
ドリゴ氏 : 現在のAIの発展水準は人類にとって深刻なリスクではない。現在、その機能的ポテンシャルは制限されているからだ。
スプートニク : 人間の死につながりかねないAIの悪質なミスを防止する手段はありますか?そうなった場合は、誰が責任を負いますか?
ドリゴ氏 : ほかのツール同様、AIは害を及ぼし得る。100%AIのミスを排除することは不可能だ。だが、最小限にすることは可能だし、必要だ。そのためには第三者の専門家が一緒にプログラムのコードやそのセキュリティレベル、ミスを検知して解決するアルゴリズムを分析する、パブリックコードレビューが必要だ。
スプートニク : 未来の情報兵器とも名指されるディープフェイク技術の危険性は?
ドリゴ氏 : ディープフェイクは非常に強力で興味深い技術だ。だが危険なのは技術そのものではなく、それで武装した人間だ。人間+技術のつながりこそが、攻撃者が集団意識をコントロールし、人びとを操作し、ハイブリッド戦争を実施する際などに効果的な助けになりうる。AIは(今のところ)、知能や人間が備える感情を有していない。そのため、AIの道徳、モラル、常識に関するほぼ全ての記事で検討されている例を挙げよう。衝突が避けられない状態で、線路上にいる誰を轢くべきか?ここで自動運転が取る決定は、プログラミングされた内容と、自動運転をプログラムした人物がモラルと常識のどちらを優先するかに左右される。