このAIは、夢で見た風景の記録や、動物が世界をどのように見ているのかなど、幅広く応用することが期待されている。
同大学の研究者らは、既存のAIの中から、文章から画像を作成するAI「Stable Diffusion」を利用して脳スキャンAIを開発した。Stable Diffusionは文章を入力することで、それらしい画像を作り出すAIだが、そのレベルは非常に高くプロ並みの画像を出力する。
Stable Diffusionを用いて脳スキャンAIを開発するには、人間の脳の活動パターンをStable Diffusionが理解するための変換装置(翻訳AI)が必要となる。そのため、研究者らは、4人の被験者にさまざまな画像を見せ、その際の脳の活動データを分析し、どういった画像がどのような脳活動と関連しているのかを翻訳AIに教えていった。
また、被験者に見せた画像にはどういうもの映っているのかを説明する文章が記されていたことから、この文章の情報と脳の活動との相関関係も翻訳AIに学習させた。
その後、研究者らは1000枚の画像を見た際に被験者らの脳で起きた活動パターンを、翻訳AI を通してStable Diffusionに提示し、画像の作成を行った。この結果、被験者の脳活動のパターンだけで、画像を80%の精度で再現することに成功した。研究者らは、人間の脳活動に基づいた自分たちの手法が、十分な解像度と高い意味的精度で画像を再構できたと指摘している。
オランダのラドバウド大学の認知生物学者であり、脳スキャンとAIによる画像構築の研究を行っているティルザ・ダド氏は以前、英紙「デイリー・メール」の取材に対し、「我々はすでに、病気や事故で失明した人の脳にカメラを埋め込み、再び『見えるように』するための開発を進めている。この技術は、昏睡状態にある患者とのコミュニケーションなど、一部の臨床にも役立つだろう」と語っている。
研究者らは今後、被験者の経験や記憶、夢で見たものを再現することを手がけたいとしている。
関連ニュース