研究は、2022年末に697人を対象に実施された。参加者たちは、ツイートが正確な情報なのか、それとも偽情報なのかを区別した。また、ツイートが実際のTwitterユーザーによって書かれたものなのか、それとも言語モデル「GPT-3」によって生成されたのなのかを判断する実験も行われた。
ツイートのテーマとして、気候変動、ワクチンの安全性、新型コロナウイルス感染症のパンデミック、地球平面説、ホメオパシーのがんの治療などが取り上げられた。
「GPT-3」によって生成されたツイートは、実際のTwitterユーザーのツイートよりも正確で読みやすかった。一方、研究グループは、言語モデルは非常に説得力のある偽情報を作成するいう憂慮すべき特性を有していることも発見した。また参加者たちは、GPT-3によって生成されたツイートと実際のTwitterユーザーが書いたツイートを確実に区別することができなかったという。
適切に構造化されたプロンプトに基づいて専門家の監督下でGPT-3が生成する情報は、たとえば社会との迅速かつ明確なコミュニケーションが必要とされる公衆衛生上の危機などにおいては、より効果的であることもわかった。一方、GPT-3 は、大量の偽情報を流す大規模キャンペーンで使用される可能性もあり、伝染病やパンデミックなどの公衆衛生上の緊急事態において人々に脅威をもたらすおそれがあるという。
関連記事: