https://sputniknews.jp/20230701/ai-16422360.html
人々は他人の情報よりもAIの情報を信頼 それが嘘だとしても=研究
人々は他人の情報よりもAIの情報を信頼 それが嘘だとしても=研究
Sputnik 日本
チューリッヒ大学の生物医学倫理研究所の研究グループは、人々は人間が書いたツイートよりも、言語モデル「GPT-3」によって生成されたツイートを信頼していることを明らかにした。なお、人工知能(AI )が信頼できる情報を提供しているときも、またAI... 2023年7月1日, Sputnik 日本
2023-07-01T11:42+0900
2023-07-01T11:42+0900
2023-07-01T11:42+0900
it・科学
人工知能
米国
sns
研究
https://cdn1.img.sputniknews.jp/img/105/15/1051527_0:0:2000:1125_1920x0_80_0_0_0d96100e3f0e16cbcf9a78f0985281a4.jpg
研究は、2022年末に697人を対象に実施された。参加者たちは、ツイートが正確な情報なのか、それとも偽情報なのかを区別した。また、ツイートが実際のTwitterユーザーによって書かれたものなのか、それとも言語モデル「GPT-3」によって生成されたのなのかを判断する実験も行われた。ツイートのテーマとして、気候変動、ワクチンの安全性、新型コロナウイルス感染症のパンデミック、地球平面説、ホメオパシーのがんの治療などが取り上げられた。「GPT-3」によって生成されたツイートは、実際のTwitterユーザーのツイートよりも正確で読みやすかった。一方、研究グループは、言語モデルは非常に説得力のある偽情報を作成するいう憂慮すべき特性を有していることも発見した。また参加者たちは、GPT-3によって生成されたツイートと実際のTwitterユーザーが書いたツイートを確実に区別することができなかったという。適切に構造化されたプロンプトに基づいて専門家の監督下でGPT-3が生成する情報は、たとえば社会との迅速かつ明確なコミュニケーションが必要とされる公衆衛生上の危機などにおいては、より効果的であることもわかった。一方、GPT-3 は、大量の偽情報を流す大規模キャンペーンで使用される可能性もあり、伝染病やパンデミックなどの公衆衛生上の緊急事態において人々に脅威をもたらすおそれがあるという。関連記事:
https://sputniknews.jp/20230624/ai-16364377.html
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
ニュース
jp_JP
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputniknews.jp/img/105/15/1051527_178:0:1854:1257_1920x0_80_0_0_5f837ab400c04ab358e4c36a7cb79d64.jpgSputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
人工知能, 米国, sns, 研究
人々は他人の情報よりもAIの情報を信頼 それが嘘だとしても=研究
チューリッヒ大学の生物医学倫理研究所の研究グループは、人々は人間が書いたツイートよりも、言語モデル「GPT-3」によって生成されたツイートを信頼していることを明らかにした。なお、人工知能(AI )が信頼できる情報を提供しているときも、またAI が「嘘をついている」ときも、人々はAIの方を信頼することがわかったという。研究結果が米国の学術雑誌Science Advancesに掲載された。
研究は、2022年末に697人を対象に実施された。参加者たちは、ツイートが正確な情報なのか、それとも偽情報なのかを区別した。また、ツイートが実際のTwitterユーザーによって書かれたものなのか、それとも言語モデル「GPT-3」によって生成されたのなのかを判断する
実験も行われた。
ツイートのテーマとして、気候変動、ワクチンの安全性、新型コロナウイルス感染症のパンデミック、地球平面説、ホメオパシーのがんの治療などが取り上げられた。
「GPT-3」によって生成されたツイートは、実際のTwitterユーザーのツイートよりも正確で読みやすかった。一方、研究グループは、言語モデルは非常に説得力のある偽情報を作成するいう憂慮すべき特性を有していることも発見した。また参加者たちは、GPT-3によって生成されたツイートと実際のTwitterユーザーが書いたツイートを確実に区別することができなかったという。
適切に構造化されたプロンプトに基づいて専門家の監督下でGPT-3が生成する情報は、たとえば社会との迅速かつ明確な
コミュニケーションが必要とされる公衆衛生上の危機などにおいては、より効果的であることもわかった。一方、GPT-3 は、大量の偽情報を流す大規模キャンペーンで使用される可能性もあり、伝染病やパンデミックなどの公衆衛生上の緊急事態において人々に脅威をもたらすおそれがあるという。