IT・科学

ChatGPTの開発者ら AIの誤情報対策に新メソッド導入へ

ChatGPTを開発した米国のOpenAI社は、AIが誤った情報を出さないようにするために、そのトレーニングに新しい方法を導入すると発表した。
この記事をSputnikで読む
OpenAIの開発者は、最も高度なAIでさえ誤った帰結を出す傾向があり、不確定な事態に遭遇すると、事実を捏造してしまうことを認めている。こうした問題は通常、何段階にもわたって推論する必要がある場合に発生する。そうした中ではわずか1つでも論理を間違えば、誤った結論が導きだされてしまうからだ。
ChatGPTに騙された米国人弁護士 架空の訴訟例を引用で責任追及
OpenAIは現在、AIが最終的に出す結論に対して報酬を与えるのではなく、学習プロセスにあるAIに対し、ステップごとに出される推論が正しい場合、それに対して報酬を与えようとしている。研究者らによると、このアプローチは「結果観察」ではなく「プロセス観察」と呼ばれるもので、これによって、AIはより人間に近い「思考」連鎖をたどる論理に近づくため、より理解しやすいAIの到達に近づく。
OpenAIはその研究をアピールするために、AIのトレーニングに用いた80万個のタグからなる付属のデータセットを公開している。
関連ニュース
人工知能による人類滅亡の確率 専門家が算出
米空軍のAIドローン シュミレーションでオペレーター殺害を命じる
コメント