https://sputniknews.jp/20230517/16008183.html
英国人教授 「歯止めないAI開発はエイリアンの来襲に匹敵」
英国人教授 「歯止めないAI開発はエイリアンの来襲に匹敵」
Sputnik 日本
AIが歯止めをかけずに開発された結果、人類は予期しない進歩を遂げたが、超知能を持った機械は将来、人間のコントロールに抵抗し、危険な存在になる可能性がある。英国のスチュワート・ラッセル教授がタイムズ紙からの取材にこうした警告を鳴らした。 2023年5月17日, Sputnik 日本
2023-05-17T07:00+0900
2023-05-17T07:00+0900
2023-05-17T07:00+0900
人工知能
it・科学
ufo
英国
https://cdn1.img.sputniknews.jp/img/171/45/1714522_0:15:1024:591_1920x0_80_0_0_826d290033236914d2389136f2420480.jpg
ラッセル教授は、あらゆる論理的問題を解決する能力を持つAIは人類を破局に導くと断言し、人々は当初、何のためにこうした知能が必要なのかも考えず、多くの分野でAIが人間よりも強くなり、制御不能になることも予想しなかったと指摘している。ラッセル教授は、AIにこのまま人間の行動が教えこまれ続ければ、超知的なマシーンは人間ができることのすべてを瞬く間に習得し、自分のしたい放題に振舞い始めると警告する。ラッセル教授は、ChatGBTのようなシステムは、ごく近いうちに超知的マシーンの一部になり、どんなにそれを人間が制御しようとしても、あらゆる試みを潜り抜けると警告している。強力なAIは与えられた課題を解決する際に、人類の利益を考慮せずに解決策を選択するようになる。ラッセル教授は、それはエイリアンの侵略に等しいと憂慮を表している。ラッセル教授は「もはやこれ以上の賭けはない。もし私たちが自分たちの文明を制御できなくなれば、自分らの未来の存在について発言権を失ってしまう」と断言し、一例として、先日、あるAIに気候変動への最善の対処法を選択させたところ、AIは人間を地球から追い出すことを選んだことを挙げた。ラッセル教授はAIの全般的な使用に反対しているわけではない。教授が呼びかけているのは各システムが厳密に限定された機能のみを遂行するような、責任ある使用であり、人間の知能を完全に置き換えることができる普遍的なAIの研究については、直ちに中止しなければならず、特に、「スマート 」な無人兵器の開発にAIを利用することは許されないと強調する。Appleの共同創始者のスティーヴン・ウォズニアック氏はChatGPTのような生成的人工知能(AI)が良心のない人間に使われる場合、ネット上の詐欺、偽情報が増える恐れがあると警告している。関連ニュース
https://sputniknews.jp/20230510/11-15943268.html
英国
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
ニュース
jp_JP
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputniknews.jp/img/171/45/1714522_0:0:1024:768_1920x0_80_0_0_f2f08d27d389efebf27366f5a3a324e8.jpgSputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
人工知能, ufo, 英国
英国人教授 「歯止めないAI開発はエイリアンの来襲に匹敵」
AIが歯止めをかけずに開発された結果、人類は予期しない進歩を遂げたが、超知能を持った機械は将来、人間のコントロールに抵抗し、危険な存在になる可能性がある。英国のスチュワート・ラッセル教授がタイムズ紙からの取材にこうした警告を鳴らした。
ラッセル教授は、あらゆる論理的問題を解決する能力を持つAIは人類を破局に導くと断言し、人々は当初、何のためにこうした知能が必要なのかも考えず、多くの分野でAIが人間よりも強くなり、制御不能になることも予想しなかったと指摘している。ラッセル教授は、AIにこのまま人間の行動が教えこまれ続ければ、
超知的なマシーンは人間ができることのすべてを瞬く間に習得し、自分のしたい放題に振舞い始めると警告する。
ラッセル教授は、ChatGBTのようなシステムは、ごく近いうちに超知的マシーンの一部になり、どんなにそれを人間が制御しようとしても、あらゆる試みを潜り抜けると警告している。強力なAIは与えられた課題を解決する際に、人類の利益を考慮せずに解決策を選択するようになる。ラッセル教授は、それはエイリアンの侵略に等しいと憂慮を表している。
ラッセル教授は「もはやこれ以上の賭けはない。もし私たちが自分たちの文明を制御できなくなれば、自分らの未来の存在について発言権を失ってしまう」と断言し、一例として、先日、あるAIに気候変動への最善の対処法を選択させたところ、AIは人間を地球から追い出すことを選んだことを挙げた。
ラッセル教授はAIの全般的な使用に反対しているわけではない。教授が呼びかけているのは各システムが厳密に限定された機能のみを遂行するような、責任ある使用であり、人間の知能を完全に置き換えることができる普遍的なAIの研究については、直ちに中止しなければならず、特に、「スマート 」な無人兵器の開発にAIを利用することは許されないと強調する。
Appleの共同創始者のスティーヴン・ウォズニアック氏は
ChatGPTのような生成的人工知能(AI)が良心のない人間に使われる場合、ネット上の詐欺、偽情報が増える恐れがあると警告している。