OpenAIは、今後10年以内に大半の分野でAIが人間の能力を超越するとの確信を示している。超知能は人類がこれまでに生み出した中で最も強力なテクノロジーになるという。一方、AIは人類の繁栄への道を開くことができるが、AIの使用は人類にとって多くの実存的リスクを伴う。OpenAIの専門家らは、これらのリスクを軽減するためにAIシステムの安全基準準拠テストを行ったり、その活用分野を制限する国際調整機関の設置を提案している。
米国に拠点を置くAIセキュリティセンター(CAIS)は、「社会規模の人工知能リスクの軽減」に取り組んでいる。CAISは、AIの無統制の開発による主な危険性について、人間の仕事がそのようなシステムに大量に割り当てられると、人間は自己管理能力を失い、完全に機械に依存することになると考えている。そして、強力なシステムを管理する少数の人々が「AIを中央集権化の力にする」可能性があり、それは管理する側と管理される側の間に永遠のカースト制度を生み出すおそれがあるという。
一方、OpenAIの幹部は、いかなるリスクがあったとしても、引き続きAI分野を発展させる必要があるとの確信を示しており、国際的にしかるべき監督をすれば、新しいテクノロジーは世界をよりよくするとの考えを示している。
スプートニク通信は先に、Appleの共同創始者スティーヴン・ウォズニアック氏は、ChatGPTのような生成的人工知能が良心のない人間に使われる場合、ネット上の詐欺、偽情報が増える恐れがあることから、規制は必要との見解を表したと報じた。
関連ニュース