スプートニク日本
研究者たちは、もっとも先進的な4つのAI訓練プログラムの作業を調査した。
調査を行ったのは最近開発された「Transformer」「ELMo」「BERT」「GPT-2」の4つのプログラムで、これらの消費電力を数値化すると、エネルギー消費量、つまり、有害排出物は、プログラムの複雑さに比例して増大することが明らかになった。
ニューラルネットワークを利用した訓練で、「Transformer」タイプは、有害物質28万4千キログラムを排出した。これは、米国産自動車1台が生産から廃車までの全過程で排出される5万7150キログラム未満の量の5倍を超える。
研究を行ったエマー・ストリューベル氏は、AIのプログラム訓練によって生じる環境破壊の脅威は、将来的に増大すると指摘し、「新しいモデルの開発または既存タイプの改善は、追加的にエネルギーを消費することになる。これに比例して、大気中の有害物資の実際の割合も増大していく」と警告を発している。