公開書簡は、あと数年たてば、自分で武器発射の決定を下す能力を持つ完全自動の戦闘システムが製造できるだろうとの、専門家達の強い懸念が溢れたものだ。
書簡の中では、次のように指摘されているー
「こうした武器が、ブラックマーケットに現れるのは、単に時間の問題だ。万一それがテロリストや、自国民をよりうまくコントロールしたいと望む独裁者、あるいは民族浄化のためにそれを利用する野戦司令官らの手に落ちたなら、大変なことになる。自動殺戮兵器は、暗殺や注文殺人、国の破壊、蜂起の鎮圧などには理想的である。
人工知能を持ったこうした戦闘技術が安く又大量に生産されれば、それはまさに「明日のカラシニコフ銃』となるに違いない。」
書簡の作成者達は、このメッセージを、アルゼンチンの首都ブエノスアイレスで開かれる国際会議「International Joint Conference on Artificial Intelligence」のオープニングで公式に紹介する考えだ。なおこの書簡には、千人を超す人々が署名している。
人工知能を搭載した武器システムを禁止するよう求める書簡を書いた一人であるインテリジェントシステムおよびロボット技術研究所の所長、ラジャ・チャチラ教授が自らの立場をスプートニクの取材に明かした。
「映画ターミネーターのような殺人ロボットでなく、人工知能を搭載した武器システムを問題にしている。知能があれば、目標を自ら判定し、認識し、殺すことが出来る。相当量のセンサー、機器、演算出力を備え、人間の参加なしに決定を下すことの出来るシステムだ。
書簡では、厳しい条件のために開発されたものや、技術的なロボットについては問題にしていない。撃滅目標の判定・認識を問題にしている。実際、兵器にそうした性能を付与しようという話があるが、それは色々な問題を我々に突き付ける。戦争法やジュネーヴ条約を考慮しながら標的を弁別するなど、それは一体どうやってするのか?現状ではそのような技術は不可能だ。しかしそうしたシステムが開発されるだろう。ロボットはただひとつの場合にのみ作動し、他の、明確な標的判定がつかない場合には作動しない。それは非常に危険だ。いったい何を確実な、正当な標的と見なすことが出来るのか?機械は固定的な確実性を原則に建造される。人間側の論理のほうがはるかに曖昧である。決断をとるためには、人間が判断しなければならない。
このような兵器の開発の可能性の芽を摘むためには今こそ手を打たねばならないと我々は考える。さもなくばインテリジェント兵器の軍拡が起こり、最後にはコントロールを超えてしまう。その方向に進んではいけない。非常に危険だ!」