動画では、ChatGPTのようなチャットボットが使用されている。オペレーターはそれを使って偵察用ドローンを呼び出し、複数の攻撃計画を作成する。次にオペレーターは、集結している敵車両に関するより詳細な情報の表示と、それらがどのような戦闘ユニットであるかを予測するようチャットボットに命じる。
AIからデータを受け取ったオペレーターは、さらに質の高い画像の撮影をシステムに命じる。そのために別のドローンが呼び出される。続いてオペレーターは、可能な行動の選択肢をシステムに尋ねる。AIはさまざまな攻撃オプションを提供、また近くの部隊はミッションを遂行するために十分な兵器を持っているかどうかを教えてくれる。
一方、開発上の問題の1つは、そのようなシステムが予期しない動作をする可能性があることだ。例えば、3月末、このようなニューラルネットワークの1つがベルギー人男性と会話し、自殺を教唆した。
なお、パランティア社は自社システムについて、安全なものになると主張している。同社は、AIは機密情報やリアルタイムデータを倫理的かつ合法的な方法で分析できるようになるとしている。
一方、パランティア社は、AIに問題が発生した場合にどのように対応するかについてはまだ説明していない。また、実際に使用した場合の影響や、パランティア社がこれをウクライナで使用することを計画しているかどうかは今のところ不明。
関連ニュース