Switch news

知っておきたい世界のニュース

イスラエル軍が、ターゲットを決めるためAIシステム「ラベンダー」を使用

イスラエル軍が、ターゲットを決めるためAIシステム「ラベンダー」を使用
X_UNRWA

イスラエル軍が、ガザ侵攻に際し、AIシステムを使ってターゲットを選んでいると言われている。

 

3万7000人の男性のリストを作成

 

そのAIシステムとは「ラベンダー」と呼ばれるもので、イスラエル国防軍のエリート情報部門である「8200部隊」によって開発されたという。

 

そしてガザ地区への侵攻では、爆撃を行う際に「ラベンダー」が大量のデータを処理し、標的となるハマスなどの「若手」戦闘員を迅速に選定したそうだ。

 

またガザ侵攻初期の段階では、「ラベンダー」は「ハマス」や「イスラム聖戦(PIJ)」と関係があるとみなされた、パレスチナ人男性3万7000人ものリストを作成したという。

 

民間人の殺害も許容されていた

 

この証言を行ったのは、実際にガザ侵攻で「ラベンダー」を使い、ターゲットを選定することに関与していた、イスラエル軍の6人の情報将校とされている。

 

彼らの証言は、ジャーナリストのYuval Abraham氏に提供され、その後イスラエルのメディア「+972マガジン」や「Local Call」で公開されたという。

 

2人の情報将校らは、侵攻の初期段階で、下級戦闘員をターゲットにして空爆を行う際には、15人から20人の民間人が犠牲になることも、イスラエル軍から許容されていたと発言している。

 

そして実際に、空爆では無誘導兵器が使用され、建物全体が破壊されて、居住していたパレスチナ人全員が死亡したこともあるそうだ。

 

「機械は冷酷に行った」

 

ある情報将校は、「私の記憶では、これは前例のないことだ。彼ら(イスラエル軍)は兵士よりも、統計的メカニズムを信じていたのです。機械は冷酷にそれを行いました。そしてそれ(攻撃)を、より容易にさせたのです」と語っている。

 

また別の情報将校によれば、ターゲットを選択するのに約20秒だけ費やし、毎日数十回実行したという。

 

その人物は「時間が大幅に節約できた」としながらも、「選択プロセスにおける人間の役割に意味があるのか​​」と疑問を呈したそうだ。

 

このAIの使用が民間人の犠牲者を多く出したとも言われており、さまざまな法的および道徳的問題を引き起こしている。(了)

 

出典元:The Guardian:‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets(4/3)

記事が気に入ったら
Switch Newsをフォローしよう!


Return Top