Ізраїльська армія використовувала штучний інтелект для визначення об’єктів бомбардування в Газі, відповідно до дослідження +972 Magazine та Local Call, яке посилається на шість співробітників ізраїльської розвідки.
Згідно з розслідуванням, офіційні особи, які брали участь у дослідженні, заявили, що інструмент на основі штучного інтелекту, відомий як “Lavender”, має помилку в 10%.
Центр прес-служби Збройних Сил Ізраїлю (ЦАХАЛ) не спростовував існування інструменту, але заперечував його використання для ідентифікації об’єктів. Вони зазначили, що аналітики повинні провести незалежні експертизи, щоб перевірити, чи відповідають ідентифіковані цілі відповідним визначенням згідно з міжнародним правом та внутрішніми директивами ЦАХАЛу.
Автор розслідування, Юваль Абрахам, раніше розповідав CNN у січні про те, як ізраїльські військові “значно покладаються на штучний інтелект для визначення цілей для таких вбивств з дуже малою ручною участю”.
Згідно з дослідженням, Ізраїльська армія “систематично атакувала” цілі в будівлях, зазвичай вночі, коли в них були люди. Ці атаки призвели до того, що тисячі палестинців, переважно жінки та діти або люди, які не брали участі в боях, були знищені ізраїльськими авіаударами.
У звіті також зазначається, що ЦАХАЛ часто використовував некеровані ракети для атак на передбачувані цілі, особливо коли там перебували молоді бойовики.
ЦАХАЛ заявляє, що вони уникають ударів, коли очікувані цивільні жертви є неприпустимо великими порівняно з військовими перевагами і прагнуть зменшити шкоду цивільному населенню наскільки це можливо.