Генсек ООН вновь осудил Израиль — на сей раз за искусственный интеллект
Антониу Гутерриш на брифинге в ООН(Фото: REUTERS/Alaa Al-Sukhni)

Генсек ООН вновь осудил Израиль — на сей раз за искусственный интеллект

Реклама

04/06/2024  12:03:32

Публикация в малоизвестном «палестино-израильском» сайте вызвало беспокойство Гутерриша

Вести-Ynet|
В ООН глубоко озабочены сообщениями о том, что ЦАХАЛ использует искусственный интеллект при осуществлении военных действий в Газе». Об этом в ночь на 6 апреля сказал генсек ООН Антониу Гутерриш на брифинге в штаб-квартире организации. Позже он также написал об этом в соцсети Х.
Генсек конкретизировал, что его «беспокойство» вызвано тем, что Израиль использует AI-технологии (то есть технологии, основанные на искусственном интеллекте) для «определения целей, особенно в густонаселенных жилых районах,». А это, по мнению Гутерриша, ведет «к еще большому количеству жертв среди гражданского населения».
«Ни одно из решений относительно жизни и смерти, которые затрагивают целые семьи, не должно приниматься на основе холодного расчета алгоритмов», — сообщил генсек ООН. И добавил, что «искусственный интеллект должен использоваться во благо, а не использоваться для ведения войны в промышленных масштабах, размывая ответственность».

Свои опасения, как обычно, генсек ООН подкрепил статистикой ХАМАСа о том, что в газе погибли более 32 тысяч «мирных жителей, подавляющее большинство которых женщины и дети». Он также повторил мысль о том, что «свыше миллиона человек в Газе стоят перед угрозой катастрофического голода,» а «дети умирают от нехватки еды и воды». «Ничто не может оправдать коллективное наказание палестинского народа», — заключил руководитель международной организации.

►Сегодня в газете — завтра в ООН
О том, что ЦАХАЛ может использовать AI-технологии для войны в Газе написала 4 апреля британская газета The Guardian, использовав данные +972 Magazine, которое называет себя «израильско-палестинским изданием». В публикации отмечалось, что израильская армия использует программы Lavender и Gospel для выбора и систематизации целей. При этом признавалось, что Lavender демонстрирует 90-процентную точность.
Обеспокоенность The Guardian, а за ним и Антониу Гутерриша вызвало сообщение, что в системе якобы есть 37.000 потенциальных целей. «А все ли они являются боевиками ХАМАСа?» — усомнились журналисты, хотя и получили подробное разъяснение ЦАХАЛа на этом счет.
В израильской армии пояснили, что речь идет не о системе отбора целей, а о базе данных, предназначенных для перекрестного сопоставления информации из различных источников. Разумеется, речь не идет о списке лиц, которые подлежат ликвидации.
В ЦАХАЛе вновь повторили, что соблюдают правила ведения войны. И да, при анализе информации используются различные инструменты, в том числе основанные на искусственном интеллекте. Однако это не означает, что именно искусственный интеллект автоматически определяет, является ли тот или иной человек легитимной целью. Для этого в разведке есть аналитические структуры, которые проводят дополнительные проверки.
Напомним, что Антониу Гутерриш сумел обвинить Израиль, даже в речи, посвященной шести месяцам трагедии 7 октября. Кратко вспомнив об убитых и похищенных израильтянах, генсек привычно принялся перечислять «преступления в Газе», подведя слушателей к мысли, что «нет никакого оправдания коллективному наказанию палестинского народа».
К этой же дате было приурочено заседание Совбеза ООН, где даже США выступили с нападками на Израиль.

Посмотреть также...

Житель Ноф-ха-Галиля подозревается в шпионаже на Иран

Житель Ноф-ха-Галиля подозревается в шпионаже на Иран

12/09/2024  12:24:24 Артем Золотарев из Ноф-ха-Галиля арестован по подозрению в совершении преступлений в сфере безопасности, …