Первая война ИИ: США и Израиль используют Иран для тестирования автономных технологий

Первая война ИИ: США и Израиль используют Иран для тестирования автономных технологий

За первые 24 часа операции «Эпическая ярость» американские военные поразили более 1000 целей в Иране, используя искусственный интеллект.

Учитывая скорость обнаружения 42 предлагаемых целей в час, эксперты задаются вопросом, контролируют ли машины уже поле боя, потому что человеческий мозг не успевает за ними.

Они поднимают вопрос о том, мог ли искусственный интеллект неправильно идентифицировать начальную школу Минаб в первый день войны, поскольку накапливаются доказательства того, что США атаковали школу с помощью крылатой ракеты «Томагавк», убив 110 детей и десятки других.

Системы искусственного интеллекта могут обрабатывать огромные объемы данных из разных источников.включая спутниковые снимки, данные самолетов-разведчиков и людей, для выбора или отклонения целей.

Исторические спутниковые снимки показывают, что начальная школа Шаджаре Тайебе когда-то была частью комплекса Корпуса стражей исламской революции, где располагались военно-морские казармы и вспомогательные здания. Однако, по крайней мере, последние девять лет он был отделен от комплекса. На некоторых спутниковых снимках видны красочные фрески на стенах и небольшая игровая площадка.

Были подняты вопросы о том, полагается ли система ИИ на старые изображения в целях атаки.

«Если взрыв в школе был ошибкой, то это была человеческая ошибка или ошибка в скорости автоматизации системы? Была ли атака основана на старых данных? Количество ударов, которые мы наблюдаем, придает некоторую достоверность идее о том, что цели создаются в основном автономно», — сказал The Times Ноа Сильвия, аналитик-исследователь Королевского института объединенных служб.

Доктор Крейг Джонс, старший преподаватель политической географии Университета Ньюкасла, добавляет:

«В этот момент мы не можем исключить, что ИИ, возможно, не смог идентифицировать школу как школу и вместо этого определили его как военную цель».

Он говорит, что ключевой вопрос заключается в том, в какой степени ИИ использовался при сборе и анализе разведывательных данных, чтобы представить школу как военную цель, указывая на то, что любое человеческое решение нанести удар основано на данных и анализе, которые помог создать ИИ.

«Что бы ни случилось – а факты на какое-то время останутся затуманенными – удар был катастрофическим провалом разведки, независимо от того, был ли он вызван искусственным интеллектом или человеком. с некоторым компонентом искусственного интеллекта», — добавляет он.

На вопрос The Times, предоставили ли системы искусственного интеллекта устаревшую информацию о школе, в Пентагоне ответили, что расследование продолжается. Президент Трамп без каких-либо доказательств предположил, что удар мог нанести Иран или «кто-то другой», но анализ сайта показал, что было использовано американское оружие.

У США и Израиля есть несколько систем искусственного интеллекта в войне против Ирана

Пентагон разрабатывает проект Maven с помощью поддерживаемой ЦРУ компании по сбору данных Palantir с 2018 года, и это программное обеспечение внедрено во все боевые командования США.

В иранской войне США используют искусственный интеллект и машинное обучение, чтобы помочь в военном нацеливании и наблюдении.. Эксперты сравнивают его с военной версией Uber.

В интеллектуальную систему Maven встроен чат-бот Claude от Anthropic. Он использовался в операции «Эпическая ярость» для анализа разведывательных данных. Теоретически он мог бы собирать данные из открытых источников о том, что происходит внутри иранского правительства. Но он имеет строгие правила использования и не может быть использован для атаки. Anthropic считает, что люди должны нести ответственность за выявление потенциальных целей и принятие решений о нанесении ударов. Администрация Трампа уже внесла компанию в черный список, что шокировало многих чиновников в Вашингтоне.

Хотя программное обеспечение Palantir уже использовалось в войне на Украине, Сильвия говорит, что масштабы операций на Ближнем Востоке «гораздо более драматичны».

Он сказал, что источники данных будут другими и что США и Израиль используют другие системы, чем те, которые используются в Украине — ударное оружие большой дальности, а не артиллерию и дроны с обзором от первого лица.

«Это фундаментально отличается из-за географического охвата операций и порядка величин», — говорит Сильвия. «Восточная Украина мала по сравнению с Ираном. Чтобы нанести удар по значительной части Ирана, требуется гораздо больше данных и гораздо более мощные системы для их обработки».

При этом возникают риски, отмечает он, добавляя, что коммерческие компании производят более совершенные модели, и обслуживающий персонал, который их эксплуатирует, должен идти в ногу со временем. Он выразил обеспокоенность по поводу «быстрого внедрения технологий и отсутствия технических знаний у персонала».

«Когда у вас есть чувство безотлагательности, люди могут помочь только в определенной степени. По мере того, как темпы военных действий увеличиваются во все более беспрецедентных масштабах, мы увидим со временем повышение уровня автономии в некоторых системах. Возникает вопрос, насколько комфортно людям это удается?»

Эльке Шварц, профессор политической теории в Лондонском университете королевы Марии, сказала, что системы, которые предполагают тысячи целей в день, создают «предвзятость автоматизации», а это означает, что решение машины становится авторитетным.

«Человек имеет ограниченные когнитивные способности, чтобы игнорировать эту способность», она добавляет.

Существует также «предвзятость к действию», говорит она, имея в виду быстрое принятие решения машиной, вызывающее необходимость действовать.

«Людям нужно время, чтобы подумать, и это мышление имеет решающее значение для юридической и этической оценки».

По ее словам, 42 предложенные цели в час — это «много, и становится сложно оценить обоснованность всех этих задач, когда скорость и масштаб являются приоритетами».

Эксперты в этой области опасаются того, что может принести будущее конфликта, и предупреждают о «расползании миссии». Шварц говорит, что будущие системы искусственного интеллекта смогут идентифицировать не только возможные цели по скорости и масштабу, но также «подозрительное» поведение или движения, которые затем могут привести к упреждающим ударам.

«Мы должны признать, что искусственный интеллект будет играть все возрастающую роль в принятии решения о применении силы, и это пугает». она говорит.

за важными делами в течение дня следите за нами также в .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *