GENERICO.ruНаукаПодчеркнуты опасности снижения человеческого контроля над искусственным интеллектом в военных действиях

Подчеркнуты опасности снижения человеческого контроля над искусственным интеллектом в военных действиях

Наблюдение с помощью дронов может оказаться иллюзией

Поскольку искусственный интеллект становится все более мощным и находит применение в военных целях, ученые говорят, что правительствам, технологическим компаниям и международным организациям крайне важно обеспечить его безопасность. Большинство соглашений о безопасности ИИ подчеркивают необходимость человеческого контроля за технологией.

Заграница для дронов может быть иллюзией

Многие западные эксперты по безопасности выразили мнение, что люди могут служить защитой от неправильного использования и потенциальных ошибок искусственного интеллекта (ИИ). Это может включать, например, человеческий обзор контента, созданного ИИ. Однако растущий объем исследований и реальных примеров военного использования ИИ показывает, что идея о том, что люди могут эффективно контролировать компьютерные системы, сталкивается с определенными трудностями.

Несмотря на усилия по разработке правил для ИИ, многие из них уже содержат положения, которые поддерживают человеческий контроль и участие. Например, закон ЕС об ИИ требует, чтобы высокорисковые системы — такие как те, которые автоматически идентифицируют людей с помощью биометрических технологий, включая сканеры сетчатки глаза — были протестированы и проверены как минимум двумя квалифицированными лицами.

В военной сфере правительство Великобритании признало важность человеческого контроля в своем ответе на парламентский отчет об ИИ в системах вооружения в феврале 2024 года. В отчете отмечалась необходимость «осмысленного человеческого контроля», который включает в себя соответствующую подготовку персонала. В настоящее время военные беспилотники контролируются операторами, которые отвечают за действия беспилотников. Однако внедрение ИИ может сделать беспилотники и используемые ими компьютерные системы более эффективными и автономными.

Палестино-израильский конфликт продемонстрировал использование такой технологии. Сообщается, что Израиль использует систему на основе ИИ, которая работает совместно с другими автоматизированными системами для отслеживания местоположения обнаруженных объектов. Ранее в 2017 году американские военные запустили проект Maven, целью которого было внедрение искусственного интеллекта в системы вооружения.

Согласно рекомендациям академических исследований в области этики ИИ, проект должен включать специального сотрудника, который будет контролировать результаты работы механизмов поиска цели, что является важным элементом процесса принятия решений.

Американский психолог Мэри Каммингс отметила, что люди могут начать чрезмерно доверять машинным системам и их выводам — это явление называется ошибкой автоматизации.

«Такое доверие может повлиять на роль человека как контролера автоматизированного процесса принятия решений, поскольку операторы могут реже подвергать сомнению выводы системы», — поясняет специалист.

В другом исследовании, опубликованном еще в 1992 году, исследователи Батья Фридман и Питер Кан утверждают, что люди могут стать менее морально ответственными при работе с компьютерными системами, вплоть до того, что они начнут считать себя не отвечающими за последствия и даже приписывать автономность самим компьютерным системам.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Последнее в категории