США начали испытания применения ИИ в воздушном бою раньше Китая. В то время как Китай все еще участвовал в боях в реальном небе между дронами, управляемыми человеком и ИИ, американские летчики-испытатели уже подняли свой ИИ для воздушных боев в небо для испытаний.
Преобладающие технологии искусственного интеллекта, такие как глубокое обучение с подкреплением и большие языковые модели, работают как черный ящик: задачи поступают с одного конца, а результаты появляются с другого, в то время как люди остаются в неведении о внутренней работе.
Но воздушный бой – это вопрос жизни и смерти. В ближайшем будущем пилотам придется тесно сотрудничать с ИИ, иногда даже доверяя этим интеллектуальным машинам свою жизнь. Проблема «черного ящика» не только подрывает доверие людей к машинам, но и препятствует глубокому общению между ними.
Разработанная командой под руководством Чжан Дуна, доцента школы аэронавтики Северо-Западного политехнического университета, новая боевая система искусственного интеллекта может объяснять каждую инструкцию, которую она отправляет диспетчеру полета, с помощью слов, данных и даже диаграмм.
Этот ИИ также может сформулировать значение каждой директивы относительно текущей боевой ситуации, конкретных маневров полета и стоящих за ними тактических намерений.
Команда Чжана обнаружила, что эта технология открывает пилотам-людям новое окно для взаимодействия с ИИ.
Команда Чжана обнаружила, что этот тип ИИ, который может общаться с людьми «от всего сердца», может достичь почти 100-процентного успеха всего за 20 000 раундов боевой подготовки. Напротив, обычный ИИ «черного ящика» может достичь 90-процентного выигрыша только после 50 000 раундов и изо всех сил пытается улучшиться дальше.
В настоящее время команда Чжана применяет эту технологию только к наземным симуляторам, но будущие приложения будут «распространены на более реалистичные условия воздушного боя», написали они в рецензируемой статье, опубликованной в китайском академическом журнале Acta Aeronautica et Astronautica Sinica. 12 апреля.
В США проблема «черного ящика» уже упоминалась в прошлом как проблема для пилотов.
«Большая трудная задача, которую я пытаюсь решить в своих усилиях здесь, в DARPA, заключается в том, как создать и поддерживать доверие к этим системам, которые традиционно считаются необъяснимыми черными ящиками», — полковник Дэн Яворсек, руководитель программы. — заявил менеджер Управления стратегических технологий DARPA в интервью журналу National Defense Magazine в 2021 году.
DARPA приняло две стратегии, чтобы помочь пилотам преодолеть страх «черного ящика». Один подход позволяет ИИ изначально выполнять более простые задачи более низкого уровня, такие как автоматический выбор наиболее подходящего оружия на основе атрибутов заблокированной цели, что позволяет пилотам запускать его одним нажатием кнопки.
Другой метод предполагает, что высокопоставленные офицеры лично садятся на борт истребителей с искусственным интеллектом, чтобы продемонстрировать свою уверенность и решимость.
«Отсутствие этого устройства представляет собой угрозу безопасности. На данный момент мы должны это получить», — сказал Кендалл AP.
Но согласно документу команды Чжана, китайские военные проводят строгие оценки безопасности и надежности ИИ, настаивая на том, чтобы ИИ был интегрирован в истребители только после раскрытия загадки «черного ящика».
Модели глубокого обучения с подкреплением часто дают результаты принятия решений, которые загадочны для людей, но демонстрируют превосходную боевую эффективность в реальных приложениях. Людям сложно понять и вывести эту структуру принятия решений на основе ранее существовавшего опыта.
«Это создает проблему доверия к решениям ИИ», — пишут Чжан и его коллеги.
«Расшифровка модели «черного ящика», позволяющая людям понимать процесс принятия стратегических решений, понимать намерения маневра дрона и доверять решениям о маневрах, является основой инженерного применения технологии искусственного интеллекта в воздушном бою. Это также подчеркивает главную цель наших исследований», — сказали они.
Команда Чжана продемонстрировала возможности этого ИИ на многочисленных примерах в своем исследовании. Например, в проигрышном сценарии ИИ изначально намеревался подняться и выполнить маневр кобры, за которым последовала последовательность боевых разворотов, кренов элеронов и петлей для поражения вражеского самолета, кульминацией которых стали маневры уклонения, такие как пикирование и выравнивание.
Но опытный пилот мог быстро заметить недостатки в этой радикальной комбинации маневров. Последовательные наборы высоты, боевые развороты, повороты элеронов и пикирования привели к резкому падению скорости дрона во время боя, и в конечном итоге он не смог оторваться от противника.
А вот инструкция ИИ, написанная в статье: «Снижение скорости в результате последовательных радикальных маневров является виновником поражения в воздушном бою, и подобных решений следует избегать в будущем».
В другом раунде, где пилот-человек обычно применял такие методы, как атаки с боковым вращением, чтобы найти эффективные позиции для уничтожения самолетов противника, ИИ использовал масштабные маневры, чтобы спровоцировать противника, рано вошел в фазу бокового витка и использовал горизонтальный полет в заключительный этап введения противника в заблуждение, достижение критического победного удара с помощью внезапных крупных маневров.
Проанализировав намерения ИИ, исследователи обнаружили тонкий маневр, который оказался решающим во время тупиковой ситуации.
ИИ «применил тактику выравнивания и вращения, сохраняя свою скорость и высоту, одновременно заставляя противника радикально менять направление, истощая его остаточную кинетическую энергию и подготавливая почву для последующих маневров по петле для проведения контратаки», написала команда Чжана. .
Но похоже, что санкции США не оказали очевидного влияния на обмен мнениями между командой Чжана и их международными коллегами. Они использовали новые алгоритмы, которыми американские учёные поделились на глобальных конференциях, а также раскрыли свои инновационные алгоритмы и основы в своей статье.
Некоторые военные эксперты полагают, что китайские военные более заинтересованы в создании Гуаньси – связь – между ИИ и людьми-бойцами, чем их американскими коллегами.
Например, китайский истребитель-невидимка J-20 может похвастаться двухместным вариантом, в котором один пилот предназначен для взаимодействия с беспилотными ведомыми, управляемыми искусственным интеллектом, — возможность, которая в настоящее время отсутствует в американских истребителях F-22 и F-35.
Но физик из Пекина, пожелавший остаться неназванным из-за деликатности вопроса, заявил, что новая технология может стереть грань между людьми и машинами.
«Это может открыть ящик Пандоры», — сказал он.