Разрыв черного ящика: китайские ученые решают «большую сложную задачу» для проекта искусственного интеллекта ВВС США

США начали испытания применения ИИ в воздушном бою раньше Китая. В то время как Китай все еще участвовал в боях в реальном небе между дронами, управляемыми человеком и ИИ, американские летчики-испытатели уже подняли свой ИИ для воздушных боев в небо для испытаний.

Но пока неясно, преодолела ли Америка ту же проблему искусственного интеллекта в своей новой Истребитель F-16 с искусственным интеллектом что, по словам Китая, он это сделал, новаторская работа китайцев ученые несомненно изменит облик воздушных сражений в будущем.

Преобладающие технологии искусственного интеллекта, такие как глубокое обучение с подкреплением и большие языковые модели, работают как черный ящик: задачи поступают с одного конца, а результаты появляются с другого, в то время как люди остаются в неведении о внутренней работе.

Но воздушный бой – это вопрос жизни и смерти. В ближайшем будущем пилотам придется тесно сотрудничать с ИИ, иногда даже доверяя этим интеллектуальным машинам свою жизнь. Проблема «черного ящика» не только подрывает доверие людей к машинам, но и препятствует глубокому общению между ними.

Разработанная командой под руководством Чжан Дуна, доцента школы аэронавтики Северо-Западного политехнического университета, новая боевая система искусственного интеллекта может объяснять каждую инструкцию, которую она отправляет диспетчеру полета, с помощью слов, данных и даже диаграмм.

Этот ИИ также может сформулировать значение каждой директивы относительно текущей боевой ситуации, конкретных маневров полета и стоящих за ними тактических намерений.

02:16

Австралийский лидер раскритиковал Китай за «неприемлемое» использование сигнальных ракет возле военного вертолета

Австралийский лидер раскритиковал Китай за «неприемлемое» использование сигнальных ракет возле военного вертолета

Команда Чжана обнаружила, что эта технология открывает пилотам-людям новое окно для взаимодействия с ИИ.

Например, во время сеанса проверки после смоделированной стычки опытный пилот может различить подсказки, которые привели к неудаче в самопрезентации ИИ. Эффективный механизм обратной связи позволяет ИИ, чтобы понять предложения товарищей по команде и обходить подобные ловушки в последующих битвах.

Команда Чжана обнаружила, что этот тип ИИ, который может общаться с людьми «от всего сердца», может достичь почти 100-процентного успеха всего за 20 000 раундов боевой подготовки. Напротив, обычный ИИ «черного ящика» может достичь 90-процентного выигрыша только после 50 000 раундов и изо всех сил пытается улучшиться дальше.

В настоящее время команда Чжана применяет эту технологию только к наземным симуляторам, но будущие приложения будут «распространены на более реалистичные условия воздушного боя», написали они в рецензируемой статье, опубликованной в китайском академическом журнале Acta Aeronautica et Astronautica Sinica. 12 апреля.

В США проблема «черного ящика» уже упоминалась в прошлом как проблема для пилотов.

Американские испытания воздушных боев проводятся между ВВС и Агентством перспективных оборонных исследовательских проектов (США).ДАРПА). Высокопоставленный офицер DARPA признал, что не все пилоты ВВС приветствуют эту идею из-за проблемы «черного ящика».

«Большая трудная задача, которую я пытаюсь решить в своих усилиях здесь, в DARPA, заключается в том, как создать и поддерживать доверие к этим системам, которые традиционно считаются необъяснимыми черными ящиками», — полковник Дэн Яворсек, руководитель программы. — заявил менеджер Управления стратегических технологий DARPA в интервью журналу National Defense Magazine в 2021 году.

DARPA приняло две стратегии, чтобы помочь пилотам преодолеть страх «черного ящика». Один подход позволяет ИИ изначально выполнять более простые задачи более низкого уровня, такие как автоматический выбор наиболее подходящего оружия на основе атрибутов заблокированной цели, что позволяет пилотам запускать его одним нажатием кнопки.

Другой метод предполагает, что высокопоставленные офицеры лично садятся на борт истребителей с искусственным интеллектом, чтобы продемонстрировать свою уверенность и решимость.

Китайский истребитель-невидимка J-20 имеет двухместный вариант, в котором один пилот предназначен для взаимодействия с беспилотными ведомыми, управляемыми искусственным интеллектом. Фото: China Daily через Reuters
Ранее в этом месяце министр ВВС Фрэнк Кендалл совершил часовой полет на F-16, управляемом искусственным интеллектом, на базе ВВС Эдвардс. Приземлившись, он сообщил агентству Associated Press, что у него есть видел достаточно во время своего полета, чтобы доверять этот «все еще обучающийся» ИИ, способный решать, применять ли оружие на войне.

«Отсутствие этого устройства представляет собой угрозу безопасности. На данный момент мы должны это получить», — сказал Кендалл AP.

Угроза безопасности – Китай. В ВВС США сообщили агентству AP, что искусственный интеллект дает им шанс одержать победу над все более растущими угрозами. грозные китайские ВВС в будущем. В то время в отчете говорилось, что, хотя в Китае есть ИИ, нет никаких признаков того, что они открыли метод проведения испытаний помимо симуляторов.

Но согласно документу команды Чжана, китайские военные проводят строгие оценки безопасности и надежности ИИ, настаивая на том, чтобы ИИ был интегрирован в истребители только после раскрытия загадки «черного ящика».

Модели глубокого обучения с подкреплением часто дают результаты принятия решений, которые загадочны для людей, но демонстрируют превосходную боевую эффективность в реальных приложениях. Людям сложно понять и вывести эту структуру принятия решений на основе ранее существовавшего опыта.

«Это создает проблему доверия к решениям ИИ», — пишут Чжан и его коллеги.

«Расшифровка модели «черного ящика», позволяющая людям понимать процесс принятия стратегических решений, понимать намерения маневра дрона и доверять решениям о маневрах, является основой инженерного применения технологии искусственного интеллекта в воздушном бою. Это также подчеркивает главную цель наших исследований», — сказали они.

Команда Чжана продемонстрировала возможности этого ИИ на многочисленных примерах в своем исследовании. Например, в проигрышном сценарии ИИ изначально намеревался подняться и выполнить маневр кобры, за которым последовала последовательность боевых разворотов, кренов элеронов и петлей для поражения вражеского самолета, кульминацией которых стали маневры уклонения, такие как пикирование и выравнивание.

02:17

Китай показал кадры авианосца «Фуцзянь» с усовершенствованной катапультной системой запуска

Китай показал кадры авианосца «Фуцзянь» с усовершенствованной катапультной системой запуска

Но опытный пилот мог быстро заметить недостатки в этой радикальной комбинации маневров. Последовательные наборы высоты, боевые развороты, повороты элеронов и пикирования привели к резкому падению скорости дрона во время боя, и в конечном итоге он не смог оторваться от противника.

А вот инструкция ИИ, написанная в статье: «Снижение скорости в результате последовательных радикальных маневров является виновником поражения в воздушном бою, и подобных решений следует избегать в будущем».

В другом раунде, где пилот-человек обычно применял такие методы, как атаки с боковым вращением, чтобы найти эффективные позиции для уничтожения самолетов противника, ИИ использовал масштабные маневры, чтобы спровоцировать противника, рано вошел в фазу бокового витка и использовал горизонтальный полет в заключительный этап введения противника в заблуждение, достижение критического победного удара с помощью внезапных крупных маневров.

Проанализировав намерения ИИ, исследователи обнаружили тонкий маневр, который оказался решающим во время тупиковой ситуации.

ИИ «применил тактику выравнивания и вращения, сохраняя свою скорость и высоту, одновременно заставляя противника радикально менять направление, истощая его остаточную кинетическую энергию и подготавливая почву для последующих маневров по петле для проведения контратаки», написала команда Чжана. .

Северо-Западный политехнический университет – один из важнейших университетов Китая. военный базы технологических исследований. Правительство США ввело против него строгие санкции и неоднократно предпринимало попытки проникнуть в его сетевую систему, что вызвало решительные протесты со стороны правительства Китая.

Но похоже, что санкции США не оказали очевидного влияния на обмен мнениями между командой Чжана и их международными коллегами. Они использовали новые алгоритмы, которыми американские учёные поделились на глобальных конференциях, а также раскрыли свои инновационные алгоритмы и основы в своей статье.

Некоторые военные эксперты полагают, что китайские военные более заинтересованы в создании Гуаньси – связь – между ИИ и людьми-бойцами, чем их американскими коллегами.

Например, китайский истребитель-невидимка J-20 может похвастаться двухместным вариантом, в котором один пилот предназначен для взаимодействия с беспилотными ведомыми, управляемыми искусственным интеллектом, — возможность, которая в настоящее время отсутствует в американских истребителях F-22 и F-35.

Но физик из Пекина, пожелавший остаться неназванным из-за деликатности вопроса, заявил, что новая технология может стереть грань между людьми и машинами.

«Это может открыть ящик Пандоры», — сказал он.

Перейти к эмитенту новости