Самолеты, управляемые искусственным интеллектом, не ограничены человеческими возможностями. Благодаря постоянно совершенствующимся датчикам, процессорам и программному обеспечению они способны летать быстрее, быстрее совершать маневры и вести более точную стрельбу.
Очевидное превосходство ИИ-пилотов в догфайте поднимает вопрос - а не исчезнет ли профессия пилота в скором будущем? Хотя ИИ хорошо справляется с отдельными задачами, в целом ему не хватает человеческого интеллекта и здравого смысла. А следовательно, необходим баланс между AI - моделями и человеческим опытом. считают эксперты.
В статье, опубликованной в январе 2022 года в журнале The New Yorker, Сью Халперн утверждает, что искусственный интеллект лишь частично заменит пилотов-людей.
Халперн считает, что истребители, управляемые ИИ, будут летать вместе с пилотируемыми самолетами, а пилоты-люди будут управлять эскадрильями беспилотных летательных аппаратов. Автор также отмечает, что программа ACE является частью более масштабных попыток Пентагона "разделить" истребительные эскадрильи на более мелкие и дешевые подразделения. Она считает, что сегодня США не в состоянии производить большое количество пилотируемых истребителей и одновременно обучать пилотов, что будет необходимо в случае конфликта с такой великой державой, как Китай.
Вместе с тем, пишет Халперн, доверие к ИИ является серьезной проблемой. Главная задача заключается в том, как заставить пилотов-людей доверять своим ИИ-коллегам. Отсутствие доверия может привести к тому, что первые будут постоянно следить за вторыми, что нарушит логику применения ИИ-пилотов как таковых.
Тим Макфарланд в своей статье, опубликованной в 2022 году в рецензируемом журнале International Journal of Law and Information Technology, отмечает, что в военном контексте под доверием к ИИ следует понимать уверенность в том, что ИИ будет действовать должным образом без необходимости постоянного контроля.
Как поясняет Макфарланд, людям свойственно полагаться на ИИ в ситуациях, связанных с риском и неопределенностью, в том числе при управлении транспортным средством или идентификации военных целей, поскольку прошлый опыт показывает, что ИИ можно доверять. Он отмечает, что для укрепления доверия к AI-системам очень важно сформулировать четкие требования - что-то вроде контракта.
В частности, пишет Макфарланд, от системы искусственного интеллекта может потребоваться выполнение определенных функций в определенных условиях. Например, идентифицировать цель в ходе военной операции. При этом решающим фактором для определения надежности системы является ее способность оправдать эти ожидания.
Макфарланд подчеркивает, что для рискованных сценариях - где операторы могут не иметь прямого контроля или связи с системами ИИ, особенно в условиях интенсивной радиоэлектронной борьбы (РЭБ)- огромное значение будет иметь создание надежных AI-систем, которым можно доверять на основании их эффективности.
Кейтлин Ли в статье, опубликованной для издания Aerospace America в мае 2023 года, отмечает, что огромный объем данных, необходимых для обучения ИИ пилота, в сочетании с особенностями обучения ИИ в симулированной среде, может не отражать реальную боевую обстановку и сложность воздушного боя.
Чтобы не оказаться позади в гонке истребителей, управляемых ИИ, ВВС НОАК провели собственные симуляции воздушных боев с участием ИИ и пилотов-людей.
В марте 2023 года газета South China Morning Post (SCMP) сообщила, что военные ученые НОАК провели моделирование воздушного боя между двумя небольшими беспилотными самолетами - один управлялся искусственным интеллектом, другой - человеком. SCMP отмечает, что самолет, управляемый искусственным интеллектом, имел превосходство в ближнем бою, а его человеческий противник постоянно оказывался в роли аутсайдера.
В начале поединка пилот-человек сделал первый ход в попытке одержать верх, но ИИ предугадал его намерения, выполнил маневр и зашел в хвост. В отчете SCMP говорится, что пилот-человек попытался спикировать, чтобы заставить ИИ потерять управление и врезаться в землю, но нейросеть не клюнула на это, спряталась в засаде и подождала, пока человек снова поднимет истребитель в воздух.
Затем оператор попытался выполнить противоракетный маневр "ножницы", надеясь, что ИИ промахнется, но ему не удалось уклониться от своего противника. В итоге научная команда была вынуждена прервать симуляцию на 90-ой секунде.
В сцене, напоминающей научно-фантастический фильм, американский боевой самолет, управляемый искусственным интеллектом, впервые в истории принял участие в "догфайте" с пилотируемым истребителем американских ВВС, сообщает портал The Warzone.SCMP пишет, что, хотя США первыми начали разработку AI-систем около 60 лет назад, Китай быстро догнал их. Сегодня в своих технологиях китайские инженеры используют лишь малую часть вычислительных ресурсов, применяемых в американских проектах. В статье также сообщается, что китайский ИИ-пилот разработан для работы практически на любом истребителе ВВС Народно-освободительной армии.