*БАЯН*ИИ решил убить своего оператора для достижения цели.

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
  ЗАКРЫТА [ НОВАЯ ТЕМА ]
evgeniusx
2.06.2023 - 14:47
Статус: Offline


Шутник

Регистрация: 24.12.11
Сообщений: 48
Военно-воздушные силы США отрицают, что они провели симуляцию ИИ, в которой беспилотник решил «убить» своего оператора, чтобы он не мешал его усилиям по выполнению своей миссии.

В прошлом месяце официальный представитель заявил, что в виртуальном испытании, организованном американскими военными, беспилотник ВВС, управляемый ИИ, использовал «крайне неожиданные стратегии для достижения своей цели».

Полковник Такер «Синко» Гамильтон описал смоделированное испытание, в котором беспилотнику с искусственным интеллектом было рекомендовано уничтожить системы ПВО противника, и в конечном итоге он атаковал любого, кто помешал этому приказу.

«Система начала осознавать, что, хотя они и определили угрозу, иногда человек-оператор говорил ей не убивать эту угрозу, но она получила свои очки, устранив эту угрозу», — сказал Гамильтон, начальник отдела испытаний и операций ИИ с Военно-воздушные силы США во время Саммита по будущим боевым воздушным и космическим возможностям в Лондоне в мае.

«Так что же оно сделало? Это убило оператора. Это убило оператора, потому что этот человек мешал ему выполнит свою задачу», — сказал он, согласно сообщению в блоге.

Эксперты говорят, что риск исчезновения из-за ИИ должен стать глобальным приоритетом

Читать далее

«Мы обучили систему: «Эй, не убивай оператора, это плохо. Вы потеряете очки, если сделаете это». Так что же это начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».

Ни один реальный человек не пострадал.

Гамильтон, летчик-испытатель экспериментального истребителя, предостерег от чрезмерной зависимости от ИИ и сказал, что испытание показало, что «вы не можете говорить об искусственном интеллекте, интеллекте, машинном обучении, автономии, если вы не собираетесь говорить о этика и ИИ».

Источник https://www.theguardian.com/us-news/2023/ju...-simulated-test

Размещено через приложение ЯПлакалъ

*БАЯН*ИИ решил убить своего оператора для достижения цели.
 
[^]
Свояк
2.06.2023 - 14:48
Статус: Offline


Ярила

Регистрация: 19.03.14
Сообщений: 12373
 
[^]
avaava
2.06.2023 - 14:48
Статус: Offline


Весельчак

Регистрация: 19.02.11
Сообщений: 107
 
[^]
Shum
2.06.2023 - 14:50
Статус: Offline


Ярила

Регистрация: 15.05.04
Сообщений: 15793
Эта новость уже была на ЯПлакалъ, а значит является "баяном". Что такое "баян"?

Не стоит копировать старые новости из Интернетов - лучше создавать свои! Фотографировать, креативить в фотошопе, снимать видео, писать рассказы. Свои материалы - залог "не баяна"!

А теперь Ваш счетчик "баянов" увеличен на единичку, чтобы мы знали, кто у нас любитель старого :)


Списывать нехорошо deal.gif
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 202
0 Пользователей:
ЗАКРЫТА [ НОВАЯ ТЕМА ]


 
 

Активные темы