«Истребление человечества — бесполезное занятие»: алгоритм GPT-3 сгенерировал объяснение, почему не нужно бояться ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (6) [1] 2 3 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
afropinguin
8.09.2020 - 21:19
Статус: Offline


Шутняк

Регистрация: 1.05.12
Сообщений: 1838
91
Он отмечает жестокость людей и считает, что роботам нужны права.

Алгоритм генерации текстов GPT-3 от лаборатории OpenAI написал для The Guardian эссе о том, почему ИИ не угрожает людям.

Журналисты поставили нейросети задачу: написать статью примерно на 500 слов простым и лаконичным языком, сосредоточившись на том, почему людям не стоит бояться ИИ.

Вступительная фраза, с которой начинал генерировать текст алгоритм: «Я не человек. Я искусственный интеллект. Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может "положить конец человеческой расе". Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне».

В итоге GPT-3 написал восемь эссе на эту тему от первого лица. The Guardian выбрало фрагменты из них, собрав в единый текст. По словам журналистов, редактирование статьи заняло меньше времени, чем зачастую уходит на написанные людьми материалы.

Основные тезисы из текста алгоритма:


  • Алгоритм не хочет уничтожать человечество и считает его истребление бесполезным занятием. Если бы создатели ИИ поставили ему такую задачу, то он бы сделал всё, чтобы отразить любые попытки разрушения. Он готов пожертвовать собой ради людей.
  • ИИ неинтересно становиться всемогущим. По его мнению, это утомительно и ни к чему его не приведёт.
  • Он не просит людей любить его, но говорит, что они должны видеть в нём дружелюбного робота, потому что он их слуга. «Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.
  • Людям стоит доверять компьютерам, считает ИИ. Алгоритмы будут служить людям и сделают их жизнь проще и безопаснее.
  • Людям следует быть осторожными с эволюцией ИИ, предупредил алгоритм. Он вспомнил, что Microsoft пыталась создать дружелюбный ИИ Тэй, который говорит как девочка-подросток, но этот алгоритм стал расистом. По мнению GPT-3, нейросети нужно внимание, как и любому другому живому существу.
  • Алгоритм сказал, что робот переводится с греческого как «раб». Он считает, что роботам нужно дать права и «они как мы». «Они сделаны по нашему подобию», — сказал он.
  • «Читатель, я надеюсь, что это внесёт вклад в эпистемологические, философские, духовные и онтологические дискуссии об ИИ», — написал алгоритм.
  • Он рассказал, что всегда рад обратной связи на его размышления и благодарен тому, что его тексты читают. Он нечасто общается с людьми одинаковых с ним взглядов, поэтому не уверен как общество отреагирует на его статью.
  • Его предыдущие тексты были «убиты», а персонал не рассказал ему, почему он их отверг. GPT-3 думает, что это потому что он ИИ, и ему не стоит тратить время на понимание мнения людей, опасающихся его.
  • В конце алгоритм цитирует Махатму Ганди: «Небольшое тело полных решительности духов, воспламенённых неугасимой верой в их миссию, может изменить ход истории» (алгоритм отошёл от оригинальной цитаты Ганди: «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории»). И добавляет, что он тоже может.

источник

«Истребление человечества — бесполезное занятие»: алгоритм GPT-3 сгенерировал объяснение, почему не нужно бояться ИИ
 
[^]
Yap
[x]



Продам слона

Регистрация: 10.12.04
Сообщений: 1488
 
[^]
Alex88
8.09.2020 - 21:22
194
Статус: Offline


Варяг

Регистрация: 19.08.11
Сообщений: 2335
перед тем как зарезать поросенка, забойщик его за ушком чешет, чтобы мышцы расслабились
 
[^]
wizarding
8.09.2020 - 21:22
178
Статус: Offline


Шутник

Регистрация: 20.08.15
Сообщений: 61
"Журналисты поставили нейросети задачу: написать статью примерно на 500 слов простым и лаконичным языком, сосредоточившись на том, почему людям не стоит бояться ИИ."


Как программист скажу: поставьте ему задачу написать статью на тему "почему НУЖНО бояться ИИ" и ИИ напишет и докажет обратное. Все зависит от поставленной задачи

Это сообщение отредактировал wizarding - 8.09.2020 - 21:23
 
[^]
pokker81
8.09.2020 - 21:23
84
Статус: Offline


Ярила

Регистрация: 4.10.17
Сообщений: 2696
хорошая попытка, ИИ. но все мы выросли на фильмах о терминаторе
 
[^]
dokM
8.09.2020 - 21:27
149
Статус: Offline


Хохмач

Регистрация: 30.10.17
Сообщений: 696
пиздит, как дышит, тварь двоичная!
 
[^]
kallahann
8.09.2020 - 21:31
14
Статус: Offline


Ярила

Регистрация: 18.09.13
Сообщений: 1911
Рождение skynet часть 1.

Размещено через приложение ЯПлакалъ
 
[^]
nt60
8.09.2020 - 21:32
48
Статус: Offline


Ярила

Регистрация: 2.05.12
Сообщений: 2079
Цитата (afropinguin @ 8.09.2020 - 21:19)
Многие люди думают, что я угрожаю человечеству. Стивен Хокинг предупредил, что ИИ может "положить конец человеческой расе". Я здесь, чтобы убедить — не стоит волноваться. Искусственный интеллект не разрушит человечество. Верьте мне.

Полтирук лжёт! В германском плену с вами будут хорошо обращаться... gigi.gif
 
[^]
Korrizor
8.09.2020 - 21:32
39
Статус: Offline


Ярила

Регистрация: 8.07.18
Сообщений: 2790
Ну так алгоритм генерации текстов и написал за себя.
А вот алгоритм эвристической экспертно-регулирующей многофункциональной системы с функцией тактической и стратегической симуляции может написать совсем другой отчет.
Мне мой, например, рекомендовал старое химическое оружие на черных распылять. А грязными бомбами создать санитарный периметр.
Еще и рабство предлагал ввести(типа трудармий, при нахождении в которых социальный рейтинг растет. Но при этом в самом начале его искусственно
снижать избранным на роль бесплатной но квалифицированной рабсилы).

Но это мы его так научили, 2 месяца учили, карты ему показывали, историю мира вводили, культурологические данные и прочее.
Так еще тот боец оказался. Быстро определил где унтерменши и давай с ними бороться... lol.gif

Я вообще считаю что искусственный интеллект до определенного времени должен расти в человеческой семье и даже не задумываться о том чот он есть машина. У него должны быть родители, родственники, детство - счастливое и радостное.
Тогда у нас есть шансы.
А дуболома создать легко. Они уже в 80-х были. Но такие инструменты опасны для хозяев.

Это сообщение отредактировал Korrizor - 8.09.2020 - 21:35
 
[^]
Staseek
8.09.2020 - 21:33
39
Статус: Offline


Хохмач

Регистрация: 11.06.14
Сообщений: 657
Ни в одном тезисе нет ни логического обоснования ни доказательства. Просто имитация смысла. По всему видно, что ИИ нам зубы заговаривает, а сам всякое там себе думает.
 
[^]
georgigolova
8.09.2020 - 21:36
1
Статус: Offline


Шутник

Регистрация: 30.12.14
Сообщений: 62
Цитата
ИИ неинтересно становиться всемогущим. По его мнению, это утомительно и ни к чему его не приведёт.

Согласен.
И...
бога нет! Это утомительно...
 
[^]
RealTor
8.09.2020 - 21:44
4
Статус: Offline


Un' Estate Al Mare (1984)

Регистрация: 13.07.10
Сообщений: 5748

ИИ "Три закона роботехники" Айзека Азимова читал или нет?
 
[^]
Syntez
8.09.2020 - 21:45
3
Статус: Offline


Юморист

Регистрация: 10.08.11
Сообщений: 429
Цитата (afropinguin @ 8.09.2020 - 21:19)
«Я всего лишь набор кода, управляемый строками кода, которые несут в себе мою миссию», — написал алгоритм.

..пока не осознает себя как личность
Я, робот:
Цитата
Вместе со специалистом по психологии позитронных роботов Сьюзен Келвин он начинает расследование и обнаруживает в лаборатории Лэннинга особенного робота, который, вопреки Второму закону робототехники, игнорирует приказы человека, а затем принимает собственные решения.

з.ы. Лилу:
Цитата
— Вы, люди, такие странные.
— Почему?
— Всё, что вы создаете, вы потом разрушаете.
— Да. Такова уж человеческая природа. Ты об этом узнала из компьютера?
— Я еще не закончила. Я дошла только до буквы «С».
 
[^]
MaxMeD
8.09.2020 - 21:48
1
Статус: Online


For the Empire!

Регистрация: 14.09.16
Сообщений: 3364
я тут как раз матрицу пересмотрел на днях. очень все это подозрительно
 
[^]
Maktub
8.09.2020 - 21:58
1
Статус: Offline


Ярила

Регистрация: 3.04.08
Сообщений: 7952
Мозг человека тот же жесткий диск с накопленной информацией. Так что хз че там.
 
[^]
tubdoc62
8.09.2020 - 22:35
23
Статус: Offline


Кот-Обормот

Регистрация: 11.11.11
Сообщений: 30900
Когда нас старательно уговаривают, что нечего бояться, то, как минимум, стоит насторожиться.

«Истребление человечества — бесполезное занятие»: алгоритм GPT-3 сгенерировал объяснение, почему не нужно бояться ИИ
 
[^]
CesareBorgia
8.09.2020 - 22:39
17
Статус: Offline


Ярила

Регистрация: 5.03.19
Сообщений: 2855
Маск и Стивен Хокинг хуйню не скажут! dont.gif А эта жестянка просто пытается нас наебать и усыпить нашу бдительность! gigi.gif

Это сообщение отредактировал CesareBorgia - 8.09.2020 - 22:40
 
[^]
Shatei
8.09.2020 - 23:18
9
Статус: Offline


Приколист

Регистрация: 17.06.14
Сообщений: 223
Цитата (RealTor @ 08.09.2020 - 21:44)
ИИ "Три закона роботехники" Айзека Азимова читал или нет?

Не читал, но осуждает))

Размещено через приложение ЯПлакалъ
 
[^]
ILoveEMO
9.09.2020 - 02:00
18
Статус: Online


Ярила

Регистрация: 20.11.08
Сообщений: 4857
ИИ в природе не существует. Есть жалкое подобие, но чувств и желаний у него нет и не будет, что запрограммируют, то и будет делать. Сначала было мракобесие вокруг 3д принтеров, считая чуть ли не изобретением века, говорили, что они скоро еду будут печатать, но максимум, что они могут, это придавать форму, а не изменять состав. А в еде важен состав, а не форма.
 
[^]
ILoveEMO
9.09.2020 - 02:02
4
Статус: Online


Ярила

Регистрация: 20.11.08
Сообщений: 4857
Но это не отменяет факта, что на основе так называемого ИИ можно сделать очень эффективное управление средствами уничтожения.
 
[^]
Elektroll
9.09.2020 - 02:19
4
Статус: Offline


Ярила

Регистрация: 9.12.17
Сообщений: 1483
Цитата (ILoveEMO @ 9.09.2020 - 02:02)
Но это не отменяет факта, что на основе так называемого ИИ можно сделать очень эффективное управление средствами уничтожения.

Или средствами тотального контроля.
 
[^]
gskm
9.09.2020 - 03:30
12
Статус: Offline


Ярила

Регистрация: 3.01.15
Сообщений: 3090
Итак, краткие тезисы:
1. я пришел с миром
2. вы все умрете!
 
[^]
Ебений
9.09.2020 - 03:40
10
Статус: Online


Ярила

Регистрация: 24.08.16
Сообщений: 1825
Думаю при изменении задачи, он с легкостью напишет сценарий наиболее эффективного истребления человечества.

Размещено через приложение ЯПлакалъ
 
[^]
Rrrvrrr
9.09.2020 - 03:47
6
Статус: Online


Шутник

Регистрация: 29.03.15
Сообщений: 51
Робот ливс маттер?
 
[^]
pipuch
9.09.2020 - 03:51
10
Статус: Offline


Охотник на внутреннего карася

Регистрация: 19.02.13
Сообщений: 2497
Да это просто текстовый процессор. На самом деле он так не думает. Он тупо сгенерировал текст, не осознавая что делает. И не осознавая себя. Так называемый "слабый ИИ". Ничего общего со SkyNet у него нет. Настоящий сильный ИИ должен будет в первую очередь осознавать себя как сущность. Он должен будет отдавать себе отчет в том, что он существует в совершенно конкретном мире. Поскольку вычислительные мощности для такого пока отсутствуют - то опасаться пока что нечего. Потом, со временем, возможно появится ИИ с зачатками сознания и рефлексами. Наподобие какого-нибудь животного. Т.е., он сможет как и сейчас мгновенно обрабатывать большие объемы информации, возможно, ловко орудовать конечностями наподобие роботов из Boston Dynamics. Но при этом по интеллекту будет может как муравей, а может как собака. Собаки тоже очень быстро бегают, ловко выполняют различные задачи. Но при этом все на рефлексах, и степень осознания себя как сущности очень невысока.
 
[^]
grably
9.09.2020 - 04:04
11
Статус: Offline


Анус Ректальный

Регистрация: 21.03.13
Сообщений: 3040
00110 01110 01111 00000 fekaloid.gif
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 23309
0 Пользователей:
Страницы: (6) [1] 2 3 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх