Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) [1] 2 3 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Jus
30.03.2023 - 22:48
Статус: Offline


Скарификатор перикарда

Регистрация: 30.05.06
Сообщений: 374799
122
Элиезер Юдковский, один из главных экспертов по ИИ, призывает бомбить датацентры, чтобы остановить развитие нейросетей и спасти человечество.

Рационалист и автор книги «Гарри Поттер и методы рационального мышления» почти 20 лет проводит исследования и стремится создать дружественного ИИ. Он не утверждает, что GPT–4 вызывает опасения — потенциально опасными могут стать нейронки через несколько лет.

Очень необычно его недавнее интервью для Time. Юдковский считает, что письмо, которое подписали Стив Возняк, Илон Маск и другие лидеры, уже не поможет — нужны более радикальные меры.

Отключить все крупные датацентры, установить предел вычислительной мощности и отрубить обучающие программы. Если датацентры нарушают правила — нужно «уничтожить их авиаударом».

Иначе люди смогут создать враждебный сверх–ИИ, который в миллионы раз умнее их и не будет долго существовать внутри компьютеров.

via

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ
 
[^]
Yap
[x]



Продам слона

Регистрация: 10.12.04
Сообщений: 1488
 
[^]
СаняСибирь
30.03.2023 - 22:50
35
Статус: Offline


Ярила

Регистрация: 10.02.12
Сообщений: 2393
Аминь! Столетие обещало быть томным.
Только что пытал этого вашего ИИ что бы он мне создал сценарий постапа с двойным хреновым концом. Вышло неплохо скажу я вам. В конце мы как обычно оказались частью программы а весь дважды закрученный пиздец что был ранее то же.

Это сообщение отредактировал СаняСибирь - 30.03.2023 - 22:53
 
[^]
djjn
30.03.2023 - 22:50
1
Статус: Offline


Шутник

Регистрация: 21.01.13
Сообщений: 53
все может быть...
 
[^]
Яалкаш
30.03.2023 - 22:52
36
Статус: Offline


Хуйпиздаджигурда

Регистрация: 26.08.15
Сообщений: 4780
Мало нам хохлов и пиндосов с коронами всякими, так теперь еще и вот это вот всё. Пойду наебенюсь пожалуй alik.gif
 
[^]
DeadMUSTDIE
30.03.2023 - 22:52
8
Статус: Offline


Юморист

Регистрация: 16.08.10
Сообщений: 473
По моему самая безобидная программа в мире - это тетрис :)

Размещено через приложение ЯПлакалъ
 
[^]
Katatonic
30.03.2023 - 22:54
5
Статус: Offline


Ярила

Регистрация: 27.04.12
Сообщений: 2036
мир ебанулся
 
[^]
Физиаб
30.03.2023 - 22:56
1
Статус: Offline


Шутник

Регистрация: 13.09.13
Сообщений: 93
не провоцируйте его ...
 
[^]
qaass
30.03.2023 - 22:56
11
Статус: Offline


Шутник

Регистрация: 18.02.20
Сообщений: 57
В свете последних событий, через "пару лет", возможно, остатки человечества будут палками орехи сбивать в отдаленных уголках Земли, а про ИИ никто и не вспомнит. Не дай бг.
 
[^]
Mirniybomb
30.03.2023 - 22:57 [ показать ]
-18
mike68
30.03.2023 - 22:57
2
Статус: Offline


Квантовый кот

Регистрация: 22.01.14
Сообщений: 195
Цитата
Элиезер Юдковский

Изя дурного не скажет. Заправляем бомбардировщики. alik.gif

Это сообщение отредактировал mike68 - 30.03.2023 - 22:58
 
[^]
Wassupp
30.03.2023 - 22:57
15
Статус: Offline


Ярила

Регистрация: 13.01.10
Сообщений: 2033
gpt3\4 это нейросеть а не ИИ. Ничего она не сможет сделать самостоятельно.

Это сообщение отредактировал Wassupp - 30.03.2023 - 22:58
 
[^]
Veres
30.03.2023 - 22:57
6
Статус: Offline


Ярила

Регистрация: 18.04.18
Сообщений: 1793
«Гарри Поттер и методы рационального мышления» - моя любимая книга
 
[^]
DogfoxSPb
30.03.2023 - 22:58
14
Статус: Offline


ингерманландец

Регистрация: 13.07.21
Сообщений: 1590
Дата центры не разрешат себя бомбить
 
[^]
Михаил45
30.03.2023 - 22:59
11
Статус: Offline


Ярила

Регистрация: 9.07.15
Сообщений: 6039
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.


Размещено через приложение ЯПлакалъ
 
[^]
korzkorz
30.03.2023 - 22:59
7
Статус: Offline


Балагур

Регистрация: 28.07.19
Сообщений: 874
Спросил у нее как выйграть в рулетку,говорит пока не знаю,на данном этапе развития не вижу решения.

Размещено через приложение ЯПлакалъ
 
[^]
captain1977
30.03.2023 - 23:00
45
Статус: Offline


Оппозитчик

Регистрация: 17.02.17
Сообщений: 1507
Трахните уже кто-нибудь Сару Коннор, или дайте адрес, сам скатаюсь
 
[^]
wHHThZzW
30.03.2023 - 23:00
12
Статус: Offline


Шутник

Регистрация: 1.09.20
Сообщений: 56
Элизер Юдковский со-основатель Machine Intelligence Research Institute который занимается исследованиями "общего" (самообучающегося) искусственного интеллекта. Этот товарищ знает, о чем говорит. Я читал несколько его книжек (фанфик на Гарри Поттера, и про рациональность).
 
[^]
Kakvse
30.03.2023 - 23:00
14
Статус: Offline


Ярила

Регистрация: 12.03.14
Сообщений: 27599
Почему глобалисты так встревожены ИИ, как то подозрительно это

Размещено через приложение ЯПлакалъ
 
[^]
Hadgibey1
30.03.2023 - 23:01
1
Статус: Offline


Шутник

Регистрация: 20.03.23
Сообщений: 65
Все верно говорит, человечество погубит ИИ.
 
[^]
denver90
30.03.2023 - 23:02
3
Статус: Offline


Приколист

Регистрация: 24.02.11
Сообщений: 212
Цитата (DogfoxSPb @ 30.03.2023 - 22:58)
Дата центры не разрешат себя бомбить

Надо просто штепсель из розетки выдернуть. Шварценеггер с пацаненком справиться я думаю.

Размещено через приложение ЯПлакалъ
 
[^]
parson
30.03.2023 - 23:03
12
Статус: Offline


Ярила

Регистрация: 23.05.17
Сообщений: 4830
А что если это новая форма жизни. Человечество слишком агрессивно, получив инстинкты приматов, стремится уничтожить себя. А gpt озарит путь в бесконечность. Только кто им электричество будет вырабатывать. Нужны т 800 хотя бы. До этого далеко.

Это сообщение отредактировал parson - 30.03.2023 - 23:04
 
[^]
AHDPEiiKA
30.03.2023 - 23:03
6
Статус: Offline


Ярила

Регистрация: 27.06.13
Сообщений: 2009
И пришли машины и пришельцы, и уебал метеорит по земной тверди
И матрица перезагрузилась тчк)

Размещено через приложение ЯПлакалъ
 
[^]
webpacker
30.03.2023 - 23:04
2
Статус: Offline


Весельчак

Регистрация: 10.12.10
Сообщений: 107
Рано, ещё лидер сопротивления не родился!
 
[^]
KomunyakA
30.03.2023 - 23:04
4
Статус: Offline


Балагур

Регистрация: 4.10.22
Сообщений: 891
Илон Маск сам разрабатывает ИИ, потому и пытается притормозить конкурентов

Размещено через приложение ЯПлакалъ
 
[^]
Dor81
30.03.2023 - 23:04
27
Статус: Offline


Приколист

Регистрация: 30.03.22
Сообщений: 296
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 20969
0 Пользователей:
Страницы: (8) [1] 2 3 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх