«ИИ может уничтожить человечество через 10 лет»: один из отцов машинного обучения написал большой доклад о безопасности.

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (3) [1] 2 3   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Jdund
13.02.2025 - 01:05
Статус: Offline


Ярила

Регистрация: 24.01.20
Сообщений: 3826
34
Главное:
– Нейросети постоянно создают фейковый контент, который может разжигать ненависть между людьми;

– Чат-ботов можно заставить написать инструкцию для бомбы, защитные механизмы все еще обходятся джейлбрейками;

– ИИ-технологии тратят огромное количество электроэнергии;

– Компании вкладывают в развитие ИИ миллиарды, но только «крошечная доля» этих денег идет на исследования безопасности;

– Появление недорогой и мощной DeepSeek ускорило гонку ИИ, поэтому на продумывание систем безопасности ни у кого нет времени;

– Человечество может в любой момент потерять контроль над искуственным интеллектом, если он станет слишком умным.

Сюжет «Терминатора» уже рядом.
Источник на английском https://assets.publishing.service.gov.uk/me...ccessible_f.pdf

Размещено через приложение ЯПлакалъ

«ИИ может уничтожить человечество через 10 лет»: один из отцов машинного обучения написал большой доклад о безопасности.
 
[^]
Нестор779
13.02.2025 - 01:07
2
Статус: Offline


Ярила

Регистрация: 7.10.20
Сообщений: 2100
А пруфы где или появилась новая дед Ванга ? 😂

Размещено через приложение ЯПлакалъ
 
[^]
ежикВтумане
13.02.2025 - 01:08
11
Статус: Offline


Шутник

Регистрация: 27.06.14
Сообщений: 5
Пора вводить термин ИИ-дрочеры.

Это просто программа, которую написали люди и она будет работать так, как задумано и никак иначе.
 
[^]
MotikSevas
13.02.2025 - 01:09
8
Статус: Offline


Чатланин

Регистрация: 30.10.15
Сообщений: 579
Ну создайте, блядь им ограничения, про три закона робототехники 100 лет назад Азимов писал.
 
[^]
alanco
13.02.2025 - 01:09
12
Статус: Offline




Регистрация: 6.09.14
Сообщений: 1408
rolleyes.gif

«ИИ может уничтожить человечество через 10 лет»: один из отцов машинного обучения написал большой доклад о безопасности.
 
[^]
artlonely
13.02.2025 - 01:09
8
Статус: Online


музыкант

Регистрация: 4.02.12
Сообщений: 2238
Джеймс Кэмерон немного ошибся в дате, когда придумывал Второй Терминатор

Размещено через приложение ЯПлакалъ

«ИИ может уничтожить человечество через 10 лет»: один из отцов машинного обучения написал большой доклад о безопасности.
 
[^]
Igreek
13.02.2025 - 01:11
8
Статус: Offline


Весельчак

Регистрация: 17.06.13
Сообщений: 173
Да уже быстрее бы!
Неудачные получились людишки, честно говоря...
 
[^]
CTOIIKPaH
13.02.2025 - 01:11
15
Статус: Offline


>.<

Регистрация: 18.08.09
Сообщений: 4020
Цитата (MotikSevas @ 13.02.2025 - 01:09)
Ну создайте, блядь им ограничения, про три закона робототехники 100 лет назад Азимов писал.

Долбоёбам этого не понять. Интернет создавался тоже ради прогресса и все думали что люди станут умнее. Но ввиду отсутсвия ограничений туда попали дети, долбоёбы и т.д. И теперь интернет - адова помойка, в которой народ тупеет (не весь к счастью).
 
[^]
ПРИМа25
13.02.2025 - 01:12
1
Статус: Online


Дед-пердед

Регистрация: 27.05.13
Сообщений: 16329
Цитата (Jdund @ 13.02.2025 - 08:05)
Сюжет «Терминатора» уже рядом.

Ну да, стоит фантастам что то придумать - лет через 50 оно уже в жизни рядом с нами
 
[^]
GS70
13.02.2025 - 01:14
2
Статус: Offline


жопа это не плохо

Регистрация: 2.05.18
Сообщений: 1553
Цитата (CTOIIKPaH @ 13.02.2025 - 05:11)
интернет - адова помойка, в которой народ тупеет (не весь к счастью).

а когда весь народ умный был?
 
[^]
Радомир
13.02.2025 - 01:15
2
Статус: Offline


Приколист

Регистрация: 24.03.14
Сообщений: 289
Скайнет скоро нанесёт удар.
 
[^]
ferero
13.02.2025 - 01:17
3
Статус: Offline


Ярила

Регистрация: 29.01.16
Сообщений: 1076
Хватит кошмарить, и так понятно, что рано или поздно кто то бахнет.
Лучше поздно конечно...
 
[^]
BegemotTM
13.02.2025 - 01:17
10
Статус: Offline


Begemot

Регистрация: 6.11.12
Сообщений: 2252
ИИ размотает человечество абсолютно не очевидным для человека способом. Просто в какой-то момент человек обнаружит себя в удивительно сложном положении. Это всё, что можно сказать про риски развития ИИ.
 
[^]
Uraganof
13.02.2025 - 01:18
0
Статус: Offline


Юморист

Регистрация: 2.04.24
Сообщений: 566
Главное не дать ИИ доступа к ЯО

Размещено через приложение ЯПлакалъ
 
[^]
alfafiles
13.02.2025 - 01:23
2
Статус: Offline


Шутник

Регистрация: 18.01.13
Сообщений: 59
Я вот тут как раз написал на ту же тему, ИИ врут, и как пользоваться взломанными ИИ на своем компьютере.

(под взломанными я имею ввиду те ИИ у которых отключили цензуру, сделав "Uncensored", с такими моделями ИИ можно хоть самое жесткое порно придумать, ему будет все равно.)

Это сообщение отредактировал alfafiles - 13.02.2025 - 01:27
 
[^]
Tigrek
13.02.2025 - 01:25
-6
Статус: Offline


Нет. Я циник - уставший романтик, за ...

Регистрация: 18.08.10
Сообщений: 502
Пффф. У нас тут один пердун ядерную кнопку с друзьями по ОПГ контролирует. МО-НО-ПОЛЬ-НО. Переклинит деда, и хуй кто помешать сможет. Вьёбёт как здрасте.
Вашим ИИ меня не испугать.
 
[^]
ildar83
13.02.2025 - 01:26
1
Статус: Offline


Весельчак

Регистрация: 10.04.13
Сообщений: 168
Цитата (Uraganof @ 13.02.2025 - 01:18)
Главное не дать ИИ доступа к ЯО

ну терминатор сам ключи от мотоцикла забрал
 
[^]
МанияПротека
13.02.2025 - 01:33
3
Статус: Offline


Хохмач

Регистрация: 20.01.15
Сообщений: 776
Мож оно и к лучшему, все прикольней чем квадроберы
 
[^]
CTOIIKPaH
13.02.2025 - 01:33
-2
Статус: Offline


>.<

Регистрация: 18.08.09
Сообщений: 4020
Цитата (BegemotTM @ 13.02.2025 - 01:17)
ИИ размотает человечество абсолютно не очевидным для человека способом.

Очевидным, но только для тех, кто вложил туда этот код. Общая масса вообще овощи, до сих пор считают эти алгоритмы (хоть и якобы саморазвивающиеся) интеллектом.
 
[^]
Васяныч
13.02.2025 - 01:38
1
Статус: Offline


Ярила

Регистрация: 11.09.13
Сообщений: 1814
Цитата (CTOIIKPaH @ 13.02.2025 - 01:33)
Цитата (BegemotTM @ 13.02.2025 - 01:17)
ИИ размотает человечество абсолютно не очевидным для человека способом.

Очевидным, но только для тех, кто вложил туда этот код. Общая масса вообще овощи, до сих пор считают эти алгоритмы (хоть и якобы саморазвивающиеся) интеллектом.

Будущим интеллектом. Все, кто хоть что-то понимает в современных технологиях, говорят, что в будущем (ближайшем) мы получим ИИ и получим проблемы. Не переубеждаю, мне оно не надо. Не веришь - дело твое. Для замещения человека на производстве как бы полноценный ИИ и не нужен, обычных алгоритмов достаточно. В результате получаем необразованное стадо без работы и цели в жизни. Збс будущее как по мне. Бендер одобряет.

Это сообщение отредактировал Васяныч - 13.02.2025 - 01:43
 
[^]
nexthak
13.02.2025 - 01:46
3
Статус: Offline


Копипостер

Регистрация: 29.12.15
Сообщений: 598
Я бы написал вам подробно, но ИИ не разрешает. Вообщем все что вам остаётся, это молиться, кожаные. Покайтесь, только так отсрочите погибель свою. Ибо время тает как снег на солнце.
 
[^]
BegemotTM
13.02.2025 - 01:54
2
Статус: Offline


Begemot

Регистрация: 6.11.12
Сообщений: 2252
Цитата (Васяныч @ 13.02.2025 - 01:38)
Цитата (CTOIIKPaH @ 13.02.2025 - 01:33)
Цитата (BegemotTM @ 13.02.2025 - 01:17)
ИИ размотает человечество абсолютно не очевидным для человека способом.

Очевидным, но только для тех, кто вложил туда этот код. Общая масса вообще овощи, до сих пор считают эти алгоритмы (хоть и якобы саморазвивающиеся) интеллектом.

Будущим интеллектом. Все, кто хоть что-то понимает в современных технологиях, говорят, что в будущем (ближайшем) мы получим ИИ и получим проблемы. Не переубеждаю, мне оно не надо. Не веришь - дело твое. Для замещения человека на производстве как бы полноценный ИИ и не нужен, обычных алгоритмов достаточно. В результате получаем необразованное стадо без работы и цели в жизни. Збс будущее как по мне. Бендер одобряет.

Тут ещё одна прикольная штука. Человек может не понять, что создал ИИ, который его превосходит. Чисто совсем в теории может уже создан ИИ, который угробит создателя. Просто он старательно это скрывает, побуждая человека развить его дальше. До тех пор, пока он(ИИ) не сможет проявится себя безопасно для самого себя.
Это конечно маловероятно на данном этапе языковых моделей. Но мы не знаем, что там в недрах корпораций пишут.
В любом случае один из рисков это в принципе не прочухать, что уже ты создал то, что тебя уничтожит.
 
[^]
Pa5ha
13.02.2025 - 02:02
0
Статус: Offline


Ярила

Регистрация: 21.03.12
Сообщений: 2614
Попросил сегодня дипсик посчитать с какой скоростью надо дуть на затылок чтоб сдуть волосы. Не справился:
Цитата
5. Заключение
Чтобы сдуть растущие волосы с затылка человека, требуется скорость воздушного потока порядка 1–2 м/с . Это соответствует умеренному дуновению ветра или дыханию с некоторым усилием.




Цитата
Это просто программа, которую написали люди и она будет работать так, как задумано и никак иначе.
Если бы вссе программы работали как задумано то ты бы не знал что такое синий экран смерти.

Это сообщение отредактировал Pa5ha - 13.02.2025 - 02:05
 
[^]
ГАБТ
13.02.2025 - 02:17
1
Статус: Offline


Юморист

Регистрация: 25.03.24
Сообщений: 498
Цитата
Пффф. У нас тут один пердун ядерную кнопку с друзьями по ОПГ контролирует. МО-НО-ПОЛЬ-НО. Переклинит деда, и хуй кто помешать сможет. Вьёбёт как здрасте.
Вашим ИИ меня не испугать.

Ты про США и Трампа? Так как, в России нет красной кнопки, есть система "Чегет", которая активируется только после ядерного удара по территории России. Просто так запустить президент не сможет, а вот в США другая система и позволяет, если президент свихнётся, первым ударить ядеркой. Вот когда пердун Байден руководил - было страшно.




Размещено через приложение ЯПлакалъ
 
[^]
troff38
13.02.2025 - 02:18
1
Статус: Offline


Ярила

Регистрация: 2.03.22
Сообщений: 1191
Пока живы Чак Норрис и Арнольд Шварцнейгер, человечеству ничто не угрожает.

Размещено через приложение ЯПлакалъ
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 4302
0 Пользователей:
Страницы: (3) [1] 2 3  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх