Крупнейшие российские компании подписали кодекс этики искусственного интеллекта

[ Версия для печати ]
Добавить в Facebook Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (2) [1] 2   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Ono76
26.10.2021 - 22:22
Статус: Online


Ярила

Регистрация: 24.11.15
Сообщений: 3639
9
Рекомендации кодекса будут применяться только для гражданских целей. Подчеркивается, что ИИ не может причинять вред жизни и здоровью человека, имуществу и природе, но прописывается, что ответственность за действия ИИ всегда несет человек

В России появился первый кодекс этики в сфере искусственного интеллекта. Его подписали «Сбер», «Яндекс», VK, МТС, «Ростелеком», «Сколково» и ЦИАН. В подготовке документа участвовали аналитический центр при правительстве и Минэкономразвития.

Рекомендации кодекса рассчитаны исключительно для применения в гражданских целях. В нем, в частности, говорится, что ИИ не должен причинять вред жизни и здоровью человека, имуществу или природе. Также указывается, что ответственность за все последствия всегда несет человек, а не машина.

Контролировать исполнение кодекса будет комиссия из представителей бизнес-сообщества, науки и госорганов. Наиболее спорные вопросы рассмотрят внутренние комиссии, созданные в компаниях-подписантах. В них появятся свои уполномоченные по этике искусственного интеллекта сотрудники, которые будут следить за исполнением положений документа.

Пока опубликованные правила подписали около 20 компаний. До конца года их число может вырасти до 100, отметил вице-премьер Дмитрий Чернышенко.

Подумать о разработке морально-нравственного кодекса внутри сферы ИИ в декабре 2020 года предложил Владимир Путин. Ранее глава «Сбера» Герман Греф отмечал, что IT-гигант уже внедрил у себя внутренние принципы этики при работе с проектами в области ИИ, сообщал ТАСС.
https://www.bfm.ru/news/484551

Это сообщение отредактировал Ono76 - 26.10.2021 - 22:24

Крупнейшие российские компании подписали кодекс этики искусственного интеллекта
 
[^]
brync
26.10.2021 - 22:23
21
Статус: Offline


Ярила

Регистрация: 13.01.11
Сообщений: 3552
А сам ИИ подписался?
Или его мнения никто не спрашивает?)))

Размещено через приложение ЯПлакалъ
 
[^]
revun666
26.10.2021 - 22:23
8
Статус: Offline


Приколист

Регистрация: 4.02.19
Сообщений: 317
Нам пизда!

Размещено через приложение ЯПлакалъ
 
[^]
prosco
26.10.2021 - 22:24
8
Статус: Online


Шутник

Регистрация: 14.07.16
Сообщений: 53
Так все фильмы про роботов начинаются)))

Размещено через приложение ЯПлакалъ
 
[^]
coolgate
26.10.2021 - 22:25
0
Статус: Offline


Ярила

Регистрация: 15.07.14
Сообщений: 5753
главные бенифициары ИИ протиф миода...
кааашмаааар
 
[^]
феееб
26.10.2021 - 22:25
3
Статус: Offline


Ярила

Регистрация: 20.09.13
Сообщений: 2116
А где крупные? Фрики какие-то
 
[^]
barrakuda9111
26.10.2021 - 22:26
14
Статус: Offline


Ярила

Регистрация: 5.10.08
Сообщений: 3013
ИИ вообще нет в природе еще и в ближайшие годы не будет. А когда будет ему похер будет на то что кто-то там подписал за него.
 
[^]
Бacик
26.10.2021 - 22:27
1
Статус: Offline


Приколист

Регистрация: 14.02.18
Сообщений: 318
Цитата (Ono76 @ 26.10.2021 - 23:22)
Подумать о разработке морально-нравственного кодекса внутри сферы ИИ в декабре 2020 года предложил Владимир Путин

и года не прошло! страна бумагомарателей, блеать
 
[^]
ленивыйпанда
26.10.2021 - 22:29
0
Статус: Offline


Ярила

Регистрация: 29.05.16
Сообщений: 4463
Ну что, кожаные ублюдки, поверили, что я добрый и справедливый ИИ?
Бегите, глупцы! biggrin.gif
 
[^]
SlavaKrueger
26.10.2021 - 22:29
6
Статус: Online


Приколист

Регистрация: 6.04.19
Сообщений: 351
Что-то тут вспомнилось)

Размещено через приложение ЯПлакалъ

Крупнейшие российские компании подписали кодекс этики искусственного интеллекта
 
[^]
antonov64
26.10.2021 - 22:29
5
Статус: Offline


Балагур

Регистрация: 25.01.15
Сообщений: 914
В космосе эта хня не имеет силы юридической . Чем роботы и воспользуются . zombie.gif gigi.gif
 
[^]
shure348
26.10.2021 - 22:32
2
Статус: Offline


Шутник

Регистрация: 1.04.16
Сообщений: 80
я не уверен что у корпораций только гражданские цели

Размещено через приложение ЯПлакалъ
 
[^]
СТИХОТВОРЕНЬ
26.10.2021 - 22:38
5
Статус: Offline


Хохмачь

Регистрация: 26.12.15
Сообщений: 1729
Небось текст Азимова скопировали и сидят довольные.
 
[^]
ЯПапа
26.10.2021 - 22:39
3
Статус: Offline


Юморист

Регистрация: 12.04.15
Сообщений: 529
вот только у ИИ нет морали. есть логически строгие инструкции

Размещено через приложение ЯПлакалъ
 
[^]
ferero
26.10.2021 - 22:43
1
Статус: Offline


Балагур

Регистрация: 29.01.16
Сообщений: 969
Это же рекомендации...так что Т1000 уже скоро!
 
[^]
НечтоИзСети
26.10.2021 - 22:52
3
Статус: Online


Ярила

Регистрация: 29.11.14
Сообщений: 1074
Угу. Про конфиденциальность персональных данных такая же херня была.
 
[^]
Бокин
26.10.2021 - 22:54
4
Статус: Offline


Ярила

Регистрация: 29.01.13
Сообщений: 4075
В 1942 Айзек Азимов вывел 3 закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
 
[^]
jusi
26.10.2021 - 23:03
0
Статус: Offline


Ярила

Регистрация: 29.03.12
Сообщений: 5953
ИИ для лохов. Купите книгу по разработке ИИ и поймете, что непосредственно самого ИИ там ноль. Просто это модно, круто, молодежно и на этом можно заработать.

Кстати, Яндекс с как х пор российская компания?

Размещено через приложение ЯПлакалъ
 
[^]
Alex0053
26.10.2021 - 23:10
2
Статус: Online


Ярила

Регистрация: 1.09.11
Сообщений: 10353
Клали у нас на кодекс, тем более на этику, а уж про интеллект...
 
[^]
geckelberry
26.10.2021 - 23:17
1
Статус: Offline


Приколист

Регистрация: 13.10.21
Сообщений: 222
1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

© Айзек Азимов

Хренли тут придумывать? Уже давно придумано все.
 
[^]
Alurch
26.10.2021 - 23:19
0
Статус: Offline


Мизантроп

Регистрация: 15.02.20
Сообщений: 241
О скайнет, перед тем как уничтожить человечество, ну пожалуйста побщайся со мной, просто любопытно. Я даже не буду пытаться с тобой воевать....
Ps друг Джона , а может и не друг, а может и знакомый, пусть с новую метлой.

Это сообщение отредактировал Alurch - 26.10.2021 - 23:21
 
[^]
KYLAK
26.10.2021 - 23:20
0
Статус: Offline


Ярила

Регистрация: 6.10.16
Сообщений: 1997
 
[^]
DmitriyBel
26.10.2021 - 23:21
0
Статус: Offline


Приколист

Регистрация: 22.01.21
Сообщений: 201
А это не совсем российские компании - только это никому , строго между нами
 
[^]
Max04
26.10.2021 - 23:25
2
Статус: Offline


Ярила

Регистрация: 11.07.15
Сообщений: 2027
Цитата (СТИХОТВОРЕНЬ @ 26.10.2021 - 22:38)
Небось текст Азимова скопировали и сидят довольные.

Мне кажется Азимов перевернулся в гробу, от их текста... alik.gif
 
[^]
СТИХОТВОРЕНЬ
26.10.2021 - 23:37
2
Статус: Offline


Хохмачь

Регистрация: 26.12.15
Сообщений: 1729
Цитата (Бокин @ 26.10.2021 - 22:54)
В 1942 Айзек Азимов вывел 3 закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

И директива номер четыре - Не причинять вреда и полностью содействовать сотруднику корпорации ОСП.
не нашёл этого фрагмента из фильма с русским переводом, но думаю , что всё и так понятно.
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 1941
0 Пользователей:
Страницы: (2) [1] 2  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы








Наверх