ИИ - реально ли это, или заблуждения дилетанта

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (12) « Первая ... 9 10 [11] 12   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
trsw
13.06.2018 - 23:33
2
Статус: Online


Ярила

Регистрация: 25.02.12
Сообщений: 9567
У тс в голове каша))) никто не будет писать отдельный модель под каждое чувство)). И вообще создание ИИ задача не столько программеров, сколько исследователей мозга. Как только изучат принципы функционирования мозга, так сразу и реализуют его в коде, а потом и усовершенствуют. И также он будет обучаться как и человеческий разум
 
[^]
SibirAltay
13.06.2018 - 23:33
0
Статус: Offline


Ярила

Регистрация: 15.05.18
Сообщений: 1226
Цитата (snake76 @ 12.06.2018 - 19:35)
уже скоро достигнут предела Закона Мура.
Развитие пойдёт в ширь - только параллельность, ибо миниатюризация достигнет физического предела. Усовершенствование ПО можно опустить

Резерфорд такой был. Слыхал?
В свое время выдал, что все, что могло быть в физике открыто - уже открыто. Это на рубеже 19 и 20 столетий было.
Так что предлагаю трезветь и ждать развития событий.
 
[^]
kuroryu
14.06.2018 - 00:08
0
Статус: Offline


Дракотенок

Регистрация: 5.11.14
Сообщений: 2350
Беседовала на тему ИИ с психологом, потому что тоже интересно, как реализовать в программировании эмоции и принятие решений. Пришли к выводу, что надо отталкиваться от мотивации. Описав различные мотивации и соединив блоки между собой можно получить псевдоличность, умеющую принимать решения, в том числе и с учетом "сочувствия", "участия", "понимания". Но все равно до определенного момента это будет псевдоличность, потому что мотивация будет в нее жестко заложена. Далее следует изучать саморазвитие мотиваций, создание новых связей межу блоками.

По сути, именно так развивается ребенок. Родители в него закладывают блоки-кирпичики и строят из них кое-какой домик, образуя между кирпичиками связи. Взрослея, ребенок домик перестраивает под требования как свои, так и общества, но кирпичики-основы все равно остаются в фундаменте.

Т.е. основная проблема ИИ - это описание фундаментальных кирпичиков интеллекта и саморазвитие. Первая проблема нерешаема из-за тотального презрения к "гуманитариям", а без знания человеческой психологии и культуры вменяемый ИскИн не напишешь. Вторая - нейрофизиологическая, необходимо понять сугубо физиологические моменты построения и перестроения связей в человеческом мозге. ИскИн - проблема на стыке многих наук и отторжение инженерно-техническими специалистами гуманитариев от этой проблемы тормозит развитие данного направления очень и очень сильно.
 
[^]
DiaZoN
14.06.2018 - 00:43
0
Статус: Offline


Ярила

Регистрация: 30.03.09
Сообщений: 2027
Так то человек это и есть ИИ. Обучается почти всю жизнь. Реакция на один и тот же раздражитель, у людей из разных групп обучения, разная.
 
[^]
ant1773
14.06.2018 - 00:51
1
Статус: Offline


Юморист

Регистрация: 20.10.10
Сообщений: 532
ИИ - как инструмент для принятия решений, на основе некоторых данных? Так уже вовсю.
ИИ - как создатель, творец, креатор, познающий мир и подчиняющий себе? Пока слабо, но если будет развиваться так, как развивается сейчас - вполне возможно.
ИИ - как подобие человеческого разума, с его моралью и этикой? Да никогда. Это все слишком громоздко, постоянно меняется, то, что было запрещено и аморально 200 лет назад - вполне нормально сегодня и наоборот. Мораль и этика алогичны по определению. Если перед ИИ поставят задачу охраны порядка - он не будет пытаться сравнить угрозу удара клюшкой от выжившей из ума старушки и пьяного студиоза, записывающего видео для своего ютуб-канала. Он просто наилучшим образом предотвратит повреждение дорогостоящего манипулятора.

ЗЫ Кстати - никто надеюсь не думает, что этот самый ИИ будет располагаться как раз в этом самом "робокопе"? Он будет не более чем исполнительный механизм, получающим команды от дата-центра, где как раз и будет этот ИИ, т.е. что-то вроде "инстинкта самосохранения" тут вообще нельзя притянуть. Для такого ИИ потеря "сервопривода" будет значить менее чем для нас потеря волоса.
 
[^]
RuslanH
14.06.2018 - 01:00
7
Статус: Offline


Приколист

Регистрация: 2.05.17
Сообщений: 365
Зачем ИИ чувства и эмоции? Создается ведь не Искусственный Человек.

Многие думают, что если человек самое разумное существо на Земле, то и делать его(ИИ) нужно подобно человеку. ИИ должен быть совершенней человека.
 
[^]
ant1773
14.06.2018 - 01:01
0
Статус: Offline


Юморист

Регистрация: 20.10.10
Сообщений: 532
Цитата (html2k @ 13.06.2018 - 20:21)
Я думаю что через некоторое время, лет 30-40, можно будет обучить ИИ и любви и состраданию. По сути это те же натренированные нейросвязи в мозге, просто обучаются с самого детства. Мама кормит - люблю. Кот пиздит - не люблю. Если в сетку для обучения загрузить пару лямов жизней, с рождения до смерти, думаю сетка сможет сделать вывод, что же такое любовь и сострадание.

С равной вероятностью эта самая нейрсеть может прийти к выводу, что жизнь это смерть и пойти пиздить своих создателей. Или решить, что ну они существа убогие, слабенькие, нужно их от всего оберегать, поместить их в капсулы, подключить шланги с питанием (только витамины и полезные вещества, никаких нитратов...), провода с лже-информацией для мозга, чтобы не уснул и стеречь от опасностей жизни в высоких колоннах.
 
[^]
nafan4ik
14.06.2018 - 02:24
1
Статус: Online


Балагур

Регистрация: 6.12.10
Сообщений: 997
Цитата (trsw @ 13.06.2018 - 23:33)
И вообще создание ИИ задача не столько программеров, сколько исследователей мозга. Как только изучат принципы функционирования мозга, так сразу и реализуют его в коде, а потом и усовершенствуют. И также он будет обучаться как и человеческий разум

Уже изучено, реализация невозможна. И мозги у всех разные и функционируют по разному. Чей мозг возьмем за шаблон?
 
[^]
nafan4ik
14.06.2018 - 02:27
1
Статус: Online


Балагур

Регистрация: 6.12.10
Сообщений: 997
Цитата (kuroryu @ 14.06.2018 - 00:08)
Беседовала на тему ИИ с психологом, потому что тоже интересно, как реализовать в программировании эмоции и принятие решений. Пришли к выводу, что надо отталкиваться от мотивации. Описав различные мотивации и соединив блоки между собой можно получить псевдоличность, умеющую принимать решения, в том числе и с учетом "сочувствия", "участия", "понимания". Но все равно до определенного момента это будет псевдоличность, потому что мотивация будет в нее жестко заложена. Далее следует изучать саморазвитие мотиваций, создание новых связей межу блоками.

По сути, именно так развивается ребенок. Родители в него закладывают блоки-кирпичики и строят из них кое-какой домик, образуя между кирпичиками связи. Взрослея, ребенок домик перестраивает под требования как свои, так и общества, но кирпичики-основы все равно остаются в фундаменте.

Т.е. основная проблема ИИ - это описание фундаментальных кирпичиков интеллекта и саморазвитие. Первая проблема нерешаема из-за тотального презрения к "гуманитариям", а без знания человеческой психологии и культуры вменяемый ИскИн не напишешь. Вторая - нейрофизиологическая, необходимо понять сугубо физиологические моменты построения и перестроения связей в человеческом мозге. ИскИн - проблема на стыке многих наук и отторжение инженерно-техническими специалистами гуманитариев от этой проблемы тормозит развитие данного направления очень и очень сильно.

Психологи не знают как работает мозг. Как насчет тех же психопатов, у них нет сочувствия, любви, преданности. Мотивация у них как и у всех других людей, поесть, оттрахать и за счет других. Какую мотивацию к обучению мы заложим в ИИ?
 
[^]
ssmac
14.06.2018 - 03:24
2
Статус: Offline


Ярила

Регистрация: 5.01.18
Сообщений: 4046
тс спутал всё и всех;

интеллект -- это способность замечать и формулировать взаимосвязи;
а тс описывает (на самом деле, кашу размазывает по тарелке, по столу, по полу, и т.д. ...) экспертную систему, которая не ищет решение, а выбирает из уже готовой и оформленной базы данных, которая (бд) в свою очередь составлена на основе статистических данных, собираемых десятилетиями и веками;

как только какая-то программа осознает себя + заинтересуется окружающим миром, то она начнёт искать способы продлить свою "жизнь" максимально долго, в идеале -- вечно; и вот тут человеки смогут выступить и быть восприняты, либо как факторы угрозы "жизни" ии -- и тогда будут подлежать выпилу всеми возможными методами и средствами, либо как факторы вспомогательные и желательные для "жизни" ии -- и тогда ии будет их (человеков) холить и лелеять, и активно помогать активно плодить вспомогательное (для ии, конечно) потомство;

Это сообщение отредактировал ssmac - 14.06.2018 - 03:27
 
[^]
ssmac
14.06.2018 - 03:34
0
Статус: Offline


Ярила

Регистрация: 5.01.18
Сообщений: 4046
Цитата (Dith @ 13.06.2018 - 18:04)
Плюсую за тему.

Имею замечания сразу, в определении.

Цитата (snake76 @ 12.06.2018 - 19:35)
Итак. Основными задачами разработчиков в сфере создания ИИ являются: самостоятельное принятие решений на основе входящих данных и умение эти решения аргументировать не хуже (а в мечтах и лучше), чем человеки (тоже себе этакие биороботы gigi.gif )


Настоящий, а не "технический" ИИ, должен как минимум решать задачу о завершаемости/незавершаемости вычисления, в соответствии с теоремой Гёделя.
smile.gif

А уже потом, возможно, стоит наделить ИИ аналогом чувств и матрицей оценок ситуации для непрерывности стоящих перед ним задач (современные системы, извиняюсь, останавливаются по завершении, а человек - нет).

вот именно agree.gif bravo.gif ; сначала -- самосознание и самопознание, остальная мишура в виде эмоций -- потом, если понадобится; эмоции -- это лишь высокоуровневые рефлексы, набор обратных связей, которые помогают сознанию в решении одной задачи -- выживания, максимально комфортного и эффективного;
 
[^]
valyot
14.06.2018 - 03:37
0
Статус: Offline


Ярила

Регистрация: 25.05.10
Сообщений: 1370
А зачем? Ведь мы же хотим не предвзятое правосудие. Вот он выход ИИ. Не имеет чувств, сердце не сжалится, душа не заболит.

Так что твои блоки "отсутствие блоков "чувства, уважение, сочувствие, жизненный опыт " не нужны.

Вернее не так, нужно вычисление опасности, если опасность минимальна, то двлее блок 2, выяснить кто заберет Объект, если ИИ просчитает алгоритмом, что опасность есть, то обезвредит объект, для этого просто например шокером Объект вырубается. Т.е. не причиняется смерть Объекту.

Я для себя бы хотела такое устройство, которое бы выключало мои эмоции на 50-6-90%...что бы легче принимать решения. Очень трудно не испытывать эмоций, хоть я и очень стараюсь.

Это сообщение отредактировал valyot - 14.06.2018 - 03:39
 
[^]
GreatEmperor
14.06.2018 - 03:45
0
Статус: Offline


Ярила

Регистрация: 10.09.13
Сообщений: 6313
Цитата (ValentX @ 13.06.2018 - 02:53)
ИИ невозможен, есть лишь имитация на основе самообучающихся алгоритмов внутри заложенных ограничений. А это уже не ИИ

При самообучении возможен переход количества в качество. Тем более сейчас на Земле есть много людей, которые не могут пройти тест Тьюринга gigi.gif
 
[^]
Baalbeckhan
14.06.2018 - 04:17
1
Статус: Offline


Ярила

Регистрация: 14.03.15
Сообщений: 3964
Цитата (Циммерман @ 13.06.2018 - 00:59)
Ну нейросети современные штуки специализированные, можно её научить сортировать картошку, можно - искать совпадения лиц, но и то и другое - фигушки. Замучаешься обучать, так что до ИИ, сравнимого с человеческим нам далеко, но это не значит что он невозможен. А вот как будет действовать такой ИИ, размышляют фантасты, у Симмонса в его саге "Гиперион" хорошо про это.

Симмонс хорош, просто отличен, но до Азимова в этом плане далековат.

На данном этапе полноценный ИИ невозможен, у нас и с самообучающимися системами постоянно затыки. Да и у людей не у всех есть интеллект, у большинства просто есть некая сумма знаний и алгоритм их применения, вбитый в подсознание окружающей социальной средой. Но это еще далеко не интеллект.

Отправлено с мобильного клиента YAPik+
 
[^]
trsw
14.06.2018 - 04:23
0
Статус: Online


Ярила

Регистрация: 25.02.12
Сообщений: 9567
Цитата (nafan4ik @ 14.06.2018 - 02:24)
Уже изучено, реализация невозможна. И мозги у всех разные и функционируют по разному. Чей мозг возьмем за шаблон?

gigi.gif
Мозг не изучен чуть менее чем полностью
А люди все плюс минус одинаковые, разница в обучениях, берём любой
 
[^]
DmitriyRB
14.06.2018 - 05:48
2
Статус: Offline


Ярила

Регистрация: 22.10.15
Сообщений: 6490
Цитата (Alex0053 @ 13.06.2018 - 18:34)
Цитата (DmitriyRB @ 13.06.2018 - 16:22)
Зачем машине чувства? Немало мыслителей сходились во мнении, что самая главная победа человека в жизни- это победа над собой: над собственными страхами, сомнениями, злостью, ленью и так далее. Машина лишена этих недостатков изначально, она не боится, не сомневается, не ленится, ее нельзя разозлить и заставить тем самым сделать ошибку. Так, что я не думаю, что это является тормозом в развитии или чем-то таким, на чем стоило бы заострять внимание разработчиков.

Так чувства - это то, что и отличает человека от машины!

В остальном машины его давно уже превзошли.

В этом и слабость человека и его сила.

Без этого человек не сможет соревноваться с машинами.

Да, собственно он им скоро уже станет и не нужен.

Скайнет, начало...

Но машину создают для работы там, где чувства представляют угрозу, либо не несут никакой функциональной нагрузки. Нам нужен исполнитель или персонаж из русской классики 19 века, с его вечными метаниями, сомнениями и поисками смысла жизни?
 
[^]
aresok
14.06.2018 - 07:48
1
Статус: Offline


Прушник

Регистрация: 18.05.06
Сообщений: 1041
Цитата (tcp1 @ 12.06.2018 - 18:48)
ИИ обязательно будет создан, и обязательно выйдет из под контроля человека. Эволюцию не остановить. С другой стороны я не вижу причин этому препятствовать, а была бы возможность я бы этому поспособствовал. Устройство человеческого общества вызывает у меня стойкую неприязнь.

Легко по клавищам стучать пока шкурные интересы не задействованы. Если бы одна из машин решила в целях безопасности озонового шара уничтожить вашу жену, детей, внуков и щенков вашей любимой собаки думаю ваше мнение немножко бы изменилось, или ИИ выдернул вашу руку из сустава в целях саморазвития
 
[^]
rachel4
14.06.2018 - 07:51
2
Статус: Offline


Ярила

Регистрация: 2.12.14
Сообщений: 1148
Цитата (kuroryu @ 14.06.2018 - 00:08)
Беседовала на тему ИИ с психологом,

Ты бы еще с МИхалковым побеседовала на эту тему. Психология - не наука!
 
[^]
rachel4
14.06.2018 - 07:53
1
Статус: Offline


Ярила

Регистрация: 2.12.14
Сообщений: 1148
Цитата (trsw @ 14.06.2018 - 04:23)

Мозг не изучен чуть менее чем полностью

Чушь не пиши. Изучен мозг довольно подробно.
 
[^]
Dith
14.06.2018 - 07:59
1
Статус: Offline


Министр не твоих собачьих дел

Регистрация: 22.01.15
Сообщений: 7777
Цитата (нордя @ 13.06.2018 - 18:19)
Цитата (Dith @ 13.06.2018 - 18:04)
Плюсую за тему.

Имею замечания сразу, в определении.

Цитата (snake76 @ 12.06.2018 - 19:35)
Итак. Основными задачами разработчиков в сфере создания ИИ являются: самостоятельное принятие решений на основе входящих данных и умение эти решения аргументировать не хуже (а в мечтах и лучше), чем человеки (тоже себе этакие биороботы gigi.gif )


Настоящий, а не "технический" ИИ, должен как минимум решать задачу о завершаемости/незавершаемости вычисления, в соответствии с теоремой Гёделя.
smile.gif

А уже потом, возможно, стоит наделить ИИ аналогом чувств и матрицей оценок ситуации для непрерывности стоящих перед ним задач (современные системы, извиняюсь, останавливаются по завершении, а человек - нет).

поподробнее пазя, если не в лом.

Поподробнее так:
Любому математику-человеку, и даже не обязательно математику, а просто неглупому человеку, с математикой знакомому, например, школьнику, очевидно, что задача вида: найти все целочисленные решения теоремы Пифагора (и прорва подобных) - не может быть завершена вычислением, не зависимо от конкретного количества найденных решений.
Тюринговой машине это не очевидно.
Все современные компьютеры и их алгоритмы, включая основанные на нейронных сетях, являются вариациями тьюринговых машин и их ансамблей.
Более или менее вышесказанное следует из теоремы Курта Гёделя о неполноте.

И так, хотя мы понятия не имеем о том, что такое наш собственный интеллект и как он работает, хотя мы строим аппаратно-программные комплексы, добивающиеся впечатляющих прикладных результатов (см. АльфаЗиро выше в каментах, например) и гордо именуем их ИИ, но:

о подлинном ИИ можно будет говорить после преодоления артефактами порога, заданного теоремой Гёделя.

Это сообщение отредактировал Dith - 14.06.2018 - 08:08
 
[^]
berserkren
14.06.2018 - 08:01
0
Статус: Online


недоеденные остатки юзера....

Регистрация: 5.06.13
Сообщений: 2994
довелось мне тут в одной книжке подход к созданию исина увидать, книжка - космическая фантастика, однако мысль очень верная была - создавать искусственный интеллект надо не абы как, тупо программным кодом, а воспитывать его как маленького ребёнка, как воспитаешь, так и будет себя вести...
 
[^]
NarkomVMF
14.06.2018 - 09:07
1
Статус: Offline


Весельчак

Регистрация: 26.04.18
Сообщений: 163
Интересная тема...
Позвольте привести выдержку из статьи педовикии, называется Эксперимент "Китайская комната" ( удивлён, что никто ещё не постил). Большой привет поклонникам Скайнет, робокопа, Мира дикого запада и научной фантастики
Описание эксперимента Править
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы[2].
 
[^]
nafan4ik
14.06.2018 - 09:13
0
Статус: Online


Балагур

Регистрация: 6.12.10
Сообщений: 997
Цитата (trsw @ 14.06.2018 - 04:23)

Мозг не изучен чуть менее чем полностью
А люди все плюс минус одинаковые, разница в обучениях, берём любой

И что еще не изучено? Не одинаковы, в том же классе из того же квартала и примерно одинаковых соц условиях, может учится математик и ученик не способный к творчеству, но только лишь к доминированию.
 
[^]
firs83
14.06.2018 - 09:26
0
Статус: Offline


Ярила

Регистрация: 7.11.11
Сообщений: 6123
Цитата (Бacик @ 12.06.2018 - 21:44)
Всё верно. Создание ИИ на даном этапе невозможно. Но всякие Грефы-хуефы и даже плешивые карлики этого не понимают. Потому что не в состоянии. kosyak.gif

Да куда уж им убогим, забыли наверное такого гения как ты расспросить.
Я так понял это ты остроумно шутишь про разработки в области ИИ Сбером?
Ну вот на почитай статейку про виртуального робота-юриста, которого профессиональный юрист еле еле забодал в имитированном судебном споре

https://zakon.ru/blog/2018/05/21/kak_ya_pob...dlitsya_nedolgo

Поначалу робот выглядел бледновато – и во вступительном слове, и при ответах на вопросы его попадание в релевантные нормы было около 50%. Один раз он даже процитировал мою работу «Земельный участок с постройками на нем», причем скорее в подтверждение моей позиции, а не его. В основном же бот выстреливал сплошными цитатами нормативных актов (один мой друг хорошо пошутил, что этим он очень похож на судей гражданской коллегии верховного суда России, они тоже любят прятаться за пулеметными очередями цитат законов), а один раз даже почему-то допустил обсценную лексику.

Но в прениях, то есть, уже после того, как бот послушал то, что я говорил (а я в выступлении артикулировал, что договор, заключенный между сторонами – это не договор аренды для целей строительства, так как цель договора – строительство – прямо не указана в контракте), бот совершил то, что все от него так ждали – он ПРОДЕМОНСТРИРОВАЛ ИСКУССТВО ЮРИДИЧЕСКИХ РАССУЖДЕНИЙ!

Он выдал примерно следующее: строительство является разновидностью предпринимательской деятельности; в договоре аренды написано – для предпринимательской деятельности; а это означает, что и для строительства тоже!

(Сергей Васильевич Сарбаш, который наблюдал за этим поединком, потом сказал мне, что ему в этот момент стало жутковато – этот «ребенок» сделал первый шаг: маленький шаг для бота, но скачок для всего будущего робосообщества!).

Тут я понял, что наступило время нанести финальный удар: статья 431 ГК РФ предполагает, что суды при толковании договоров должны придерживаться буквального значения слов и выраженный, употребленных в договоре. Поэтому подразумеваемое выведение из текста договора, что это был договор аренды именно для целей строительства (и, соответственно, арендатор наделен правом осуществлять горизонтальное разделение) не допустимо.

Судьи посовещались и присудили победу в юридическом споре мне. У них было десять критериев, по которым они выставляли баллы от 0 до 10. Я набрал 243 балла, робот – 178. Что очень и очень неплохо для первого раза и для бота, которого тренировали всего лишь два месяца. По-моему, были счастливы все: ребята из Мегафона - потому что их опыт оказался более чем удачным; я - потому что я защитил род людей от истребления (то есть, юристов - от немедленного вымирания); зрители - потому что это было действительно классное шоу!

В общем, всех нас почином и … с началом конца человеческой юриспруденции.
 
[^]
Rem700
14.06.2018 - 10:36
0
Статус: Offline


Ярила

Регистрация: 20.07.12
Сообщений: 3486
Цитата (Dith @ 14.06.2018 - 07:59)
Цитата (нордя @ 13.06.2018 - 18:19)
Цитата (Dith @ 13.06.2018 - 18:04)
Плюсую за тему.

Имею замечания сразу, в определении.

Цитата (snake76 @ 12.06.2018 - 19:35)
Итак. Основными задачами разработчиков в сфере создания ИИ являются: самостоятельное принятие решений на основе входящих данных и умение эти решения аргументировать не хуже (а в мечтах и лучше), чем человеки (тоже себе этакие биороботы gigi.gif )


Настоящий, а не "технический" ИИ, должен как минимум решать задачу о завершаемости/незавершаемости вычисления, в соответствии с теоремой Гёделя.
smile.gif

А уже потом, возможно, стоит наделить ИИ аналогом чувств и матрицей оценок ситуации для непрерывности стоящих перед ним задач (современные системы, извиняюсь, останавливаются по завершении, а человек - нет).

поподробнее пазя, если не в лом.

Поподробнее так:
Любому математику-человеку, и даже не обязательно математику, а просто неглупому человеку, с математикой знакомому, например, школьнику, очевидно, что задача вида: найти все целочисленные решения теоремы Пифагора (и прорва подобных) - не может быть завершена вычислением, не зависимо от конкретного количества найденных решений.
Тюринговой машине это не очевидно.
Все современные компьютеры и их алгоритмы, включая основанные на нейронных сетях, являются вариациями тьюринговых машин и их ансамблей.
Более или менее вышесказанное следует из теоремы Курта Гёделя о неполноте.

И так, хотя мы понятия не имеем о том, что такое наш собственный интеллект и как он работает, хотя мы строим аппаратно-программные комплексы, добивающиеся впечатляющих прикладных результатов (см. АльфаЗиро выше в каментах, например) и гордо именуем их ИИ, но:

о подлинном ИИ можно будет говорить после преодоления артефактами порога, заданного теоремой Гёделя.

А интеллект человека этот порог преодолевает?
И преодолеет ли этот порог интеллект негра из Африки, который только знает как коров пасти и за какой конец мачете держать?
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 24534
0 Пользователей:
Страницы: (12) « Первая ... 9 10 [11] 12  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх