?

Log in

No account? Create an account

Previous Entry | Next Entry

Критерии интеллекта

Расскажите мне, каким вы представляете себе искусственный интеллект. Если течь идет о машине или роботе, должен он передвигаться? уметь разговаривать вслух и понимать речь? обладать мимикой и жестами? Обладать логикой? Уметь быть нелогичным? Показывать эмоции? Какие у машины должны быть органы чувств? Какой бы проверке вы подвергли это устройство, чтобы убедиться, что оно обладает интеллектом?

Обладают ли все без исключения здоровые на голову люди интеллектом? Есть ли интеллект у малых детей, или он образуется по мере взросления? Есть интеллект у собак? мышей? ящериц? муравьев? пауков? У одноклеточных? Меня интересуют ваши собственные критерии и размышления, в особенности если вы далеки от профессиональных исследований когнитивных вещей. Все, что вы думаете по этому поводу, и ответы на хотя бы некоторые из этих вопросов, и на другие, конечно, — свободная тема.

Tags:

Comments

hari_tc
Jan. 30th, 2011 12:42 pm (UTC)
Я только пока крайне приблизительно знаю, что это связано с предсказательной возможностью той структуры, которую мы будем считать интеллектуальной. Что такое понимание я не знаю, но оно должно быть отлично от имитации понимания машиной. (см. "Китайская комната")
fregimus
Jan. 30th, 2011 12:59 pm (UTC)
Китайская комната — это ужасно. Она свободно и бойко болтает с китайцами за жизнь по-китайски, а какой-то скучный философ стоит рядом и объясняет, что она по-китайски не понимает. Ну не зануда ли? Китайцы его поколотят рано или поздно, чтоб не надоедал.
hari_tc
Jan. 30th, 2011 01:01 pm (UTC)
Да, в самом деле, по условиям задачи имитирует хорошо. Однако, когда на такое-то входящее сообщение правила не найдется, его неоткуда будет взять внутри системы, этим понимание выгодно отличается.
fregimus
Jan. 30th, 2011 01:07 pm (UTC)
А кто говорит, что не найдется? По условию, на любое сообщение у комнаты находится ответ.

Про комнату — это нечестное рассуждение. Вот возьмите, например, меня. Видите, как я хорошо имитирую разум. А на самом деле никакого разума у меня нет. У меня внутри алгоритм. Не верите? А про комнату верите, да? А почему так? Мы же с ней одинаково для Вас выглядим — много букв на экране.

На самом деле, этот пост написала китайская комната.
hari_tc
Jan. 30th, 2011 09:30 pm (UTC)
Про комнату не верю единственно потому, что по всем поступающим сведениям она еще не реализована. Когда будет, тогда к буквам на экране все привыкнут относиться иначе.
fregimus
Jan. 31st, 2011 12:07 am (UTC)
Так может, врет ошибается тот философ? Аргумент-то и впрямь из разряда «этого не может быть, потому что этого не может быть никогда».
hari_tc
Jan. 31st, 2011 08:14 am (UTC)
К сожалению, исходных рассуждений, так же как и критики, не читала, так что ничего сказать не могу. В этом переложении выглядит на первый взгляд так себе, в самом деле.
hari_tc
Jan. 31st, 2011 08:19 am (UTC)
А, прочитала там ниже обсуждение, эти обрывочно доходящие до меня свежие мысли - давно не интересный вам предмет обсуждения. Извините, пока не прошла эту стадию.
Но для чего вам произвольные мнения произвольных людей?
fregimus
Jan. 31st, 2011 10:36 am (UTC)
Мне интересно, как люди думают.
hari_tc
Oct. 5th, 2011 06:51 am (UTC)
Прошу прощения, можно мне еще раз спросить, если эта тема вам не надоела?

Насколько я поняла, мысленный эксперимент с китайской комнатой потребовался для того, чтобы показать, что мозг работает не так как программа, поэтому программы, даже самой сложной, недостаточно для того, чтобы воспроизвести интеллект, а будущий ИИ должен будет работать совсем не так, как сложная программа, а как мозг. Не на одном только синтаксисе, а на семантике. Я неправильно поняла? Это слишком примитивное понимание, искажающее суть дела?
fregimus
Oct. 5th, 2011 06:55 am (UTC)
Потребовался он именно для этого, верно. Но само рассуждение с дефектом: там самая обычная reduction fallacy, будто бы разумную систему нельзя составить из неразумных элементов. Если бы это рассуждение было верным, то пришлось бы признать, что каждый нейрон по отдельности разумен.
hari_tc
Oct. 5th, 2011 07:08 am (UTC)
А там где-то это в явном виде проговаривается, что разумную систему нельзя составить из неразумных элементов?

А нейрон разве неразумен? Я имею в виду, разве он не запоминает состояния и не может их воспроизводить, что и является, если умножить многократно, разумом? Сейчас высокоуровневые структуры нейронов понимают слова, что я пишу, ниже уровнем - видят буквы, еще ниже - детали изображения, черточки, еще ниже, вероятно, вплоть до единичного нейрона - получают паттерны из глазного нерва, и все они занимаются одним и тем же - по-разному возбуждаются и тормозятся при получении и передаче знакомых и незнакомых паттернов, запомненных и незапомненных, предсказуемых и непредсказуемых, и это все, что они делают, но этого достаточно для того, чтобы я могла это писать. Вроде выходит, что вся сложность системы ненамного выше сложности элемента, только элементов очень много и это позволяет запоминать и воспроизводить все более крупные, общие паттерны, я понимаю наличие окна ввода перед собой, и клавиатуры, и мысли, которую думаю, тем же способом, что и мельчайшие элементы изображения складываются в буквы и слова?
hari_tc
Oct. 5th, 2011 12:22 pm (UTC)
Конечно, вы скажете, что все это неправильно, я имею в виду, может быть, вы хотя бы укажете направление, в котором это все неправильно.
fregimus
Oct. 5th, 2011 01:30 pm (UTC)
Там было много вариантов — маэстро за долгую карьеру настроил китайских комнат целый Пекин. Но в целом, они страдают одним и тем же. Серль, запертый в комнате (то есть процессор Пентиум) не понимает китайского языка, следовательно, и вся комната (процессор + алгоритм) не понимает китайского. То есть, честное слово, вот такая глупость — ничего более сложного.

Нет, нейрон неразумен, конечно. В данном случае речь идет как минимум о понимании естественного языка — то есть кошки-мышки тоже не разумны.