?

Log in

No account? Create an account

Previous Entry | Next Entry

Неудавшаяся попытка критического прочтения

Русское название: Роджер Пенроуз. «Новый ум короля. О вычислительных машинах, разуме и законах физики». Номера страниц следуют в квадратных скобках за цитатами, и даются по изданию [Penrose 89]. Все переводы сделаны автором, изо всех сил старавшимся сохранить не только семантику, но и стилистику оригинала; последнюю, разумеется, не в ущерб первой. Ссылки на литературу в квадратных скобках и начинаются с фамилии автора. Ссылки на комментарии в конце статьи обозначаются «ножичко솻.

Эта книга захватывает читателя, захватывает новым, по крайней мере для вашего скромного собеседника, методом: в течение всего изложения автор обещает объяснить множество вещей, от необходимости квантово-механического объяснения работы его, читателя, мозга, до эволюционных преимуществ сознания, но не торопится с этими объяснениями. Подобного suspense ожидаешь от детективной истории, но никак уж ни от научно-популярной книги, ни от монографии.

В книге чуть более 450 страниц, но далеко не все они посвящены изложению теории ее автора. В задачу книги входит, как следует думать, предварительное образование читателя до уровня, необходимого для понимания обосновываемых Пенроузом идей. Книга состоит из десяти глав, из которых семь содержат в сжатом и, по видимому пониманию писавшего, популярном изложении определенные физические и математические теории. В главах со второй по девятую кратко и сжато излагаются основы следующих наук и дисциплин:

  • философии математики (где автор указывает, что он последователь Платонова учения, утверждающего, среди прочего, существование независимого от нас, непридуманного мира чисел, идеального, внепространственного, неизменного и непреходящего);
  • арифметики и теории чисел;
  • теории множеств (десятая проблема Гильберта, теорема Гёделя о неполноте, Канторовы мощности множеств; фрактальность, рекурсивная перечислимость множеств);
  • вычислительной математики (включая машины Тьюринга, тезис Тьюринга-Черча и λ-исчисление) и теории сложности;
  • классической механики (включая Гамильтоново изложение динамики и фазовые пространства);
  • классической электродинамики;
  • специальной теории относительности;
  • общей теории относительности (с тензорами, разумеется!);
  • квантовой механики;
  • квантовой электродинамики;
  • гипотез о квантовой гравитации;
  • и наконец, космологии (черные дыры, Большой взрыв, направленность времени и энтропия вселенной).

Список, как видите, нешуточный, и задача изложить эти науки в тех трехстах пятидесяти страницах, наверное, неразрешима. Поэтому не следует ставить Пенроузу в вину то, что он ее не исполнил: иные тратят годы и прочитывают десятки пухлых томов, чтобы понимать все эти учения. Разумеется, разъяснить λ-исчисление, даже популярно, на трех страницах, которые автор смог для того выкроить, невероятно трудно, если и возможно вообще. Именно сжатым объемом и надобностью донести до читателя несоразмерно огромное знание и вызвано такое рваное, косноязычное и совершенно непонятное изложение материала, к которому был вынужден прибегнуть автор. Положа руку на сердце, мало кто произвел бы лучший результат, пытаясь справиться с подобной задачей. Автор здесь признается, что малодушно отказался бы от такой попытки сразу же, без размышления.

Мой наблюдательный читатель уже, должно быть, задается вопросом: как же работа по теории сознания обходится без хотя бы обзора теорий в области искусственного интеллекта (ИИ)? Ведь читателя надо бы «подтянуть» и в этих дисциплинах? Здесь, справедливости ради, надо возразить, что все узнать зараз все равно нельзя. Пенроуз обучает читателя здесь лишь самому необходимому, а что касается остального, тут нам придется положиться на анализ этой области, проделанный Пенроузом, и изложенный кратко и сжато, да и понятный притом без всякой подготовки.

А именно, Пенроуз считает, что ИИ невозможен, и все эти ученые занимаются, в отличие от него, физика, каким-то нелепым делом. Чтобы избавить нас, читателей, от утомительных споров по существу дела, он применяет новый, невиданный доселе в научной литературе (хотя и популярный в некоторых торговых точках) риторический прием: вводит коллективное понятие «ИИ-парни», они же «ИИшники», а затем, виртуозно оперируя утверждениями, подобными «ИИшники никакого понятия не имеют, как запрограммировать [алгоритм] суждения [об истинности факта] на компьютере!»,[412] немедленно заставляет своего читателя задуматься: а всякое ли суждение «естественного» интеллекта озарено светом истины?

Для доказательства «невозможности» ИИ, Пенроуз приводит хорошо известный «аргумент Сирла», известный также под именем «китайской комнаты». «Доказательство» производится путем reductio ad absurdum, или «рассуждением от противного» (см., напр., Википедия, «Доказательство от противного»). Предположим, что ИИ возможен, в том смысле, что существует алгоритм, понимающий китайский язык и выдающий осмысленные ответы. Испытатель, не знающий китайского, запирается в комнате, а испытуемый, не знакомый с испытателем и говорящий по-китайски, пишет на листочке вопрос, а затем просовывает этот листочек в запертую комнату. Испытатель проделывает все шаги алгоритма и пишет в итоге ответ по-китайски. Испытуемый читает ответ и говорит: «Да, это разумный ответ! В комнате сидит человек, оворящий по-китайски!». Но ведь испытатель не говорит по-китайски? Не говорит. Противоречие? Ага! Следовательно, наше начальное положение неверно, и, стало быть, ИИ невозможен.

Правда, автор этих строк не видит, почему бы тем же способом не доказать также и невозможности алгоритмического сложения чисел, или, скажем, решения квадратного уравнения. Ведь если испытатель не обучен сложению, а пользуется алгоритмом, то испытуемый снаружи тоже подумает, что человек в комнате складывать умеет! Противоречие? Противоречие! Значит, алгоритм сложения двух чисел невозможен! Калькуляторы тоже невозможны: читатель легко докажет это, дав необученному арифметике испытателю в руки вместо алгоритма калькулятор. Впрочем, философия на то и древняя наука, чтобы все было туманно, но утвердительно. Автор здесь уверен, что есть философские аргументы, объясняющие принципиальную разницу между этими двумя случаями, и почти уверен, что их ему точно так же не понять… Впрочем, не будем огорчаться. Калькуляторов не бывает, но самая обычная логарифмическая линейка† сделает то, что никакому компьютеру не под силу! Сейчас ее превосходство будет объяснено.

В главе о классической механике Пенроуз говорит о принципиальной невозможности численного моделирования механической системы, за редким исключением сконструированных специально для того, чтобы быть моделируемыми. Этот тезис доказывается очень просто: до бесконечного числа знаков компьютер ведь считать не может†. А из него сразу же следует вывод, блестящий в своей простоте, мимо которого прошли, буквально не заметив его прямо под ногами, целые поколения физиков и математиков! Например, угол отклонения качающегося маятника от вертикали может оказаться числом и невычислимым. А значит, компьютерная модель маятника невозможна! Правда, Пенроуз тут же оговаривается, что специально просчитанный маятник можно смоделировать. Но кому это было бы интересно — заранее придумать то, что моделировать? Да и как считать, если калькуляторов не бывает? Но старая добрая логарифмическая линейка нас спасет! Она-то считает любые числа с бесконечной точностью! Движок на ней можно передвигать на сколь угодно малые расстояния, правда ведь?

Позволительно ли так надувать физику, чтобы натянуть ее на математику? Пенроуз, при всей неординарности своего, можно назвать, мышления, — все-таки физик, и о том, что материя состоит из атомов, наверное, знает. И о том, что длинами меньше планковской, ~10−35 м, не оперируют даже в микромире, тоже знает. Но требует при этом бесконечной точности в вычислениях: или бесконечность, или ничего не вычислится! А вот почему, этого нам с вами, по нашей недоученности, не понять. Да в конце концов, кто книжку писал? — Пенроуз. Кто писал, тот и написал, а чего не написать-то?

Затем Пенроуз переходит к описанию устройства мозга и выяснению, где именно в нем находится сознание. Путем довольно неочевидных рассуждений, Пенроуз, в своей конструктивной манере изложения, одну за одной исключает все части мозга, как возможные вместилища сознания. Все гениальное воистину просто! Сознание — нигде! Даже не в больших полушариях, столь высоко оцененных лишь несколькими страницами ранее, в следующем образчике изящного слова: большие полушария есть «та часть, которой, как знают человеческие существа, им следует гордиться более всего,… поскольку эта часть не только наибольшая от всего мозга человека, но и наибольшая по отношению к [размеру] всего мозга, в сравнении с другими животными».[375] Нельзя не согласиться: именно это чувство, вызывающая желание помериться величиной сего предмета гордости, и нашла отражение в известной поговорке; хорошо известна также и сила влечения к истине, возбуждаемая двумя большими полушариями в особо страстных адептах философии! А вот «бессознательное… все то, что можно вычислить алгоритмически, [находится], предположительно, в мозжечке».[413] Из чего, правда, исходя, делается такое предположение, в книге не говорится. Но, повторюсь, учитывая малый объем книги и грандиозность задачи, опущение принципиальных рассуждений тут вполне оправдано. Да и вообще, что для нас главное: рассуждения или результат? К теории, товарищи, надо подходить практически!

Далее Пенроуз дает первую из давно обещанных разгадок: почему мозг — это квантовый вычислитель. Это рассуждение достойно развернутой цитаты (речь в этом параграфе сначала велась о параллельных компьютерах):

Единство «я»† сознательного восприятия, как мне кажется, идет вразрез с картиной параллельного компьютера. Эта же картина могла бы, с другой стороны, подойти в качестве модели бессознательных действий мозга… С другой стороны [с третьей —freg.], мне кажется, что может быть вполне вообразима связь между единством «я» и квантовым параллелизмом†… Если сознательное «ментальное состояние» может быть уподоблено квантовому состоянию, то некая форма единственности «я» или глобальности мысли может быть более подходящей, чем в случае обычного параллельного компьютера… Но прежде, чем рассматривать такую идею, мы должны рассмотреть вопрос о важности квантовых эффектов вообще в деятельности мозга.[399]

Этими золотыми словами, этим обещанием рассмотреть вопрос важности квантовых эффектов Пенроуз опять создает ситуацию подвешенности в долгом, напряженном ожидании! Вашему собеседнику-недоучке, например, кажется, что единство «я» также идет вразрез и с картиной Ван Гога «Череп с сигаретой в зубах», из чего он все же затрудняется сделать вывод о квантово-механической природе своего «я», Ван Гога или черепа. Неясность эту мы опять же должны отнести на стесненность Пенроуза несоразмерностью громадья задач и ничтожности объема одного тома. Следует отметить, справедливости ради, что отдельные логически завершенные рассуждения мы все-таки находим: «Поскольку [в сетчатке] имеются нейроны, возбудимые, в принципе, одним квантом [света], не будет бессмысленным вопрос, а нет ли подобных нейронов и в мозге? Свидетельств этому, как мне известно, нет… Однако, можно и представить, что где-то глубоко в мозге найдутся нейроны с порогом возбуждения ниже [энергии] одного кванта. Если таковые нейроны вдруг обнаружатся, тогда можно будет сказать, что квантовая механика важна для деятельности мозга».[400] Присутствие столь неоспоримо справедливого вывода еще раз укрепляет пишущего эти строки в убежденности, что в прочих случаях Пенроуз отказывается от логического размышления лишь для экономии изложения, а вовсе не из неумения или, как можно было бы подумать, нежелания.

По ходу изложения Пенроуз оперирует понятиями «сознание» (consciousness), «бдение» (awareness) и «мышление» (cognition), по-видимому, в равном смысле, как антитезу «бессознательному» (unconscious), покрывающему такой диапазон явлений, как сон, инстинкты, рефлексы и автоматические действия. За 40 страниц до конца изложения, когда наступает пора, наконец, определить термины, которыми Пенроуз пользуется в течение всей книги, он отводит этому несколько страниц, где, в очередной раз не обманывая наших ожиданий, так и не приходит ни к какому определению†; затем он неоднократно возвращается к этим попыткам. В числе прочих, при обращении к этой же теме возник следующий, несомненно благородный по своим намерениям пассаж, обличающий тех из братьев старших, которые совершенно не по-братски принижают достижения и подавляют личности братьев меньших: «Остается открытым вопрос о возможности горилл и шимпанзе общаться, пользуясь языком жестов, а не нормальным[sic!] человеческим образом (коему они не приспособлены из-за отсутствия подходящих[sic!] голосовых связок)… Кажется ясным, что, невзирая на жаркие дебаты, [обезьяны эти] способны к обмену знаками, хоть и элементарному. По моему убеждению, это немного хамовато[sic!] со стороны некоторых не называть этот обмен жестами „словесным“. Не для того ли не допускают они приматов в „клуб небессловесных тварей“, чтобы потом изгнать их и из клуба тварей сознательных?»[425]. Да, товарищи, стыдно, стыдно за наших товарищей по биологическому виду, еще допускающих немного хамство, и, не обойду вниманием намека тов. Пенроуза, замышляющих конспирацию с целью изгнания наших ближайших родственников, наших братьев, «способных на истинное вдохновение»,[425] наших, так сказать, соратников в этом нелегком деле словесности, из партии сознательных, честных и совестливых! Где же ваш интерспециализм, товарищи! Позор предателям классовых, отрядных и семейственных интересов!

И вот, наконец, мы, вслед за автором, приближаемся к разгадке, к торжественному моменту, когда ленточка будет разрезана, и покрывало тайн сознания падет, и ничто более не скроет от нас живительных лучей света истинного знания! Полезно здесь перечислить, какие же истины были открыты нам к этому времени:

  • ИИ не бывает.
  • Модели механической системы тоже, в общем случае, не бывает.
  • Ум алгоритмом не охватишь.
  • Можно было бы предположить, что нельзя исключить возможного влияния квантовых эффектов на работу мозга, если вдруг найдутся этому экспериментальные подтверждения.
  • Гориллы суть говорящи и вдохновенны.

Какой же нам следует сделать из этого вывод? Невозможно было нам и на этот раз предвосхитить той ярчайшей вспышки интуиции, момента озарения истинного мыслителя! Вот что говорит сам Пенроуз, открывая нам глаза на эту тайну:

Я представляю себе, что, когда ум воспринимает математическую идею, он входит в контакт с Платоновым миром идеальных концепций… В соответствии с точкой зрения Платона, математические идеи существуют сами по себе, в идеальном, [вечном и неизменном] мире, доступном лишь уму. Когда кто-либо „видит“ математическую идею, его сознание врывается в этот идеальный мир, и входит с ним прямой контакт („доступность только через ум“)[sic!]… Разговор математиков возможен только лишь потому, что им открыта эта прямая дорога к истине, и сознание каждого из них находится в состоянии напрямую воспринимать истины математики, посредством „ви́дения“…
…Разум всегда в состоянии соединиться [с этим миром]. Но только немного выдается каждый раз… Из того факта, что математические истины есть необходимые истины, никакой „информации“, в техническом смысле, делающему открытие не передается. Вся информация была там [где? —freg.] все время. Это — лишь вопрос совокупления  фактов и „ви́дения“ ответа! Все это соответствует идее самого Платона о том, что (скажем, математическое) открытие есть лишь разновидность воспоминания!… Но, чтобы эта точка зрения была полезна, в случае математической коммуникации, следует представлять себе, что интересные и глубокие математические идеи неким образом более существуют[sic!], нежели тривиальные или неинтересные.[428—429]

Оставшиеся несколько страниц книги посвящены, насколько смог их понять ваш скромный помощник, геометрическим мозаикам и специальным вопросам кристаллографии.

«А как же обещания автора?», спросит удивленный читатель, «Как же suspense? А зачем нас учили на протяжении семи глав непроходимым языком всем этим головоломным дисциплинам, которых все равно из такого краткого изложения не понять — при том, что для осознания идеи автора, кажется, даже школьная арифметика не требуется? Зачем меня, добропорядочного читателя, так жестоко надули?» Увы, ответы нам не известны. Рискнем лишь предположить, что Пенроуз сам не предвидел этого неожиданного контакта с идеальным миром истин, закончившегося извлечением в наш мир этой, несомненно, самой существующей из идей, и именно нежданное, не по плану, можно сказать, изложение ее и сделало все предыдущие вопросы несущественными, а ответы на них — более не нужными. Задаваться этими вопросами теперь было бы, думается, так же несмысленно, как, дочитав «Знак четырех», терять и сон, и аппетит, мучаясь загадкой: а ковырял ли когда-нибудь Шерлок Холмс в носу?

Ведь нам все ясно уже и без этого, не правда ли?

Комментарии

Это приложение, в отличие от основного текста статьи, не содержит ни иронии, ни сарказма. Любое утверждение здесь, за исключением, разумеется, цитат, следует принимать за то, чем оно представляется.


Логарифмическая линейка — вычислительный прибор, состоящий из корпуса с неподвижными шкалами, скользящего в нем движка со шкалами, подвижными относительно первых, а также визира с риской для точного считывания значений с отдаленных друг от друга шкал. Градуировка шкал нелинейная, и, хоть не для всех шкал она и логарифмическая, именно такой принцип градуировки дал название прибору. Устройство использовалось до появления калькуляторов для численных расчетов инженерами, навигаторами и т. д. См., напр., Википедия, «Логарифмическая линейка».


Вычислимые и невычислимые числа. Натуральных чисел, как известно, бесконечно много, а целых чисел — так же много, как и натуральных, а вовсе не вдвое больше (здесь полезно вспомнить, что расходящиеся ряды не позволяют применять к ним кажущиеся очевидными алгебраические преобразования). Доказательство этой теоремы разработано великим математиком Георгом Кантором, и удивительно просто: возьмем и перенумеруем все целые числа! Поскольку мы не можем нумеровать каждое число в отдельности, мы выведем вместо того общий принцип нумерации, для произвольного целого числа n. Начнем нумерацию так: 0 будет № 1, −1 — № 2, 1 — № 3, −2 — № 4, 2 — № 5, −3 — № 6, и так далее, так что любое целое число n будет иметь номер 2n + 1, если оно положительное, или −2n в противном случае. Другими способами можно перенумеровать все рациональные числа, т. е. дроби (т. н. «диагональный аргумент Кантора»), а также все алгебраические числа, которые суть решения полиномиальных уравнений. Но даже за вычетом всех этих перенумерованных чисел, остается еще множество чисел, которые нельзя перенумеровать: континуум вещественных чисел. Кантор доказывает, что даже в интервале между 0 и 1 «все» числа перенумеровать нельзя. Также верно и то, что эти числа непредставимы в компьютере, и даже называются они «невычислимыми». Компьютеры ведь считают с ограниченной точностью. Представим, что некий компьютер считает числа до 40 десятичных знаков. Такому компьютеру все равно, что вот это число:
    0,1111122222333334444455555666667777788888 ,
что это:
    0,1111122222333334444455555666667777788887 ,
потому что оба они округлятся до
    0,111112222233333444445555566666777778889 ,
Если надо для решения конкретной задачи, правда, компьютер может и до сотни, и до тысячи знаков сосчитать, и с любой конечной точностью. Но с бесконечной точностью за конечное время, само собой, нет.

Тем не менее, утверждения о бесконечной точности механического движения в системе, даже идеальной, равно как и о бесконечной точности, потребной для построения вычислительной модели такой системы, от физика слышать чрезвычайно, просто запредельно странно.


Единство «я». Пенроуз постоянно ссылается на некое единство сознания как данность. Аргумент этот возникает из здравомысленных наблюдений, но рациональному обсуждению не подвергается: «Характеристикой сознательной мысли является ее единство… Вопросы наподобие „Как, по-вашему, мне думать более одной мысли сразу?“ совершенно обычны».[399] Меж тем, постулат единства «я», как процесса, производящего сознание, отнюдь не очевиден, более того, при внимательном рассмотрении оказывается ошибочным.

«Мы называем словом «я» полновластное существо внутри нас, желающее чувствовать и думать за нас, и принимать важные решения за нас. Мы зовем его «я», самость, эго, и мы представляем его никогда не меняющимся, чтобы ни случилось с нами. Иногда мы даже делаем «я» маленьким человечком, живущим внутри нашего разума».[Minsky 06 с. 299]

«Гомункул… миниатюрный взрослый, который, по положению, обитает в мозгу… воспринимая… сенсорные сигналы и вызывая все команды мускулам. Любая теория, полагающая подобного внутреннего агента, рискует оказаться в бесконечной рекурсии… поскольку мы можем спросить, а нет ли у маленького человечка в голове своего маленького человечка, отвечающего за его действия и восприятия, и так далее». [Dennett 78 apud Minsky 06].


Квантовый параллелизм — вытекающая из особой интерпретации квантовой механики возможность элементарной частице находиться одновременно в нескольких точках пространства.


Определение сознания и интеллекта. Справедливости ради, отметим, что определение даже в гораздо менее расплывчатых случаях затруднительно. Пенроуз, по недопониманию, устанавливает рамки для определений невнимательно, и пытается разграничить процессы в уме там, где они в разграничении не нуждаются. Даже сама терминология, используемая Пенроузом, противоречива и нестабильна. Он говорит, «при моем собственном взгляде на вещи, вопрос интеллекта подчинен вопросу сознания. Я не полагаю, что я мог бы поверить, что истинный интеллект может проявиться, если при этом не появляется и сознание».[407] Автор, при всех приложенных им стараниях, так и не смог разобраться, что же, по взглядам Пенроуза, есть главное, а также в чем состоит отличие истинного интеллекта от просто интеллекта.

Минский [Minsky 86], вводя понятие сознания [гл. 6.1], пишет, «в жизни вам очень часто приходится иметь дело с вещами, которых вы не понимаете. Вы водите машину, не зная, как двигатель устроен внутри. Вы едете пассажиром, не зная, как водитель устроен внутри. Но самое странное, вы управляете своими телом и разумом, не понимая, как вы сами устроены внутри. Не замечательно ли то, что мы можем думать, не понимая, что значит думать?… Наши мысли… управляют множеством процессов, которые мы редко замечаем. Не понимая, как они работают, мы учимся достигать цели, посылая сигналы этим чудесным машинам, словно колдуны древности, читающие ритуальные заклинания».

Здесь же Минский приводит определение из словаря Вебстера: «сознающий. 1. имеющий чувства или знание о своих ощущениях, либо о внешних вещах); знающий или чувствующий, (что ч.‑л. существует, происходит);… 3. Воспринимающий себя мыслящим существом, знающий, что и почему он делает». Как хорошо заметно, ни метафорическое сказание Минского, ни претендующий на четкость определения язык словаря ясности здесь не дают.

В [гл. 7.1], Минский рассуждает о трудности определения интеллекта, пробует, ведя диалог с критиком, различные определения, и останавливается вот на таком: «В наших умах происходят процессы, позволяющие нам решать задачи, которые мы сами полагаем сложными. Те из этих процессов, которые мы пока не понимаем, называются „интеллектом“. Некоторым не понравится это определение, поскольку оно обречено на изменение по мере того, как мы все глубже изучаем психологию. Но, на мой взгляд, именно так и должно быть, поскольку само понятие „интеллекта“ напоминает фокус на сцене. Подобно „неисследованным регионам Африки“, он исчезает по мере того, как мы исследуем его».

Здесь автору остается лишь согласиться с Минским и расстаться с надеждой дать четкое и неопровержимое определение сознанию или интеллекту, а заняться вместо того делом интересным и полезным.

Использованная литература

Dennett, Daniel C. “Why Can't You Build A Machine That Feels Pain.” In Brainstorms, Cambridge: MIT Press, 1978, 190—229. Apud [Minsky 06].

Minsky, Marvin. The Society of Mind. New York: Simon and Schuster, 1986.

Minsky, Marvin. Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster, 2006.

Penrose, Roger. The Emperor's New Mind. Concerning Computers, Minds And the Laws of Physics. New York: Oxford University Press, 1989

Tags:

Comments

fregimus
Jan. 4th, 2008 08:57 am (UTC)
Часть 2.2. Китайская комната. [Re: часть 2. по сабжу.]
Китайскую комнату изобрел Сирл в 1980 году. Тогда справедливость аргумента Сирла не подтверждалась справедливостью аргумента Сирла, а сейчас Вы его пытаетесь использовать. Мне Ваше рассуждение разбирать теперь, или П., из книги?

Начну с Вашего. Вот Вы говорите, «Если бы с аргумент Сирла можно было так легко снять, он не прожил бы и недели. И его разбору не было бы посвящено столько литературы.» Совершенно не понимаю — как из того, что «если» у Вас следует, что «то». Правда. Искренне не понимаю. Одно из самых легких на свете занятий человеческих, за которые платят деньги — обсуждать вечные вопросы философии. Желающих никогда не переводилось.

Теперь рассуждение Сирла (вздохнув, пускается в объяснения в тысячный, наверное, раз). Формулировка будет та, что я написал в статье — подойдет? В китайской комнате имеется несколько логических ошибок.

Первая — апелляция к эмоциям. В комнату я посадил «испытателя»; Сирл не допускал в нее никого, кроме себя. Эта отсылка к тому же самому, «как же я, такой хороший, исполню алгоритм умнее меня? да нет такого алгоритма!» Заменим испытателя железным процессором, чтобы призрак подобного злоумышления не болтался вокруг нас и не ухал по углам, — согласны?

Вторая логическая ошибка. Требуется переформулировка утверждений, и точная. Буду я свои уточнения в фигурные скобчки вписывать. Вы сперва вот прочитайте, пропуская то, что в скобках, и это будут уже знакомые аргументы Сирла. А вот второй раз читайте, прочитывая и то, что в скобочках.

{ «Совместимый» употребляю в наименее слабом смысле. Любой реальный вычислитель слабее или так же силен, как машина Тьюринга с бесконечной лентой; «совместимость», таким образом, просто требование достаточного для исполнения А запаса ленты, не более того. Скорее даже, это просто для меня повод упомянуть процессор там, где надо. }

1. Пусть существует алгоритм А, реализующий ИИ, такой, что разговаривает по-китайски { при исполнении его на процессоре, совместимом с алгоритмом А }.
2. Возьмем процессор { совместимый с алгоритмом А }. Этот процессор { при отсутствии алгоритма А } не говорит по-китайски.
3. Запустим алгоритм А на этом процессоре. Из (1) следует, что процессор { , исполняющий алгоритм А , } начинает говорить по-китайски, что противоречит (2), утверждению, что процессор { , при отсутствии алгоритма А , } не говорит по-китайски. Следовательно, положение (1) ложно.

Если читать с тем, что в скобках, противоречия никакого не возникает, просто повторно проговариваются утверждения (1) и (2). В противоречие они не вступают, ибо у каждого из них появляется предусловие, и эти предусловия в двух утверждениях суть исключительны.

Третья ошибка, на которую зачем-то попались Вы, поэтому проговорю подробнее. Ваше утверждение: «Мне кажется, вы путаете алгоритм сложения, исполняемый калькулятором, и понимание сложения, которое калькулятору не присуще».

Внутри комнаты есть машина Тьюринга с лентой, которая просто отвечает на вопросы по-китайски. Иллюзия разумности возникает у «испутуемого» снаружи комнаты. Как Вы думаете, я — вот я, Ваш собеседник, понимаю сложение? Да, я могу прямо перед Вами сложить прямо вот столбиком два числа: 123+321=444. Почему Вы думаете, что я понимаю сложение? Может, я просто умею? Ошибка в том, что Вы распространяете свои личные ментальные процессы на что-то другое, например, меня. Вы не знаете, как я думаю, и никогда не узнаете этого, но Вам может казаться, что Вы знаете, полагая, что я устроен в целом так же, как и Вы. Подобные рассуждения о таком неисследованном аппарате, как мозг, совершенно недопустимы, ведь нельзя судить о сути явления по столь поверхностным проявлениям.

Более того, попробуйте сформулировать отличие «понимаю» и «умею». Великолепное упражнение, если только его проделать, исходя не из здравого смысла, а из логики!

Аристотель не зря придумывал строгие, как уголовный кодекс, правила рассуждения: он знал, что без этой системы логическое мышление не состоится, а будет здравый смысл. А вот П. утверждает, что у человека врожденное логическое мышление. Это утверждение очень недальновидное, и, услышь я его от кого-то другого, подумал бы даже, что глуповатое.

Про якобы «невычислимость» потом расскажу. Давайте начнем пока спорить по этой части. :-)
nature_wonder
Jan. 4th, 2008 08:27 pm (UTC)
Re: Часть 2.2. Китайская комната. [Re: часть 2. по сабжу.]
От такого ответа я в изрядном недоумении. На мой взгляд, вы привели один аргумент, как-то относящийся к проблеме, а именно третий. Первые две, как вы их называете, "ошибки" заставляют поинтересоваться, как вы трактуете мысль, которую пытался донести Сирл.
Может, поясните, что вы этими примерами хотели проиллюстрировать в контексте "китайской комнаты" - я их не смог никак приложить.

Сирл говорит простую вещь: смотрите, я делаю в точности то, что компьютер при выполнении программы - при этом у меня не возникает ни малейшего понимания. Соответственно, у меня нет оснований считать, что понимание может в таком процессе каким-то образом возникнуть у компьютера.
Вот суть доводов Сирла. Это все. Он оспаривает не способность МТ писать на китайском или считать. Он оспаривает возможность понимания в результате исполнения алгоритма. Ваши возражения, как я их увидел, направлены мимо этого тезиса.

Лишь в третьем доводе вы оспариваете саму постановку такого вопроса - о разграничении понимания и умения. Думаю, это ключевой вопрос и камень всех преткновений в проблематике ИИ. Потому что если вы не признаете такого качества как понимание (которое имеет дело с семантикой), то разговор, по сути, бессмысленен.
Вероятно, вы хотите сказать, что по внешним признакам эти вещи могут быть неразличимы - здесь легко соглашусь. Но ваша идея считать всех людей кроме себя бай дефолт не обладающими пониманием кажется мне менее здравой нежели считать их бай дефолт пониманием обладающими. Пусть даже проверить наверняка это невозможно. Вы предлагаете солипсизм, который позволяет уйти от проблемы вместо ее решения. А это неконструктивно и скучно, на мой вкус.
fregimus
Jan. 4th, 2008 10:15 pm (UTC)
Часть 2.2: Просьба уточнить интерпретации
Давайте вот что выясним, для начала. Не буду длинно расписываться, но хочу уточнить сначала кое-что в Ваших рассуждениях. Никакого подтекста в моих вопросах нет.

Скажите, Ваше понимание того, что есть сам аргумент Сирла по форме: это a) логическое рассуждение, основанное на неких предпосылках; либо это b) притча, понимать которую следует метафорически?

Дело в том, что я слышал и «ну конечно же а)!!!» или «само собой разумеется, b), чего спрашивать-то?!». Не понял, как Вы его интерпретируете.

Второе, если можно, сделайте мне такую любезность, изложите аргумент Сирла о КК от начала до конца, пожалуйста. Это всего несколько строчек, а поможет это нам премного. Дело здесь в том, что Сирл приводил много вариантов. Хотелось бы очень четко понимать, что мы обсуждаем. Смогу Вам тогда ответить гораздо яснее.
nature_wonder
Jan. 5th, 2008 06:04 am (UTC)
Re: Часть 2.2: Просьба уточнить интерпретации
Полагаю, что в нескольких строчках я аргумент Сирла уже изложил. Могу то же самое другими словами. Отвечая на ваш вопрос, КК - это мысленный эксперимент, иллюстрация. Сирл пытается показать, что мышление не сводимо к процессу манипулирования формальными символами. Он воспроизводит этот процесс согласно задаваемому извне алгоритму, что позволяет ему сносно "общаться" на китайском (по сути, пройти тест Тьюринга) без малейшего намека на понимание содержания разговора. При этом без всяких инструкций он ведет общение на английском, который ему понятен, что отражает принципиальное различие этих ситуаций с т.з. самого Сирла, хотя для внешних собеседников они идентичны.
Поскольку в первом случае он проделывает ровно те операции, что производила бы МТ, и при этом никаким образом у него не прибавляется способности понимать китайский язык, Сирл не видит оснований рассчитывать, что в результате подобных операций это понимание возникнет, если вместо него поставить в комнату МТ. Тот же вывод можно распространить вообще на любой случай исполнения программы компьютером, так как последний, по определению, не производит ничего кроме типографских операций с символами. И вопрос об источнике понимания т.о. подвисает в воздухе...

Далее его позицию можно суммировать след. образом: синтаксис не способен породить семантику; разум порождается мозгом в силу его казуальных физических свойств, а не алгоритма (хотя наличие в нем алгоритмов он не отрицает).
КК - абсолютно не доказательство чего-либо, и даже не строгие рассуждения. Это то, что я написал выше, позволяющее ставить правильные вопросы. Если мои несколько строк не удовлетворили вашей просьбы, задавайте конкретные вопросы - иначе затрудняюсь понять, что вас интересует.

Для Пенроуза КК далеко не основной аргумент, он использует ее для введения в проблему, чтобы наглядно показать, чем для него отличается понимание от просто выполнения задачи алгоритмом.
fregimus
Jan. 5th, 2008 09:20 am (UTC)
2.2.1, Разъяснение со статьей в руках.
Спасибо, я потрясен: Вы прочитали и саму статью! Если бы все так готовились до того, как спрашивать! Глубокий респект.

Давайте внимательно прочитаем сразу возражение от систем, №1, три абзаца. До «та система во мне, которая понима­ет английский язык, обладает чем-то гораздо большим, чем та систе­ма, которая просто оперирует с китайским текстом.»

Сирл, кстати, чудесно ясно пишет. И он очень правильно, формулирует настоящие проблемы ИИ. Вот гамбургеры во втором абзаце, то, что называется grounding problem, она с практической точки зрения особенно серьезна. Любая интеллектуальная машина должна как минимум содержать, кроме I/O, конечно, логический анализатор, бесполезный, как говорит нам т. Геделя, без вот этого «заземления концепций». Но я отвлекаюсь.

Внимательно отнеситесь вот к чему. В голове у «Сирла» в третьем абзаце случились две системы. Для наружного наблюдателя они одинаковы: он говорит как по-англ., так и по-кит. А вот «внутри» он видит разницу, и исходя из этого делает вывод, что разница эта есть. А ее нет.

Это упущение очень легко сделать, ибо то, что происходит внутри, мы склонны принимать за чистую монету, потому, опять же, что, здравомысленно заблуждаясь, полагаем себя обладателями единственного «я». Если «я» одно, то о каком споре в голове может идти речь? Заметьте, это не аргумент, это просто объяснение, как могла мимо такого ума, как вполне здравый ум Сирла (без кавычек, настоящего), пробраться такая ошибка.

(продолжение следует незамедлительно!)
fregimus
Jan. 5th, 2008 09:27 am (UTC)
2.2.1., Продолжение разъяснения со статьей в руках.
Так вот, внутри у «Сирла» есть две системы. Представим, для простоты, что они исполняют практически один и тот же алгоритм (Хомские «переключатели» передвинуты :-) ). Но одну из них «Сирл» исполняет в качестве процессора. Тут он совершенно прав, у МТ ума нет. Вторая система исполняет тот же алгоритм, но на нейронах. Разница не в нейронах. Разница в том, что Сирлу этого видеть не дано. У нас нет сенсора работы мозга (Минский где-то пиш. об обучении с таким сенс. и без него), поэтому этого внутреннего «жужжания и пощелкивания» мы не воспринимаем.

Итак, внешний наблюдатель видит машину «К» и машину «А». Он говорит: да, ум налицо, и там и там. А «Сирл» «знает»: ни фига не так: «А»-то ум, а «К» — это я, «Сирл», по нотам играю. А на самом деле, «Сирл» этот, и здесь как раз упущение, точно такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин.

В машине «К» «Сирл» сознательности не видит, ибо он наблюдает, что она делает, но понять в деталях не может: она читает какие-то картинки и пишет какие-то картинки. О, это, похоже, буквы такие! О! это язык! Китайский? Японский? Почему не может? потому что он не знает китайского, конечно. Он прекрасно видит, что она рисует глифы, он знает, что это — глифы, он только не может понять, что же именно она пишет. Это не мешает машине «К» иметь сознание (щас объясню, откуда оно), и общаться с соседом-китайцем, также в поле зрения «Сирла». «Сирл» исполняет алгоритм (ну, механически, как на спицах вяжет), а сам поглядывает — и на «свой», т.е. алгоритма, результат, и на китайца.

Глядя на китайца, «Сирл» видит то же самое, что и глядя на машину «К». Однако, он наделяет китайца «умом». Почему так? Понятно теперь?

«Ум» есть у каждого. Каждый с детства наблюдает за своим «умом». Поэтому, увидев проявление другого «ума», мы сразу узнаем его: ага, это — ум. Он разговаривает, умные вещи говорит. Если человек танцует, скажем, мы не называем этого «умом», и правильно: приплясывать и робот железный может.

А вот отчего, глядя на китайца, «Сирл» подумал, что у китайца — ум? Может, у китайца шизофрения обострилась, и он несет ерунду и пишет бессвязицу? Мы говорим «сошел с ума» о таком случае. Но, видя иностранца, мы привыкли думать: у него есть ум, просто я не понимаю его языка. «Сирл» полагает, что все, что выглядит как человек, имеет ум. Это почти верное утверждение, и следует оно тоже из здравого смысла.

Машина «К» — это единственный «ум», на который «Сирл» смотрит изнутри, со стороны механизма. Здравый смысл подсказывает: «это — ум??? Он что-то умное делает? Нет. Ты такое вот где раньше где видел? Вспомни-ка? Провода во все стороны? Точно, в стиральной машине! А откуда там ум?» На основании этого, «Сирл» машине «К» в «уме» отказывает.

Суммирую:
Машина «А» — это ум, потому что {это — я}. (1)
Китаец напротив — ум, потому что {он просто иностранец}. (2)
Машина «К» — совсем иная, не такая, как машина «А», и не такая, как китаец, значит, {это — не ум.} (3)

Утверждения в фигурных скобках, все три, следуют из опыта, из здравого смысла, который часто нас обманывает. Логически все три «ложны», логика нас не выручит. Но если мы сопоставим их с реальностью, оставим им этакую щелочку, попробуем их «заземлить», то утверждение (2) окажется «скорее всего истинным», ибо большинство китайцев и впрямь не сумасшедшие. Утверждения (1) и (3) не имеют обоснования в реальности, а они ведь и ввели Сирла (наст. Сирла, без кавычек) в заблуждение. (1) подробно расколупывают и Деннет, и Минский, см. комментарии к фельетону. (3) мне не надо опровергать? :-) Или надо? оно ничего не доказывает и не опровергает. Самолет не такой, как муха, значит,он не полетит! Паровоз не такой, как муха — значит, он не полетит! Один полетит, другой не полетит, а ложны оба, потому как не «значит»: похожесть здесь не важна. Вот такой grounding.

Беда-то в том, что Сирл застрял в своем убеждении. А может, вот, подозреваю, и не застрял — ну, работа у него такая, Сирлом. Поэтому я и сказал тогда: «все, кто не Сирл…»
ex_clyde404
Jan. 5th, 2008 01:25 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Можно мне вклиниться в ваш диалог?

Если да, то скажите, пожалуйста - все-таки есть некая разница в том, как устроена внутри машина А и машина К, обозначаемая словом "понимание" - или ее нет?
fregimus
Jan. 5th, 2008 02:47 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Конечно можно, пожалуйста! Ваш вопрос я читаю так: «Пусть слово "понимание" обозначает разницу во внутреннем устройстве воображаемой машины «А» и воображаемой машины «К» из описанного мысленного эксперимента. Вопрос: Существует ли "понимание"?»

1. мне кажется, слово "понимание" уже занято, и оно означает вовсе не diff между чертежами устройства двух машин. Можно заменить его здесь на "foo".
2. В эксперименте речь об устройстве машин не идет, оно не важно.
3. Детальное устройство машины «А» неизвестно. Она состоит из нескольких миллиардов нейронов, соединенных несколькими триллионами соединений. Процессы, происходящие в ней, теоретически-сложны, и, как предполагается, вычислительно-нередуцируемы.
4. Машина «К», скорее всего, невозможна в действительности. Вы прочитали те три абзаца в статье Сирла? «Сирл» там выучивает алгоритм ИИ, и исполняет его в уме. Исполняя его сознательно, но без понимания того, что происходит, т.е. «… и если положительно, то запиши 5 в клеточку Ы, и перейди к шагу 121764».

Разница, обозначенная нами "foo" — какая? п.3 из п.4 не вычтешь. «"foo" огромно!»?.. Но Вы ведь не об этом спрашивали, так ведь? Вот начиная с таких рассуждений, Вы можете вопрос Ваш уточнить?
(Deleted comment)
(no subject) - fregimus - Jun. 20th, 2009 08:52 pm (UTC) - Expand
(Deleted comment)
(no subject) - fregimus - Jun. 22nd, 2009 12:45 pm (UTC) - Expand
(Deleted comment)
(no subject) - gevor - Jul. 10th, 2009 09:44 pm (UTC) - Expand
nature_wonder
Jan. 5th, 2008 07:01 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
я потрясен: Вы прочитали и саму статью!
Честно говоря, то, что я прочитал статью, прежде чем иметь какое-либо суждение по поводу аргументации Сирла, я полагал само-собой разумеющимся. Первый раз я ознакомился с ней, естественно, задолго до нашего разговора. При этом столь же естественно ожидаю этого от любого, кто вступает в дискуссию по КК. Согласитесь, иное было бы в высшей степени странно. Возможно, я чрезмерно наивен в этом плане.

Возражение на КК, столь подробно расписанное (что, несомненно, будет полезно для читателей этой дискуссии), хорошо известно. Это, по-существу, позиция Дэннета, Минского, Хофштадтера и др. Признавая выводы Сирла (понимания у МТ не возникает), в рамках этой позиции делается следующий шаг - понимания на самом деле не возникает и у Сирла. А то, что Сирл принимает за понимание - суть иллюзия по отношению к собственному мозгу (типа мини-КК), подобная той, что возникает у собеседников Сирла, китайцев, по отношению к нему.
Занятное рассуждение. Проблема лишь в том, что оно не более обосновано, нежели доводы Сирла. Если обратите внимание, оно опирается на предположение, что мозг в процессе понимания осуществляет те же типографские операции и ничего сверх этого (исполняет тот же алгоритм, но на нейронах). Однако дело в том, что как раз этот момент подлежит обсуждению (именно его атакует Сирл): невозможно постулат сильного ИИ обосновать через него же (постулат сильного ИИ).
Не говоря уже о следующей интересной мелочи - кто (что) является наблюдателем мозга Сирла в момент понимания. Кто (что) испытывает иллюзию?
Утверждение, что Сирл такой же наблюдатель машины «А», машины своего сознания, как внешний собеседник — наблюдатель обеих машин предполагает гомункулуса, со стороны выносящего суждение о наличии понимания у машины "А". Надеюсь, вы не имели это в виду. Сирл и есть машина "А". Он не может ее внешне наблюдать, он ей является. Вы (вместе с Д., М.и Х.) предлагаете считать, что машина "А" сама выносит суждение о себе и собственном понимании, не производя, как мы договорились, ничего кроме типографских операций.
Мне кажется, этот тезис достаточно тяжел для аргументации и для демонстрации. Пока он существует в виде веры (назовем это убеждением).
Как показал Сирл (и с ним все согласились), в результате выполнения алгоритма у исполнителя не может возникнуть никакого понимания. Даже иллюзорно понимать что-либо МТ не может (у МТ ума нет), она не наблюдает и не выносит суждений. Она манипулирует символами. Кто тогда выносит суждения?

Сколько я не пытался выяснить, как конкретно предлагается выскочить из этой рекурсивной петли, ничего внятного не обнаружил. Даже весьма уважаемые мною и упомянутые выше господа, на мой взгляд, к этой проблеме не смогли подступиться. Хотя очень старались.


На "точки над i" я пока решил не отвечать. Будет настроение, напишу. Скорее всего не будет. Думаю, что и вам моя писанина по этому поводу не сильно нужна.
Отв. 1 - yurvor - Jan. 6th, 2008 02:53 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 06:24 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 06:49 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 07:01 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 07:15 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 07:48 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 08:04 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 08:18 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 08:57 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 09:11 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 09:42 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 6th, 2008 09:57 pm (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 10:21 pm (UTC) - Expand
Re: Отв. 1 - nature_wonder - Jan. 7th, 2008 06:20 am (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 7th, 2008 06:40 am (UTC) - Expand
Re: Отв. 1 - yurvor - Jan. 6th, 2008 10:34 pm (UTC) - Expand
Re: Отв. 1 - gineer - Mar. 25th, 2017 09:04 am (UTC) - Expand
Отв. 2 - yurvor - Jan. 6th, 2008 02:59 pm (UTC) - Expand
Re: Отв. 2 - nature_wonder - Jan. 6th, 2008 05:55 pm (UTC) - Expand
Re: Отв. 2 - yurvor - Jan. 6th, 2008 06:56 pm (UTC) - Expand
Re: Отв. 2 - nature_wonder - Jan. 6th, 2008 07:21 pm (UTC) - Expand
Re: Отв. 2 - yurvor - Jan. 6th, 2008 07:32 pm (UTC) - Expand
Re: Отв. 2 - nature_wonder - Jan. 6th, 2008 08:04 pm (UTC) - Expand
Re: Отв. 2 - yurvor - Jan. 6th, 2008 09:00 pm (UTC) - Expand
Отв. 3 - yurvor - Jan. 6th, 2008 03:08 pm (UTC) - Expand
Re: Отв. 3 - nature_wonder - Jan. 6th, 2008 05:43 pm (UTC) - Expand
Re: Отв. 3 - yurvor - Jan. 6th, 2008 07:00 pm (UTC) - Expand
Re: Отв. 3 - nature_wonder - Jan. 6th, 2008 07:15 pm (UTC) - Expand
Re: Отв. 3 - yurvor - Jan. 6th, 2008 07:22 pm (UTC) - Expand
(no subject) - nature_wonder - Jan. 6th, 2008 06:11 am (UTC) - Expand
(no subject) - fregimus - Jan. 6th, 2008 07:30 am (UTC) - Expand
(no subject) - nature_wonder - Jan. 6th, 2008 06:29 pm (UTC) - Expand
повторно - nature_wonder - Jan. 7th, 2008 08:07 am (UTC) - Expand
Re: повторно - yurvor - Jan. 7th, 2008 08:29 am (UTC) - Expand
в третий раз - nature_wonder - Jan. 7th, 2008 09:00 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:06 am (UTC) - Expand
все, хватит - nature_wonder - Jan. 7th, 2008 09:10 am (UTC) - Expand
Re: все, хватит - yurvor - Jan. 7th, 2008 09:22 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:13 am (UTC) - Expand
Re: в третий раз - nature_wonder - Jan. 7th, 2008 09:23 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:33 am (UTC) - Expand
в четвертый раз - nature_wonder - Jan. 7th, 2008 09:47 am (UTC) - Expand
Re: в четвертый раз - yurvor - Jan. 7th, 2008 10:18 am (UTC) - Expand
(Deleted comment)
(Deleted comment)
(Deleted comment)
(no subject) - fregimus - Jun. 24th, 2009 06:29 pm (UTC) - Expand
Re: запоздалые вопросы ;) - (Anonymous) - Jun. 24th, 2009 08:29 pm (UTC) - Expand
все наоборот - nature_wonder - Jan. 7th, 2008 07:26 am (UTC) - Expand
Re: все наоборот - yurvor - Jan. 7th, 2008 07:59 am (UTC) - Expand
Re: все наоборот - nature_wonder - Jan. 7th, 2008 08:11 am (UTC) - Expand
nature_wonder
Jan. 5th, 2008 08:39 pm (UTC)
Небольшое добавление
Видимо, необходимо пояснить.

Машина «А» — это ум, потому что {это — я}. (1)
Китаец напротив — ум, потому что {он просто иностранец}. (2)
Машина «К» — совсем иная, не такая, как машина «А», и не такая, как китаец, значит, {это — не ум.} (3)


Машина "К" - не ум, потому что ничего не знает о содержании, семантике сообщений. А не потому что совсем иная.
Машина «А» - это ум, потому что знает (понимает) семантику.
Re: Небольшое добавление - yurvor - Jan. 5th, 2008 10:56 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 05:47 am (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 02:47 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 06:37 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 06:51 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 07:18 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 07:58 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 09:07 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 09:48 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 7th, 2008 06:04 am (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 6th, 2008 10:06 pm (UTC) - Expand
Re: Небольшое добавление - yurvor - Jan. 7th, 2008 05:46 am (UTC) - Expand
oleg_mazurov
Jan. 5th, 2008 11:06 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
В машине «К» «Сирл» сознательности не видит, ибо он наблюдает, что она делает, но понять в деталях не может...
Это не мешает машине «К» иметь сознание (щас объясню, откуда оно), ...


Пожалуй, эти два высказывания явно демонстрируют, что именно Вы не понимаете в аргументации Серля.

Посмотрите Qualia, в частности, такое утверждение:
John Searle has rejected the notion that the problem of qualia is different from the problem of consciousness itself, arguing that consciousness and qualia are one and the same phenomenon. (Джон Серль отвергает идею о том, что проблема qualia отлична от проблемы сознания, утверждая, что сознание и qualia - это один и тот же феномен.)

Серль отрицает наличия у машины «К» сознания как, в первую очередь, quala - субъективных переживаний (subjective experiences). В этом же смысле (а не в бихевиористском, которое пытаетесь отстаивать Вы) он отказывает машине «К» в "истинном понимании", которое также переживается, испытывается субъективно.
(no subject) - ex_kosilova - Jan. 9th, 2008 11:42 am (UTC) - Expand
(no subject) - fregimus - Jan. 10th, 2008 05:35 am (UTC) - Expand
(no subject) - ex_kosilova - Jan. 11th, 2008 11:33 am (UTC) - Expand
(no subject) - fregimus - Jan. 14th, 2008 07:53 am (UTC) - Expand
(no subject) - fregimus - Jan. 14th, 2008 07:56 am (UTC) - Expand
Qualia or No qualia - oleg_mazurov - Jan. 7th, 2008 09:02 am (UTC) - Expand
Re: Qualia or No qualia - fregimus - Jan. 9th, 2008 06:46 am (UTC) - Expand
kaktus77
Jan. 6th, 2008 09:04 am (UTC)
Re: Часть 2.2: Просьба уточнить интерпретации
смотрите, я делаю в точности то, что компьютер при выполнении программы

Поскольку в первом случае он проделывает ровно те операции, что производила бы МТ

Нет. Вот здесь Серль передёргивает. И дальше всё уже мимо. Подробнее можете, при желании, посмотреть здесь (как-то мы это уже обсуждали) - http://kaktus77.livejournal.com/6338.html

Кстати, машина Т. - это машина с памятью, она модифицирует свое текущее состояние на каждом шаге.
Машина Т. вообще не раскладывается на инструкцию и "исполнителя"!
nature_wonder
Jan. 6th, 2008 06:06 pm (UTC)
Re: Часть 2.2: Просьба уточнить интерпретации
Простите, там очень обширная дискуссия. Вам достаточно просто указать одной фразой, какие еще операции производит МТ, которые не производил Сирл.
(no subject) - nature_wonder - Jan. 7th, 2008 05:38 am (UTC) - Expand
(no subject) - kaktus77 - Jan. 7th, 2008 09:54 am (UTC) - Expand
(no subject) - nature_wonder - Jan. 7th, 2008 10:51 pm (UTC) - Expand
(no subject) - kaktus77 - Jan. 8th, 2008 07:59 am (UTC) - Expand
(no subject) - nature_wonder - Jan. 8th, 2008 09:51 am (UTC) - Expand
(no subject) - kaktus77 - Jan. 8th, 2008 11:17 am (UTC) - Expand
(no subject) - nature_wonder - Jan. 8th, 2008 11:44 am (UTC) - Expand
(no subject) - kaktus77 - Jan. 8th, 2008 11:59 am (UTC) - Expand
(no subject) - nature_wonder - Jan. 9th, 2008 01:28 am (UTC) - Expand
fregimus
Jan. 9th, 2008 06:58 am (UTC)
Re: Часть 2.2: Просьба уточнить интерпретации
Мне очень понравилась моя неожиданная идея заменить китайский язык в рассуждении Сирла английским…
fandaal
Sep. 13th, 2010 02:16 pm (UTC)
Re: Часть 2.2. Китайская комната. [Re: часть 2. по сабжу.]
думаю, о разнице между умением и пониманием хорошо высказался Tononi со своей теорией интегрированной информации. если взять не китайский, а еще более простой алгоритм, когда фотодиод видит свет, то он выдает значение 1, когда не видит, то 0.
то же самое можно заставить делать человека. но разница будет в том, что человек при этом осознает, что он видит именно свет(а не ощущает звук), что свет этот черный или белый, что источник света этот расположен в такой то географической точке, и что свет это поток фотонов\электромагнитная волна.
то есть человек выбирает не между двумя значениями, а между тысячями.
примерно так.