?

Log in

No account? Create an account

Previous Entry | Next Entry

Неудавшаяся попытка критического прочтения

Русское название: Роджер Пенроуз. «Новый ум короля. О вычислительных машинах, разуме и законах физики». Номера страниц следуют в квадратных скобках за цитатами, и даются по изданию [Penrose 89]. Все переводы сделаны автором, изо всех сил старавшимся сохранить не только семантику, но и стилистику оригинала; последнюю, разумеется, не в ущерб первой. Ссылки на литературу в квадратных скобках и начинаются с фамилии автора. Ссылки на комментарии в конце статьи обозначаются «ножичко솻.

Эта книга захватывает читателя, захватывает новым, по крайней мере для вашего скромного собеседника, методом: в течение всего изложения автор обещает объяснить множество вещей, от необходимости квантово-механического объяснения работы его, читателя, мозга, до эволюционных преимуществ сознания, но не торопится с этими объяснениями. Подобного suspense ожидаешь от детективной истории, но никак уж ни от научно-популярной книги, ни от монографии.

В книге чуть более 450 страниц, но далеко не все они посвящены изложению теории ее автора. В задачу книги входит, как следует думать, предварительное образование читателя до уровня, необходимого для понимания обосновываемых Пенроузом идей. Книга состоит из десяти глав, из которых семь содержат в сжатом и, по видимому пониманию писавшего, популярном изложении определенные физические и математические теории. В главах со второй по девятую кратко и сжато излагаются основы следующих наук и дисциплин:

  • философии математики (где автор указывает, что он последователь Платонова учения, утверждающего, среди прочего, существование независимого от нас, непридуманного мира чисел, идеального, внепространственного, неизменного и непреходящего);
  • арифметики и теории чисел;
  • теории множеств (десятая проблема Гильберта, теорема Гёделя о неполноте, Канторовы мощности множеств; фрактальность, рекурсивная перечислимость множеств);
  • вычислительной математики (включая машины Тьюринга, тезис Тьюринга-Черча и λ-исчисление) и теории сложности;
  • классической механики (включая Гамильтоново изложение динамики и фазовые пространства);
  • классической электродинамики;
  • специальной теории относительности;
  • общей теории относительности (с тензорами, разумеется!);
  • квантовой механики;
  • квантовой электродинамики;
  • гипотез о квантовой гравитации;
  • и наконец, космологии (черные дыры, Большой взрыв, направленность времени и энтропия вселенной).

Список, как видите, нешуточный, и задача изложить эти науки в тех трехстах пятидесяти страницах, наверное, неразрешима. Поэтому не следует ставить Пенроузу в вину то, что он ее не исполнил: иные тратят годы и прочитывают десятки пухлых томов, чтобы понимать все эти учения. Разумеется, разъяснить λ-исчисление, даже популярно, на трех страницах, которые автор смог для того выкроить, невероятно трудно, если и возможно вообще. Именно сжатым объемом и надобностью донести до читателя несоразмерно огромное знание и вызвано такое рваное, косноязычное и совершенно непонятное изложение материала, к которому был вынужден прибегнуть автор. Положа руку на сердце, мало кто произвел бы лучший результат, пытаясь справиться с подобной задачей. Автор здесь признается, что малодушно отказался бы от такой попытки сразу же, без размышления.

Мой наблюдательный читатель уже, должно быть, задается вопросом: как же работа по теории сознания обходится без хотя бы обзора теорий в области искусственного интеллекта (ИИ)? Ведь читателя надо бы «подтянуть» и в этих дисциплинах? Здесь, справедливости ради, надо возразить, что все узнать зараз все равно нельзя. Пенроуз обучает читателя здесь лишь самому необходимому, а что касается остального, тут нам придется положиться на анализ этой области, проделанный Пенроузом, и изложенный кратко и сжато, да и понятный притом без всякой подготовки.

А именно, Пенроуз считает, что ИИ невозможен, и все эти ученые занимаются, в отличие от него, физика, каким-то нелепым делом. Чтобы избавить нас, читателей, от утомительных споров по существу дела, он применяет новый, невиданный доселе в научной литературе (хотя и популярный в некоторых торговых точках) риторический прием: вводит коллективное понятие «ИИ-парни», они же «ИИшники», а затем, виртуозно оперируя утверждениями, подобными «ИИшники никакого понятия не имеют, как запрограммировать [алгоритм] суждения [об истинности факта] на компьютере!»,[412] немедленно заставляет своего читателя задуматься: а всякое ли суждение «естественного» интеллекта озарено светом истины?

Для доказательства «невозможности» ИИ, Пенроуз приводит хорошо известный «аргумент Сирла», известный также под именем «китайской комнаты». «Доказательство» производится путем reductio ad absurdum, или «рассуждением от противного» (см., напр., Википедия, «Доказательство от противного»). Предположим, что ИИ возможен, в том смысле, что существует алгоритм, понимающий китайский язык и выдающий осмысленные ответы. Испытатель, не знающий китайского, запирается в комнате, а испытуемый, не знакомый с испытателем и говорящий по-китайски, пишет на листочке вопрос, а затем просовывает этот листочек в запертую комнату. Испытатель проделывает все шаги алгоритма и пишет в итоге ответ по-китайски. Испытуемый читает ответ и говорит: «Да, это разумный ответ! В комнате сидит человек, оворящий по-китайски!». Но ведь испытатель не говорит по-китайски? Не говорит. Противоречие? Ага! Следовательно, наше начальное положение неверно, и, стало быть, ИИ невозможен.

Правда, автор этих строк не видит, почему бы тем же способом не доказать также и невозможности алгоритмического сложения чисел, или, скажем, решения квадратного уравнения. Ведь если испытатель не обучен сложению, а пользуется алгоритмом, то испытуемый снаружи тоже подумает, что человек в комнате складывать умеет! Противоречие? Противоречие! Значит, алгоритм сложения двух чисел невозможен! Калькуляторы тоже невозможны: читатель легко докажет это, дав необученному арифметике испытателю в руки вместо алгоритма калькулятор. Впрочем, философия на то и древняя наука, чтобы все было туманно, но утвердительно. Автор здесь уверен, что есть философские аргументы, объясняющие принципиальную разницу между этими двумя случаями, и почти уверен, что их ему точно так же не понять… Впрочем, не будем огорчаться. Калькуляторов не бывает, но самая обычная логарифмическая линейка† сделает то, что никакому компьютеру не под силу! Сейчас ее превосходство будет объяснено.

В главе о классической механике Пенроуз говорит о принципиальной невозможности численного моделирования механической системы, за редким исключением сконструированных специально для того, чтобы быть моделируемыми. Этот тезис доказывается очень просто: до бесконечного числа знаков компьютер ведь считать не может†. А из него сразу же следует вывод, блестящий в своей простоте, мимо которого прошли, буквально не заметив его прямо под ногами, целые поколения физиков и математиков! Например, угол отклонения качающегося маятника от вертикали может оказаться числом и невычислимым. А значит, компьютерная модель маятника невозможна! Правда, Пенроуз тут же оговаривается, что специально просчитанный маятник можно смоделировать. Но кому это было бы интересно — заранее придумать то, что моделировать? Да и как считать, если калькуляторов не бывает? Но старая добрая логарифмическая линейка нас спасет! Она-то считает любые числа с бесконечной точностью! Движок на ней можно передвигать на сколь угодно малые расстояния, правда ведь?

Позволительно ли так надувать физику, чтобы натянуть ее на математику? Пенроуз, при всей неординарности своего, можно назвать, мышления, — все-таки физик, и о том, что материя состоит из атомов, наверное, знает. И о том, что длинами меньше планковской, ~10−35 м, не оперируют даже в микромире, тоже знает. Но требует при этом бесконечной точности в вычислениях: или бесконечность, или ничего не вычислится! А вот почему, этого нам с вами, по нашей недоученности, не понять. Да в конце концов, кто книжку писал? — Пенроуз. Кто писал, тот и написал, а чего не написать-то?

Затем Пенроуз переходит к описанию устройства мозга и выяснению, где именно в нем находится сознание. Путем довольно неочевидных рассуждений, Пенроуз, в своей конструктивной манере изложения, одну за одной исключает все части мозга, как возможные вместилища сознания. Все гениальное воистину просто! Сознание — нигде! Даже не в больших полушариях, столь высоко оцененных лишь несколькими страницами ранее, в следующем образчике изящного слова: большие полушария есть «та часть, которой, как знают человеческие существа, им следует гордиться более всего,… поскольку эта часть не только наибольшая от всего мозга человека, но и наибольшая по отношению к [размеру] всего мозга, в сравнении с другими животными».[375] Нельзя не согласиться: именно это чувство, вызывающая желание помериться величиной сего предмета гордости, и нашла отражение в известной поговорке; хорошо известна также и сила влечения к истине, возбуждаемая двумя большими полушариями в особо страстных адептах философии! А вот «бессознательное… все то, что можно вычислить алгоритмически, [находится], предположительно, в мозжечке».[413] Из чего, правда, исходя, делается такое предположение, в книге не говорится. Но, повторюсь, учитывая малый объем книги и грандиозность задачи, опущение принципиальных рассуждений тут вполне оправдано. Да и вообще, что для нас главное: рассуждения или результат? К теории, товарищи, надо подходить практически!

Далее Пенроуз дает первую из давно обещанных разгадок: почему мозг — это квантовый вычислитель. Это рассуждение достойно развернутой цитаты (речь в этом параграфе сначала велась о параллельных компьютерах):

Единство «я»† сознательного восприятия, как мне кажется, идет вразрез с картиной параллельного компьютера. Эта же картина могла бы, с другой стороны, подойти в качестве модели бессознательных действий мозга… С другой стороны [с третьей —freg.], мне кажется, что может быть вполне вообразима связь между единством «я» и квантовым параллелизмом†… Если сознательное «ментальное состояние» может быть уподоблено квантовому состоянию, то некая форма единственности «я» или глобальности мысли может быть более подходящей, чем в случае обычного параллельного компьютера… Но прежде, чем рассматривать такую идею, мы должны рассмотреть вопрос о важности квантовых эффектов вообще в деятельности мозга.[399]

Этими золотыми словами, этим обещанием рассмотреть вопрос важности квантовых эффектов Пенроуз опять создает ситуацию подвешенности в долгом, напряженном ожидании! Вашему собеседнику-недоучке, например, кажется, что единство «я» также идет вразрез и с картиной Ван Гога «Череп с сигаретой в зубах», из чего он все же затрудняется сделать вывод о квантово-механической природе своего «я», Ван Гога или черепа. Неясность эту мы опять же должны отнести на стесненность Пенроуза несоразмерностью громадья задач и ничтожности объема одного тома. Следует отметить, справедливости ради, что отдельные логически завершенные рассуждения мы все-таки находим: «Поскольку [в сетчатке] имеются нейроны, возбудимые, в принципе, одним квантом [света], не будет бессмысленным вопрос, а нет ли подобных нейронов и в мозге? Свидетельств этому, как мне известно, нет… Однако, можно и представить, что где-то глубоко в мозге найдутся нейроны с порогом возбуждения ниже [энергии] одного кванта. Если таковые нейроны вдруг обнаружатся, тогда можно будет сказать, что квантовая механика важна для деятельности мозга».[400] Присутствие столь неоспоримо справедливого вывода еще раз укрепляет пишущего эти строки в убежденности, что в прочих случаях Пенроуз отказывается от логического размышления лишь для экономии изложения, а вовсе не из неумения или, как можно было бы подумать, нежелания.

По ходу изложения Пенроуз оперирует понятиями «сознание» (consciousness), «бдение» (awareness) и «мышление» (cognition), по-видимому, в равном смысле, как антитезу «бессознательному» (unconscious), покрывающему такой диапазон явлений, как сон, инстинкты, рефлексы и автоматические действия. За 40 страниц до конца изложения, когда наступает пора, наконец, определить термины, которыми Пенроуз пользуется в течение всей книги, он отводит этому несколько страниц, где, в очередной раз не обманывая наших ожиданий, так и не приходит ни к какому определению†; затем он неоднократно возвращается к этим попыткам. В числе прочих, при обращении к этой же теме возник следующий, несомненно благородный по своим намерениям пассаж, обличающий тех из братьев старших, которые совершенно не по-братски принижают достижения и подавляют личности братьев меньших: «Остается открытым вопрос о возможности горилл и шимпанзе общаться, пользуясь языком жестов, а не нормальным[sic!] человеческим образом (коему они не приспособлены из-за отсутствия подходящих[sic!] голосовых связок)… Кажется ясным, что, невзирая на жаркие дебаты, [обезьяны эти] способны к обмену знаками, хоть и элементарному. По моему убеждению, это немного хамовато[sic!] со стороны некоторых не называть этот обмен жестами „словесным“. Не для того ли не допускают они приматов в „клуб небессловесных тварей“, чтобы потом изгнать их и из клуба тварей сознательных?»[425]. Да, товарищи, стыдно, стыдно за наших товарищей по биологическому виду, еще допускающих немного хамство, и, не обойду вниманием намека тов. Пенроуза, замышляющих конспирацию с целью изгнания наших ближайших родственников, наших братьев, «способных на истинное вдохновение»,[425] наших, так сказать, соратников в этом нелегком деле словесности, из партии сознательных, честных и совестливых! Где же ваш интерспециализм, товарищи! Позор предателям классовых, отрядных и семейственных интересов!

И вот, наконец, мы, вслед за автором, приближаемся к разгадке, к торжественному моменту, когда ленточка будет разрезана, и покрывало тайн сознания падет, и ничто более не скроет от нас живительных лучей света истинного знания! Полезно здесь перечислить, какие же истины были открыты нам к этому времени:

  • ИИ не бывает.
  • Модели механической системы тоже, в общем случае, не бывает.
  • Ум алгоритмом не охватишь.
  • Можно было бы предположить, что нельзя исключить возможного влияния квантовых эффектов на работу мозга, если вдруг найдутся этому экспериментальные подтверждения.
  • Гориллы суть говорящи и вдохновенны.

Какой же нам следует сделать из этого вывод? Невозможно было нам и на этот раз предвосхитить той ярчайшей вспышки интуиции, момента озарения истинного мыслителя! Вот что говорит сам Пенроуз, открывая нам глаза на эту тайну:

Я представляю себе, что, когда ум воспринимает математическую идею, он входит в контакт с Платоновым миром идеальных концепций… В соответствии с точкой зрения Платона, математические идеи существуют сами по себе, в идеальном, [вечном и неизменном] мире, доступном лишь уму. Когда кто-либо „видит“ математическую идею, его сознание врывается в этот идеальный мир, и входит с ним прямой контакт („доступность только через ум“)[sic!]… Разговор математиков возможен только лишь потому, что им открыта эта прямая дорога к истине, и сознание каждого из них находится в состоянии напрямую воспринимать истины математики, посредством „ви́дения“…
…Разум всегда в состоянии соединиться [с этим миром]. Но только немного выдается каждый раз… Из того факта, что математические истины есть необходимые истины, никакой „информации“, в техническом смысле, делающему открытие не передается. Вся информация была там [где? —freg.] все время. Это — лишь вопрос совокупления  фактов и „ви́дения“ ответа! Все это соответствует идее самого Платона о том, что (скажем, математическое) открытие есть лишь разновидность воспоминания!… Но, чтобы эта точка зрения была полезна, в случае математической коммуникации, следует представлять себе, что интересные и глубокие математические идеи неким образом более существуют[sic!], нежели тривиальные или неинтересные.[428—429]

Оставшиеся несколько страниц книги посвящены, насколько смог их понять ваш скромный помощник, геометрическим мозаикам и специальным вопросам кристаллографии.

«А как же обещания автора?», спросит удивленный читатель, «Как же suspense? А зачем нас учили на протяжении семи глав непроходимым языком всем этим головоломным дисциплинам, которых все равно из такого краткого изложения не понять — при том, что для осознания идеи автора, кажется, даже школьная арифметика не требуется? Зачем меня, добропорядочного читателя, так жестоко надули?» Увы, ответы нам не известны. Рискнем лишь предположить, что Пенроуз сам не предвидел этого неожиданного контакта с идеальным миром истин, закончившегося извлечением в наш мир этой, несомненно, самой существующей из идей, и именно нежданное, не по плану, можно сказать, изложение ее и сделало все предыдущие вопросы несущественными, а ответы на них — более не нужными. Задаваться этими вопросами теперь было бы, думается, так же несмысленно, как, дочитав «Знак четырех», терять и сон, и аппетит, мучаясь загадкой: а ковырял ли когда-нибудь Шерлок Холмс в носу?

Ведь нам все ясно уже и без этого, не правда ли?

Комментарии

Это приложение, в отличие от основного текста статьи, не содержит ни иронии, ни сарказма. Любое утверждение здесь, за исключением, разумеется, цитат, следует принимать за то, чем оно представляется.


Логарифмическая линейка — вычислительный прибор, состоящий из корпуса с неподвижными шкалами, скользящего в нем движка со шкалами, подвижными относительно первых, а также визира с риской для точного считывания значений с отдаленных друг от друга шкал. Градуировка шкал нелинейная, и, хоть не для всех шкал она и логарифмическая, именно такой принцип градуировки дал название прибору. Устройство использовалось до появления калькуляторов для численных расчетов инженерами, навигаторами и т. д. См., напр., Википедия, «Логарифмическая линейка».


Вычислимые и невычислимые числа. Натуральных чисел, как известно, бесконечно много, а целых чисел — так же много, как и натуральных, а вовсе не вдвое больше (здесь полезно вспомнить, что расходящиеся ряды не позволяют применять к ним кажущиеся очевидными алгебраические преобразования). Доказательство этой теоремы разработано великим математиком Георгом Кантором, и удивительно просто: возьмем и перенумеруем все целые числа! Поскольку мы не можем нумеровать каждое число в отдельности, мы выведем вместо того общий принцип нумерации, для произвольного целого числа n. Начнем нумерацию так: 0 будет № 1, −1 — № 2, 1 — № 3, −2 — № 4, 2 — № 5, −3 — № 6, и так далее, так что любое целое число n будет иметь номер 2n + 1, если оно положительное, или −2n в противном случае. Другими способами можно перенумеровать все рациональные числа, т. е. дроби (т. н. «диагональный аргумент Кантора»), а также все алгебраические числа, которые суть решения полиномиальных уравнений. Но даже за вычетом всех этих перенумерованных чисел, остается еще множество чисел, которые нельзя перенумеровать: континуум вещественных чисел. Кантор доказывает, что даже в интервале между 0 и 1 «все» числа перенумеровать нельзя. Также верно и то, что эти числа непредставимы в компьютере, и даже называются они «невычислимыми». Компьютеры ведь считают с ограниченной точностью. Представим, что некий компьютер считает числа до 40 десятичных знаков. Такому компьютеру все равно, что вот это число:
    0,1111122222333334444455555666667777788888 ,
что это:
    0,1111122222333334444455555666667777788887 ,
потому что оба они округлятся до
    0,111112222233333444445555566666777778889 ,
Если надо для решения конкретной задачи, правда, компьютер может и до сотни, и до тысячи знаков сосчитать, и с любой конечной точностью. Но с бесконечной точностью за конечное время, само собой, нет.

Тем не менее, утверждения о бесконечной точности механического движения в системе, даже идеальной, равно как и о бесконечной точности, потребной для построения вычислительной модели такой системы, от физика слышать чрезвычайно, просто запредельно странно.


Единство «я». Пенроуз постоянно ссылается на некое единство сознания как данность. Аргумент этот возникает из здравомысленных наблюдений, но рациональному обсуждению не подвергается: «Характеристикой сознательной мысли является ее единство… Вопросы наподобие „Как, по-вашему, мне думать более одной мысли сразу?“ совершенно обычны».[399] Меж тем, постулат единства «я», как процесса, производящего сознание, отнюдь не очевиден, более того, при внимательном рассмотрении оказывается ошибочным.

«Мы называем словом «я» полновластное существо внутри нас, желающее чувствовать и думать за нас, и принимать важные решения за нас. Мы зовем его «я», самость, эго, и мы представляем его никогда не меняющимся, чтобы ни случилось с нами. Иногда мы даже делаем «я» маленьким человечком, живущим внутри нашего разума».[Minsky 06 с. 299]

«Гомункул… миниатюрный взрослый, который, по положению, обитает в мозгу… воспринимая… сенсорные сигналы и вызывая все команды мускулам. Любая теория, полагающая подобного внутреннего агента, рискует оказаться в бесконечной рекурсии… поскольку мы можем спросить, а нет ли у маленького человечка в голове своего маленького человечка, отвечающего за его действия и восприятия, и так далее». [Dennett 78 apud Minsky 06].


Квантовый параллелизм — вытекающая из особой интерпретации квантовой механики возможность элементарной частице находиться одновременно в нескольких точках пространства.


Определение сознания и интеллекта. Справедливости ради, отметим, что определение даже в гораздо менее расплывчатых случаях затруднительно. Пенроуз, по недопониманию, устанавливает рамки для определений невнимательно, и пытается разграничить процессы в уме там, где они в разграничении не нуждаются. Даже сама терминология, используемая Пенроузом, противоречива и нестабильна. Он говорит, «при моем собственном взгляде на вещи, вопрос интеллекта подчинен вопросу сознания. Я не полагаю, что я мог бы поверить, что истинный интеллект может проявиться, если при этом не появляется и сознание».[407] Автор, при всех приложенных им стараниях, так и не смог разобраться, что же, по взглядам Пенроуза, есть главное, а также в чем состоит отличие истинного интеллекта от просто интеллекта.

Минский [Minsky 86], вводя понятие сознания [гл. 6.1], пишет, «в жизни вам очень часто приходится иметь дело с вещами, которых вы не понимаете. Вы водите машину, не зная, как двигатель устроен внутри. Вы едете пассажиром, не зная, как водитель устроен внутри. Но самое странное, вы управляете своими телом и разумом, не понимая, как вы сами устроены внутри. Не замечательно ли то, что мы можем думать, не понимая, что значит думать?… Наши мысли… управляют множеством процессов, которые мы редко замечаем. Не понимая, как они работают, мы учимся достигать цели, посылая сигналы этим чудесным машинам, словно колдуны древности, читающие ритуальные заклинания».

Здесь же Минский приводит определение из словаря Вебстера: «сознающий. 1. имеющий чувства или знание о своих ощущениях, либо о внешних вещах); знающий или чувствующий, (что ч.‑л. существует, происходит);… 3. Воспринимающий себя мыслящим существом, знающий, что и почему он делает». Как хорошо заметно, ни метафорическое сказание Минского, ни претендующий на четкость определения язык словаря ясности здесь не дают.

В [гл. 7.1], Минский рассуждает о трудности определения интеллекта, пробует, ведя диалог с критиком, различные определения, и останавливается вот на таком: «В наших умах происходят процессы, позволяющие нам решать задачи, которые мы сами полагаем сложными. Те из этих процессов, которые мы пока не понимаем, называются „интеллектом“. Некоторым не понравится это определение, поскольку оно обречено на изменение по мере того, как мы все глубже изучаем психологию. Но, на мой взгляд, именно так и должно быть, поскольку само понятие „интеллекта“ напоминает фокус на сцене. Подобно „неисследованным регионам Африки“, он исчезает по мере того, как мы исследуем его».

Здесь автору остается лишь согласиться с Минским и расстаться с надеждой дать четкое и неопровержимое определение сознанию или интеллекту, а заняться вместо того делом интересным и полезным.

Использованная литература

Dennett, Daniel C. “Why Can't You Build A Machine That Feels Pain.” In Brainstorms, Cambridge: MIT Press, 1978, 190—229. Apud [Minsky 06].

Minsky, Marvin. The Society of Mind. New York: Simon and Schuster, 1986.

Minsky, Marvin. Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster, 2006.

Penrose, Roger. The Emperor's New Mind. Concerning Computers, Minds And the Laws of Physics. New York: Oxford University Press, 1989

Tags:

Comments

faceted_jacinth
Jan. 6th, 2008 06:58 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Пойдя в комнату сам он доказал только то, что у него самого есть разум. О системе он+комната (как внешний объект или интериоризированная) он ничего сказать не может.

Если в оригинальной постановке задачи Сирл попадается на Fallacy of Division, то в случае заучивания получается Fallacy of Composition. Подчеркну: это логические ошибки, описанные впервые тысячи две с половиной лет назад. Если в рассуждении есть логические ошибки, то можно говорить о том, что оно наталкивает на интересные мысли и всё такое, но нельзя говорить о том, что оно что-то доказывает.

Сирл не может придумать способа так сопоставить КК себе, чтобы испытать её понимание на собственной шкуре. Я тоже не могу придумать такого способа, ни в отношении машины, ни в отношении другого человека. Я даже подозреваю, что это может быть невозможно в принципе. Из чего, естественно не следует ни невозможности естественного интеллекта (кроме своего личного), ни невозможности искуственного.

--- воспринимает ли машина, исполняющая алгоритм, семантику ---

давайте всё-таки чётче говорить: "воспринимает ли алгоритм, исполняемый на машине, семантику". Иначе, если смотреть только на машину, то она, конечно, ничего не воспринимает, в этом смысле КК абсолютно корректна.

PS: Мне бы очень хотелось услышать ответы на те два вопроса, про алгоритм прибавления единицы к двоичному числу. Понимаете, если изначально постулировать, что "понимание" это такая совершенно особая штука, непохожая ни на какую другую штуку, то спор становится бессмысленным. Мне кажется, что определённые параллели между вопросами "может ли алгоритм увеличить число на единицу?" и "может ли алгоритм воспринимать семантику" можно провести, так что если некий мысленный эксперимент даёт ответ "нет" на оба вопроса, это повод дико серьёзно задуматься и, как минимум, попытаться объяснить, почему так.
nature_wonder
Jan. 6th, 2008 07:59 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Сирл не может придумать способа так сопоставить КК себе, чтобы испытать её понимание на собственной шкуре
Причем тут комната, пусть делает то же самое вне комнаты. Ничего не меняется, понимания не возникает. Закрытая комната нужна исключительно для опровержения ТТ как критерия интеллекта и ни для чего больше. Мы обсуждаем другую проблему, приводит ли выполнение алгоритма к пониманию.

Я не улавливаю выражение "алгоритм понимает". Понимать может объект, алгоритм - платоновское понятие. Этак мы очень далеко зайдем.

Рад бы ответить на ваш вопрос про прибавление единицы, но просто его не понимаю.
faceted_jacinth
Jan. 6th, 2008 10:04 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Под "комнатой" я подразумеваю набор правил и карточек. Чтобы опровергнуть ТТ нужно вначале доказать, что в комнате (или в заучившем правила Сирле) нет другого интеллекта, кроме его собственного. От сформулированного мной критерия: "Интеллект это то, на чью работу посторонний наблюдатель может посмотреть изнутри и прийти к выводу, что это действительно интеллект" (кстати, вы согласны или нет?) меня плющит: если исходить из него, то у вас интеллекта нет, с моей точки зрения, и наоборот. Лично для меня этот критерий совершенно бесполезен, потому что я и собственное сознание на самом деле не понимаю. У меня в голове появляются мысли, я не управляю их появлением, я могу решая задачу сказать себе: "мне нужно искать в таком вот направлении", но я не могу на самом деле управлять появлением тех мыслей, которые идут после этого. Я не понимаю, как я понимаю. Поэтому я сомневаюсь, что кто-нибудь может продемонстрировать мне ИИ, который а) по сложности сравним с моим разумом, б) я смогу его понять. Поэтому требование продемонстрировать такое кажется мне надуманным и глупым.


Я продолжаю утверждать, что в аргументе Сирла присутствует логическая ошибка, Fallacy of Division (когда он является частью комнаты и, не видя в себе понимания китайского языка, заключает, что и во всей комнате его нет) или Fallacy of Composition (когда он заучивает правила, не видит в себе понимания китайского языка и на основании этого заключает, что и в заученных им правилах его нет). Если вы согласны, что эти ошибки имеет место быть, то вам, наверное, следует это признать, иначе, пожалуйста, объясните, почему вы считаете, что их там нет. Я могу оба доказательства по шагам расписать, выделив красным неверный вывод, тогда мы сможем разговаривать совершенно конкретно.


Не "алгоритм понимает", а "алгоритм, выполняемый на машине, понимает." Это процесс. Или объект, например. Там у меня маленький коммент мимо улетел: если понимать аргумент КК как доказательство того, что машина тьюринга как кусок железа ничего не может понимать, то я с ним согласен, но к реализуемости ИИ он не имеет ни малейшего отношения. Семантику может (или не может) воспринимать исполняемый алгоритм, а не машина, на которой он исполняется. Я ещё мог бы что-нибудь сказать про атомы моего мозга, которые шевелятся сообразно физическим законам и не демонстрируют никакого понимания (в отличие от динамического процесса поверх них), но тут как бы книжка про прямую связь разума с астралом посредством квантовых эффектов фигурирует, так что, пожалуй, такой пример лучше не выносить на обсуждение.


Про прибавление единицы, ещё раз: я даю вам алгоритм. По ссылке на википедию можно прочитать детальное описание принципов его работы, где-то в интернетах есть страничка, позволяющая вбить мой код (именно в этой нотации), строчку данных и посмотреть, как оно работает. Хотя я бы всё-таки рекомендовал поиграться с ним ручками, тут дело в том, что между людьми, имеющими дело с алгоритмами, и теми, кто предпочитает читать философские книжки, возникают недопонимания; это проблема последних, по-моему. У вас есть замечательная возможность непосредственно понять, что ощущает воображаемый Джон Сирл в Китайской Комнате. Сделайте это, ради вашего же блага!

Так вот, механически исполняя алгоритм вы не получаете ни малейшего представления о том, что он делает. Вы можете исполнять этот алгоритм не имея представления ни о числах и операции "прибавить единицу", ни о двоичной записи -- то есть во время исполнения у вас не возникает чувства, что вы прибавили единицу к введённому числу, вы можете вообще непонимать, что это такое. Точно так же как в КК у Сирла не возникает чувства, что он ответил на китайский вопрос китайским ответом, он вообще не понимает китайский язык. Сирл делает вывод, что исполняемый им гипотетический алгоритм не "понимает китайский язык". Вы, along the same lines, вынуждены сделать вывод, что исполняемый вами алгоритм не "прибавляет единицу к введённому числу", невзирая на мнение стороннего наблюдателя. Хотя, кстати, если вы понаблюдаете за ним внимательно, то обнаружите, что именно это он и делает, хотя и весьма забавным образом (в отличие от Сирла вы имеете дело с реальным и умопознаваемым алгоритмом). Как так?
nature_wonder
Jan. 7th, 2008 06:48 am (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Я понимаю, о чем вы пишете. Должен сразу отметить, что Сирл ничего не доказывает. Он там очень осторожно формулирует свои задачи. Доказать в этом случае ничего нельзя, можно лишь поставить под сомнение (большое или не очень).

Re: критерий интеллекта. Вы не понимаете, как вы понимаете, но вы способны различать ситуации "понимаю" и "не понимаю". Вы отличаете, когда оперируете смыслами. Внешнего строгого критерия интеллекта действительно не существует.
Я не считаю, что Сирл допускает ошибки, которые вы указали, поскольку сам же разбирает эти возражения.
Мы можем договориться, что Сирл показал: "машина, исполняющая алгоритм, не понимает".
Что касается "алгоритм, выполняемый на машине, понимает" - для меня это довольно странное убеждение, больше похожее на игру словами. Давайте попросим Сирла производить все манипуляции в своем воображении. Таким образом, сознание Сирла становится и машиной и процессом исполнения алгоритма. Я утверждаю, что и в этом случае понимание его не настигнет.

Re: прибавление единицы. Все хорошо до фразы "вынуждены сделать вывод, что исполняемый вами алгоритм не "прибавляет единицу к введённому числу". Довольно неожиданное требование. Если уж along the same lines, то я вынужден сделать вывод, что исполняемый мной гипотетический алгоритм "не понимает, что прибавил единицу". И не понимает математики вообще. Вы очень уж ловко вворачиваете "прибавляет единицу" вместо "понимает". Это совершенно разные вещи. Как раз произвести нужный результат алгоритм может вполне. Как в случае КК он ничего не понимал, но отвечал на вопросы, так и в этом не понимает, но прибавляет единицу. Что вас заставляет думать, будто это противоположные примеры? Это аналогичные примеры.
Не во всех случаях обязательно понимать, что ты делаешь, для успешного выполнения задачи. Да, это так.
yurvor
Jan. 7th, 2008 07:48 am (UTC)
Простите, не могу удержаться :)
"Вы не понимаете, как вы понимаете, но вы способны различать ситуации "понимаю" и "не понимаю". Вы отличаете, когда оперируете смыслами. Внешнего строгого критерия интеллекта действительно не существует."

Но тогда из этих Ваших утверждений немедленно следует, что вопрос о наличии понимания у меня могу решать только я сам, и никто больше. Вопрос о наличии понимания у Сирла может решать только Сирл, и никто больше. А вопрос о наличии понимания у сильного ИИ может решать... кто? Правильно, только сам этот сильный ИИ, будучи построенным. И никто больше. Спрашивается, что же тогда пытается утверждать Сирл, если он по своему же собственному построению лишён возможности утверждать что-либо относительно понимания у сильного ИИ?

[В предыдущем абзаце речь идёт, конечно, только об С-понимании.]
___
Вывод, собственно, напрашивается один - внутренний и внешний критерии интеллекта различны. Как легко заметить, ТТ - это внешний критерий. А то самое С-понимание - это понимание по внутреннему критерию. Сторонники сильного ИИ, да и многие другие, я, например, пользуемся внешним критерием интеллекта как основой для рассуждений. Сирл же использует внутренний критерий - своё ощущение "понимаю - не понимаю". При этом полагает, что внутренний и внешний критерии приводят к идентичным результатам - собственно, поэтому он их и не различает. Ничего удивительного в том, что в итоге он запутывается и приходит к противоречию :)

Если Вы пройдёте по своим рассуждениям (и по рассуждениям Сирла), и аккуратно расставите, где какой критерий используется, Вы легко увидите, в каком месте его рассуждения не проходят.
nature_wonder
Jan. 7th, 2008 08:07 am (UTC)
повторно
Не Сирл, а постулат сильного ИИ "полагает, что внутренний и внешний критерии приводят к идентичным результатам". Сирл пытается это оспорить.


Re: повторно - yurvor - Jan. 7th, 2008 08:29 am (UTC) - Expand
в третий раз - nature_wonder - Jan. 7th, 2008 09:00 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:06 am (UTC) - Expand
все, хватит - nature_wonder - Jan. 7th, 2008 09:10 am (UTC) - Expand
Re: все, хватит - yurvor - Jan. 7th, 2008 09:22 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:13 am (UTC) - Expand
Re: в третий раз - nature_wonder - Jan. 7th, 2008 09:23 am (UTC) - Expand
Re: в третий раз - yurvor - Jan. 7th, 2008 09:33 am (UTC) - Expand
в четвертый раз - nature_wonder - Jan. 7th, 2008 09:47 am (UTC) - Expand
Re: в четвертый раз - yurvor - Jan. 7th, 2008 10:18 am (UTC) - Expand
yurvor
Jan. 7th, 2008 08:42 am (UTC)
Не могу удержаться ещё раз :)
У нас тут ночь, но я аж проснулся, чтобы задать Вам ещё один вопрос :)

Как мы с Вами узнаём о Сирловых внутренних ощущениях - когнитивных состояниях? Не иначе, как по его словам, не так ли?

А теперь представьте себе - КК, Сирл там сидит и "вычисляет" ответы на китайские вопросы - без понимания. Следующий шаг - он интериоризировал китайские тексты и алгоритмы, и продолжает отвечать на китайские вопросы - без понимания. Теперь мы спрашиваем у него по-английски - понимаешь ли ты, Сирл, китайский язык? - Он отвечает - нет. - А английский? - Да.

А теперь - фишка! - мы спрашиваем у него по-китайски - А понимаешь ли ты, Сирл, китайский язык? - Он (алгоритм) отвечает - да!!! - А английский? - Нет!!!

Спрашивается, кому же верить? Или, другими словами, можно ли считать, что это один и тот же Сирл?

Причем не надо думать, что это какие-то особенные выдумки - multiple identity вполне наблюдаемый феномен, хоть и редкий. В данном случае можно считать, что Сирл построил в своём мозгу ещё одну личность. И пока будет отсутствовать mapping между ними, они будут различны. И внутренние когнитивные состояния у них будут различны. Другими словами, по "понимаю" английского Сирла нельзя судить о "понимаю" китайского Сирла (т.е. всей КК) - они друг для друга были и остаются _внешними_ наблюдателями. А не внутренними, что по умолчанию предположил Сирл (английский).
nature_wonder
Jan. 7th, 2008 09:07 am (UTC)
Re: Не могу удержаться ещё раз :)
не нужно узнавать о когнитивных ощущениях Сирла. Нужно понять свои ощущения, поместив себя в КК.
Сколько еще нужно времени и моих комментов, чтобы вы поняли, о чем, и с какой целью рассуждает Сирл? - у меня, в некотором роде, есть еще дела.
faceted_jacinth
Jan. 8th, 2008 04:34 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Я как следует обдумал и отвечаю большим текстом в нескольких частях.

Мне показалось, что Сирл именно пытается доказать. И Пенроуз повторяет его рассуждения как доказательство. С поправками на то, что общепринятое понимание "доказательства" может быть неверным и всё такое. Но там есть настоящие логические ошибки, ошибочные и с точки зрения нашей культуры доказательств!

Про ошибки, давайте я всё-таки действительно по пунктам разберу оригинальное рассуждение:
1) Предположим, что КК (правила, карточки и перекладывающий их Сирл) понимает китайский язык. Предположим, что боинг 747 в состоянии самостоятельно перелететь Атлантику.
2) Тогда перекладывающий карточки Сирл обязан понимать китайский язык, а двигатель боинга может самостоятельно перелететь атлантику (Fallacy of Division).
3) Но в реальности Сирл не понимает китайский язык, а двигатель боинга не в состоянии самостоятельно перелететь атлантику.
4) Следовательно, исходное предположение неверно, КК в целом не понимает китайский язык. А боинг не в состоянии самостоятельно перелететь атлантику.

Исправляя эту ошибку (на которую ему намекнули, но не указали в явном виде), Сирл пишет "Ответ на системный аргумент":
1) Предположим, что Сирл, заучивший правила и перекладывающий воображаемые карточки у себя в сознании, содержит (как подсистему) алгоритм, понимающий китайский язык. Предположим, что атомы, составляющие Сирла, невидимы невооружённым глазом.
2) Тогда сам Сирл должен понимать китайский язык и быть невидимым невооружённым глазом (Fallacy of Сomposition).
3) Но мы знаем, что Сирл не понимает китайский язык и видим невооружённым глазом.
4) Следовательно, исходное предположение неверно и любая часть Сирла (подсистема, атомы) не понимает китайский язык и видима невооружённым глазом.

Исправления _этой_ ошибки у него нет. И, по-моему, исправить её нельзя, то есть такой способ рассуждений изначально порочен и бесплоден. После этого, я полагаю, можно продолжать дискуссию о том, чего полезного всё-таки есть в аргументе и почему он выглядит так правдоподобно (что я сейчас и сделаю), но ни за что никогда не использовать КК для обоснования невозможности ИИ.
nature_wonder
Jan. 9th, 2008 03:10 am (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Спасибо за подробные рассуждения. Это полезно н только для нас, но и для потенциальных читателей этой ветки.

На эту часть я позволю себе ответить кратко. Я не вижу, как предположение "что атомы, составляющие Сирла, невидимы невооружённым глазом" может относиться к обсуждаемому вопросу. Мне кажется, что оно относится к нему в качестве бузины. Свойства части не обязательно воспроизвродятся в целом, да это так. Но заметьте, как меняются претензии: когда Сирл часть целого (и не понимает), ему говорят, что понимает целое. Когда Сирл становится целым (и не понимает), ему говорят, что понимает часть.

Если вы утверждаете, что алгоритм, исполняемый в воображении, может что-либо понимать независимо от сознания Сирла, то у меня захватывает дух от огромного числа понимающих алгоритмов, которые все человечество может мысленно исполнять, породив при этом кучу искусственных интеллектов, которые существуют нигде. Но существуют и понимают.
Подробнее о фантасмагоричности такой картины в след. сообщении.
faceted_jacinth
Jan. 8th, 2008 04:35 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Продолжение, в чём-таки секрет Сирла?

Что касается "алгоритм, выполняемый на машине, понимает" - для меня это довольно странное убеждение, больше похожее на игру словами.
Да-да, вот и сам Сирл пишет: [...] Ее идея состоит в том, что если некий человек не понимает китайского языка, то каким-то образом объединение этого человека с листками бумаги могло бы понимать китайский язык. Мне нелегко вообразить себе, как вообще человек, не зашоренный некоей идеологией, может находить эту идею правдоподобной.

Это и есть основная проблема, на самом деле. Я имплементирую некий алгоритм на языке C#, компилятор превращает алгоритм в байт-код, джит-компайлер превращает байткод в 80х86 инструкции, декодер процессора превращает 80х86 инструкции в микрокод и исполняет его, причём не в вакууме, а в окружении из операционной системы, механизма виртуальной памяти, hardware abstraction layer и прочих вещей. Я могу взять компилятор C# под линукс и запускать программу на каком-нибудь SPARCe, тогда последние этапы будут совершенно другими. Я могу (в случае несложного алгоритма) заменить некоторые большие буквы на маленькие, скомпилировать его компилятором жавы и запускать в браузере на вообще произвольном железе. Или в мобильном телефоне! Или в браузере в мобильном телефоне!

Алгоритм, его сущность, essence, от этого всего не меняется. Свойства алгоритма ни в коей мере не распространяются вниз, по всем этим уровням абстракции. Алгоритм независим от исполняющей его машины -- именно это свойство использует Сирл, когда заменяет машину тьюринга на себя, перекладывающего карточки, и считает, что ничего не изменилось. Если бы не это, то я мог бы иметь все основания сказать, что КК с МТ радикально отличается от КК с Сирлом, поэтому то, что во втором случае якобы нет понимания, не доказывает, что понимания нет в первом случае.

Но я, программист, на самом деле *понимаю* это свойство, потому что постоянно имею дело с иерархиями виртуальных машин (точнее, я понимаю, что имею с ними дело). Я вижу, какие из него могут быть следствия, например, что можно так преобразовать алгоритм, чтобы он и сам был зашифрован (расшифровываясь по мере необходимости) и работал с зашифрованными данным, так, что исполняющий его человек (или владелец компьютера, на котором он исполняется) в принципе не мог бы понять, что именно этот алгоритм делает (за разумное время, если P != NP) (кроме того, что он делает такие-то действия в таком-то порядке). Это не теоретический, это практический результат, системы криптографии с публичным ключом, фактически, работают именно так.

Для меня нет ничего удивительного в том, что у меня (или у моего компьютера) может быть подсистема, обладающая сколь угодно сложными свойствами, но не делящаяся ими со мной. Я точно знаю, что в "листках бумаги" и скрыт алгоритм, человек же его исполняющий может быть заменён на МТ безо всякого ущерба, да и сами листки можно заменить на транзисторы или что угодно, или человек может всё заучить и представлять себе листки, алгортм от этого не изменится и свойства свои никому не передаст. Что если мы говорим об алгоритме, предположительно обладающем пониманием, то машины, на которых он исполняется, можно сразу выкинуть из рассмотрения, в них ничего интересного нет. Мне нужно только чтобы алгоритм был запущен и чтобы все нижележащие виртуальные машины работали корректно.

А Сирл (и Вы, no offence meant) не *понимаете* этого свойства, вы его знаете формально, используете выборочно и истинные его следствия выглядят для вас всё страньше и страньше, вплоть до совершеннейшего неправдоподобия. Собственно, потому аргумент КК и кажется убедительным, что обычному человеку (не программисту) тяжело представить себе, что все свойства алгоритма, от простейших инвариантов до, предположительно, понимания и самосознания, скрыты в расположении карточек или состояниях транзисторов или в чём угодно, причём совершенно не зависят от того, в чём именно. И наоборот, любому человеку, который *знает*, что такое МТ (а не пользуется неким туманным образом чего-то сложного, с ламповыми диодами и медными кишочками), сама постановка задачи -- показать, что МТ (в отрыве от алгоритма) не обладает сознанием, -- кажется крайне смешной.
nature_wonder
Jan. 9th, 2008 03:16 am (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
А Сирл (и Вы, no offence meant) не *понимаете* этого свойства
Сирл и я понимаем это свойство. То, что алгоритм независим от исполняющей его машины и человек его исполняющий может быть заменён на МТ безо всякого ущерба - это исходное условие, при котором эксперимент с КК вообще имеет смысл.
А вот далее вы пишете то, что я предвосхищал с самого начала нашего разговора, т.е. уходите в жуткий платонизм, опережая на бегу самого Пенроуза. Сирл пошагово исключил все возможности, и вы указываете на последнюю - алгоритм, вот он понимает! Очень интересная картина за этим стоит.

Давайте воспользуемся указанным выше свойством независимости и рассмотрим различные физические явления, например, дождь или шевеление листьев на деревьях. При определенном воображении мы можем сопоставить каплям или листьям определенные формальные элементарные операции, что в целом дает нам исполнение некоего алгоритма. При дальнейшем развитии этой идеи мы должны допустить, что в какой-то момент времени этот алгоритм может совпасть с алгоритмом вашего сознания (к примеру). Из этого вытекают довольно неприятные следствия:
во-первых, все вокруг пронизано сознанием и пониманием, поскольку эти рассуждения распространимы на любые явления, имеющие место во Вселенной;
во-вторых, в этой Вселенной в один момент времени могут существовать несколько (>1) ваших сознаний.

Бесконечное множество понимающих алгоритмов, обитающих в некоем платоновском пространстве, время от времени исполняющиеся в нашей Вселенной - картинка несколько э-эээ...сложная для рационального анализа. Более выглядит как прибежище для веры (в сильный ИИ). То есть, если вас такие следствия не смущают, то меня они не вдохновляют абсолютно. И позиция Сирла - что понимание надо искать в природных свойствах - кажется мне гораздо более адекватной (и более научной, если хотите). А смешной как раз противоположная. Но я не смеюсь.
(Deleted comment)
(Deleted comment)
(Deleted comment)
(no subject) - fregimus - Jun. 24th, 2009 06:29 pm (UTC) - Expand
Re: запоздалые вопросы ;) - (Anonymous) - Jun. 24th, 2009 08:29 pm (UTC) - Expand
faceted_jacinth
Jan. 8th, 2008 04:36 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
В таком понимании алгоритмов определённо есть какой-то платонизм, но и в разговоре о сознании он тоже обязан всплывать. Информация, её обработка, куда денешься? Что интересно, я читал сейчас википедию про Сирла (чтобы убедиться, что он ни единой программы не написал никогда), так вот, он потом устал отбиваться и проапгрейдил аргумент до следующего (упрощённо): сознанием может обладает только сам человеческий мозг, а его точная симуляция сознанием не может обладать, потому что сознание -- это физическое свойство (!!!), такое же как горение, а симуляция горения не есть горение! Дико круто, я считаю. Спор о возможности построения ИИ разрешён в зародыше, путём жёсткой привязки термина "интеллект" к естественному мозгу. Правда, Пенроузу бы не понравилось, наверное, ведь он полагает, что "там, в самом низу" как раз-таки совершенно платоновский мир и работает алгоритм, симулирующий физическую реальность, поэтому, строго говоря, ничто не мешает этому алгоритму подсоединять к астралу и мясные мозги, и силиконовые чипы.


И, наконец, про аргумент КК и прибавление единицы. "Понимаете, если изначально постулировать, что "понимание" это такая совершенно особая штука, непохожая ни на какую другую штуку, то спор становится бессмысленным." Обсуждение начинается с предположения о том, что "понимание" есть такого же рода свойство алгоритма, как и другие инварианты, например, что он прибавляет единицу к данному числу. Или нет? Если да, то нужно обосновать, почему нельзя подставить "алгоритм умеет прибавлять единицу" вместо "алгоритм умеет понимать", и что можно подставить таким образом. Если нет, то зачем вообще что-то обсуждать? Постулируем, что интеллект есть физическое свойство человеческого мозга (если он не в банке с формалином), и дело с концом! ТТ нервно курит в сторонке!

Кстати, у меня ещё один нетривиальный вопрос возник. Представим, что нам удалось создать ИИ, проходящий сколь угодно длительный ТТ, упаковать его в килограмм кремния и меди с автономным источником питания на семьдесят лет и засунуть в голову младенца, вместо мозга. Или даже в голову специально подготовленного взрослого человека, как в "blade runner"'e. Подчеркну, он проходит ТТ, то есть создаёт сколь угодно полную видимость того, что сам считает себя человеком, поступает так, как поступил бы человек считающий себя человеком и всё такое, разве что избегает металлодетекторов и рентгеновских аппаратов, ну так и у людей разнообразные фобии бывают. И вот он живёт жизнь, влюбляется, растит детей, работает, даже, возможно, совершает научные открытия, потом умирает. Следует ли и в таком случае считать, что "на самом деле" это не ИИ?

Вот, всё пока.
nature_wonder
Jan. 9th, 2008 03:50 am (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
</i>"понимание" есть такого же рода свойство алгоритма, как и другие инварианты, например, что он прибавляет единицу к данному числу</i>
На мой взгляд, это логически неверно. Вне зависимости от позиции по КК. Понимать - это свойство по отношению к другому свойству, так что тут нельзя рассматривать их на одном уровне.

Следует ли и в таком случае считать, что "на самом деле" это не ИИ?
Это зависит от того, как вы определите ИИ. Постулат, с которым борются Сирл и Пенроуз, предполагает качества идентичные человеческим, вкл. сознательные рассуждения и восприятие (внутренний мир, одним словом). Если внутреннего мира в вашем случае не будет, то нельзя считать ИИ (сильным нельзя, мягким можно).
На эту тему очень рекомендую [классическую] книгу "Глаз разума", хотя вероятно, вы с ней знакомы. На случай, если нет, посмотрите сюда http://nature-wonder.livejournal.com/126882.html
В книге отставивается ваша т.з., но корректно приводятся контраргументы (что большая редкость сама по себе). В качестве пищи для размышления по вашему вопросу я, пожалуй, не встречал книги лучше.
faceted_jacinth
Jan. 8th, 2008 04:51 pm (UTC)
Re: 2.2.1., Продолжение разъяснения со статьей в руках.
Ох, я, оказывается, хотел ещё абзац дописать, но забыл.
Он должен был находиться между последними двумя абзацами последнего коммента.
---

Мне тоже можно было бы предъявить подобную претензию, дескать, если я предполагаю, что понимание есть такое же свойство алгоритма, как и то, что он прибавляет единицу к числу, то никакого противоречия я не получу. На самом деле, это не так. Во-первых, могу и получить, есть довольно много невычислимых проблем, типа проблемы останова. Во-вторых, я не пытаюсь доказать, что ИИ возможен, я доказываю, что предоставленные доказательства его невозможности некорректны. То есть корректное доказательство должно либо показывать невычислимость "понимания" (что безуспешно пытается сделать Пенроуз с помощью т. Гёделя), либо нужно описывать, чем именно способность понимать отличается от способности прибавлять единицу, либо ещё как-то.