Вадим Васильев - Трудная проблема сознания
- Название:Трудная проблема сознания
- Автор:
- Жанр:
- Издательство:Прогресс-Традиция
- Год:2009
- Город:Москва
- ISBN:978-5-89826-316-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Вадим Васильев - Трудная проблема сознания краткое содержание
Книга посвящена обсуждению "трудной проблемы сознания" — вопроса о том, почему функционирование человеческого мозга сопровождается субъективным опытом. Рассматриваются истоки этой проблемы, впервые в четком виде сформулированной австралийским философом Д.Чалмерсом в начале 90-х гг. XX века. Анализируется ее отношение к проблеме сознание — тело и проблеме ментальной каузальности. На материале сочинений Дж. Серла, Д.Деннета, Д.Чалмерса и многих других аналитических философов критически оцениваются различные подходы к загадке сознания. В заключительной части книги автор предлагает собственное видение "трудной проблемы", позволяющее, с его точки зрения, избежать концептуальных тупиков и отдать должное интуициям здравого смысла
Трудная проблема сознания - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Одним словом, Сёрл уверен, что превращение Китайской комнаты в Китайского робота ничего не меняет [116]: человек, исполняющий программу понимания китайского языка, все равно не понимает по — китайски. Однако с этим нельзя согласиться. Вдумаемся еще раз в условия нового мысленного эксперимента. Они не совпадают с условиями Китайской комнаты. В первом случае предполагалось, что человек полностью знаком с программой понимания китайского языка. Во втором — он не знает одного существенного компонента программы, а именно он не знает, почему символы, уходящие в устройство с телекамерой (при этом неважно, знает ли он, что там именно телекамера, он просто отсылает куда‑то символы), порождают какие‑то другие символы на выходе, которые он, в свою очередь, передает в качестве ответа на вопрос о том, что он видит вокруг себя.
Еще раз подчеркну: в самой программе эта связь должна быть прописана, в самой программе должно быть прописано, что такие‑то данные телекамеры надо кодировать такими‑то символами и т. п. Иными словами, в самой программе должен быть квазисемантический блок. Поскольку он неизвестен человеку, исполняющему программу, он, естественно, не понимает задаваемые ему вопросы. Но можно предположить, что их понимает весь робот, одним из механизмов которого оказывается человек внутри его. Кстати, одно из самых популярных в профессиональной философской среде возражений на Аргумент китайской комнаты состоит именно в том, что, хотя человек в ней не понимает китайского [117], его может понимать вся комната. Обычно оно вызывает смех в студенческой аудитории. И справедливо: если взять Китайскую комнату в ее, скажем так, изначальной обстановке, то это предположение просто нелепо. Изначальная программа китайской комнаты не имела квазисемантического блока. Человек в этой комнате знал всю программу — крайне ограниченную, напомним, по своим эмулятивным возможностям [118], и рассмотрение комнаты в целом ничего не меняет. Но в механизированной китайской комнате — в китайском роботе — ситуация изменилась, в его программе есть «семантическая» часть, и она неизвестна человеку. Если бы он имел к ней доступ, то, исполняя эту программу, он стал бы понимать китайский язык, что, собственно, и требовалось доказать [119]. Впрочем, это не означает, что сам робот реально понимает китайский. Пока это просто гипотеза, которая не может быть опровергнута средствами Китайской комнаты Сёрла.
Так или иначе, но, уяснив все эти обстоятельства, мы поймем, что Аргумент китайской комнаты показывает не совсем то или даже совсем не то, что думает Сёрл. Этот аргумент не разрушает «сильный ИИ», потому что такое разрушение подразумевает доказательство реальной возможности точных программных эмуляторов человеческого интеллекта, притом таких, которые не порождают осмысленное понимание: если эмулирующая его система заведомо не может проходить тест Тьюринга, нет ничего удивительного в том, что мы отказываем ей в понимании! Сёрл, разумеется, прав, различая синтаксис и семантику и говоря, что наличие чисто синтаксических эмуляторов не означало бы, что реализующие их системы что‑то реально понимают. Но проблема в том, что, как мы только что убедились, он не доказывает невозможности того, что определенного рода синтаксические эмуляции с необходимостью генерируют по крайней мере некое подобие семантических отношений. Соответственно, он не доказывает и того, что в случае существования таких программ инсталлирующие их материальные системы не обладали бы реальным пониманием. Что же касается чисто синтаксических эмуляторов, не порождающих понимание (это Сёрл доказал), то мы увидели, что они невозможны, если говорить не о частных интеллектуальных задачах, а об интеллекте в целом. И мысленный эксперимент с Китайской комнатой помогает уяснить, почему дело обстоит именно так.
Именно поэтому Аргумент китайской комнаты может использоваться для опровержения «слабого ИИ», т. е. возможности точной синтаксической эмуляции разумного поведения человека, в том числе его речевого поведения. Но еще раз подчеркну: Сёрл не обладает ресурсами для ответа на вопрос, можно ли эмулировать такое поведение программами с «семантическими» блоками, т. е. такими программами, которые приспособлены для взаимодействия с реальностью и отражения ее характеристик, и если да, то будут ли машины, реализующие эти программы, обладать сознанием и, в частности, осознанным пониманием. Так что пора переходить к другим авторам.
И все же еще несколько слов о Сёрле. Поскольку сам он убежден, будто доказал, что физическая реализация таких программ, которые позволяют точно воспроизводить человеческое поведение, может и не порождать сознания, то человеческий мозг, вынужден заключить он, генерирует сознание не потому, что в нем реализуются какие бы то ни было программы. Но тогда почему же? Если главное в порождающем сознание мозге не нейронные «алгоритмы» — функциональные связи нейронных популяций, отдельных нейронов или чего‑либо еще, — то, очевидно, решающую роль играют биохимические свойства мозга — такой довольно смелый ответ предложил Сёрл в той же статье 1980 г., где презентуется его Китайская комната [120].
Этот ответ вызвал много критики, и справедливо. Как вообще это можно помыслить, что сознание возникает вследствие определенных биохимических свойств мозга? Есть какие‑то вещества или соединения, присутствующие в мозге и несущие сознательный заряд? Более странное решение «трудной проблемы сознания» сложно вообразить. Впрочем, Сёрл быстро отказался от него. Он стал говорить, что в мозге есть некое каузальное ядро, ответственное за возникновение сознания, но входят ли в него биохимические компоненты, пока неизвестно [121], и тем самым пришел к той позиции, для которой характерен отказ от попыток философскими методами решить «трудную проблему»: она перекладывается на плечи будущей нейронауки. Как мы знаем, эта позиция была заявлена Сёрлом в ряде работ 90–х гг. Однако в [122]опубликованной в 2004 г. книге «Сознание» он уточнил, что, даже если ней — ронаука даст каузальное объяснение сознания, это не будет означать, что она объяснит все, что можно было бы объяснить касательно отношения сознания и мозга. Но полные объяснения — редкость и в физике. И он дает понять, что философы, требующие такого объяснения, поднимают псевдопроблему, спрашивают о том, о чем спрашивать бессмысленно.
Вдумавшись в эти пояснения Сёрла, мы увидим, что его отношение к «трудной проблеме» в середине 2000–х гг. нельзя суммировать той формулой, которая была уместна для работ, опубликованных в конце 90–х, а именно: «Мы не знаем, решаема ли она». Из более поздних текстов Сёрла следует, что если она ставится как проблема демонстрации концептуальной необходимости определенного соотношения мозга и сознания (философ мог бы удовлетвориться только таким объяснением), то она вообще не может быть решена. Очевидно, таким образом, усиление контраста взглядов Сёрла с его оптимистичными установками 80–х гг. Но в любом случае его отказ от «биохимического» решения «трудной проблемы» представляется чем‑то естественным или даже неизбежным: тот вариант не проходил по концептуальным соображениям [123]. В конце концов, все вещества состоят из одних и тех же элементарных частиц, и разница между ними должна сводиться к различным отношениям, различным каузальным взаимовлияниям между этими частицами. Т. е. так или иначе сознание должно генерироваться какими‑то функциональными [124]или каузальными отношениями между чем‑то и чем‑то. Но, каузальные схемы могут задаваться программными алгоритмами. Вспомним теперь, что исторически Сёрл начал свой путь к тезису о неразрешимости «трудной проблемы», оттолкнувшись от представления о некорректности компьютерной метафоры сознания. Но сейчас у нас может возникнуть чувство — подкрепляемое выявленными дефектами Китайской комнаты, — что он поспешил расстаться с этой метафорой. Так, собственно, и считает наш следующий герой, Д. Деннет, главный защитник «программной» концепции сознания. Актуальность рассмотрения его идей очевидна и потому, что, в отличие от Сёрла, который, как мы видели, в итоге оставил «трудные» вопросы о сознании без решения, Деннет обещает объяснить сознание. «Объясненное сознание» — так и называется его главный труд, который можно без колебаний называть одним из шедевров современной мысли. Начнем с выяснения предыстории этой работы Деннета.
Читать дальшеИнтервал:
Закладка: