Роберт Арп - Философия Южного Парка: вы знаете, я сегодня кое-что понял
- Название:Философия Южного Парка: вы знаете, я сегодня кое-что понял
- Автор:
- Жанр:
- Издательство:Blackwell Publishing Ltd
- Год:2007
- ISBN:нет данных
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Роберт Арп - Философия Южного Парка: вы знаете, я сегодня кое-что понял краткое содержание
Ложка меда поможет выпить самое горькое лекарство, а помощь массовой культуры позволит продраться сквозь паутину Канта. У философии в течение нескольких столетий была проблема с пиаром. Эта серия книг призвана изменить такое положение дел, показать, что философия — часть нашей жизни, и нужна она не только для того, чтобы отвечать на глобальные вопросы типа «Быть или не быть?», но и для ответов на такие маленькие вопросы как «Смотреть или не смотреть Южный Парк?» Глубокие размышления о телевидении, фильмах или музыке не сделают вас ни «чайником», ни «полным идиотом». Зато они могут сделать вас философом, тем, кто верит, что неизученная жизнь стоит того, чтобы ее прожить, а ранее пропущенный мультфильм — стоит просмотра.
Книга состоит из статей разных авторов (в осн. доценты и профессора кафедры философии), под редакцией Р. Арпа.
Философия Южного Парка: вы знаете, я сегодня кое-что понял - читать онлайн бесплатно полную версию (весь текст целиком)
Интервал:
Закладка:
Джон Серл, профессор университета Калифорнии в Беркли, и один из самых видных философов разума прошлых десятилетий, является, возможно, самым известным специалистом, в области экспериментов с мыслями, называемых аргументом китайской комнаты. Мыслительный эксперимент — просто детальный пример, который предназначен, чтобы помочь нам размышлять о философской проблеме. Некоторые мыслительные эксперименты, включая этот, также предназначены, чтобы играть ключевую роль в утверждении, о верности или ложности некоторых заявлений. Между прочим, этот специфический мыслительный эксперимент предназначается также, для критического анализа теста Туринга. Давайте же взглянем на него, еще раз, с точки зрения Южного Парка.
На сей раз, мы должны вообразить только две комнаты. В первой комнате мы снова разместим мр. Ученого. Во второй комнате — Кенни, надеясь, что он будет оставаться в живых достаточно долго, чтобы удовлетворить нашим целям. Все, что Кенни должен будет сделать — следовать некоторым простым инструкциям. Ах да, также важно, что он не знает китайского языка. Мр. Ученый, который бегло говорит на китайском языке, спрашивает у Кенни на китайском языке: «Что такое Южный Парк?» посредством китайских иероглифов. Кенни прочтет это китайское послание, в котором, конечно, ничего не поймет и использует сложный свод правил для составления ответа. Этот свод правил, с английскими наставлениями, состоит из списков китайских комбинаций символов, которые скоррелированы к другим китайским символам и английским словам. Кенни находит соответствующие правила, с трудом копирует символы, которые соответствуют символам, что представил ему мр. Ученый, а затем посылает новую комбинацию китайских иероглифов в другую комнату. Ученый исследует их и видит, что в ответном послании говорится: «заспанный обрыглый горный городок».
Итак, какова выгода от этого довольно сложного действа? Не будет ли казаться Ученому, что он только что общался с кем-то из другой комнаты, кто понимает китайский язык? В конце концов, он получил точный ответ на свое послание на китайском языке. И он может сделать это снова, много раз если пожелает. Но нам-то, конечно, ясно как день, что Кенни — ни бельмеса в китайском. При помощи словаря (какой же длины он должен быть!), он в состоянии ответить на вопросы Ученого, но это все без малейшего понятия со стороны Кенни. Он может быть в состоянии механически повторить иероглифы, но он ведь не знает или не понимает язык вообще.
Заявление Серла, состоит примерно в том, же, что может быть сказано относительно цифровой ЭВМ, которая проходит тест Туринга. Факт, что она может быть запрограммирована на предоставление ответа, который подходит к любому входящему вопросу, просто не дает права сказать, что машина, понимает что-нибудь вообще. Как метко выразился Серл, у цифровых ЭВМ может быть синтаксис (запрограммированный порядок слов, вроде «если х, то у» или «х либо у»), но никакой семантики (понимание или осознание значения «если х, то у» или «х либо у»).
Таким образом, то, что пропускает машина, — понимание. Согласно Серлу, в этом — главное различие (или одно из них, не суть важно) между сложной цифровой ЭВМ и человеческим разумом. Понимание здесь — во главе угла. Заявление Серла не состоит в том, что машины вообще не могут думать. Скорее он полагает, что только определенный вид «машины» — человеческий мозг или что-то очень на него похожее, может думать. Так, если мы можем создать машину, познавательная архитектура которой, подобна нашей собственной, с точки зрения всех сложных нервных связей и процессов, тогда Серл признал бы, что она смогла бы думать. Но пока мы рассматриваем цифровые ЭВМ, с которыми мы знакомы, он отрицает эту возможность.
Вероятно, для Вас не сюрприз, что не все соглашаются с Сер-лом в этом. Фактически, чем больше Вы узнаете о философии, тем больше Вы будете видеть, что серьезные возражения поднимаются против почти каждого интересного философского аргумента. Здесь мы рассмотрим только один вид ответа, который сам Серл называет Системным. Ранее мы согласились, что Кенни не понимает китайский язык, а отвечал он просто в силу своих способностей управлять китайскими иероглифами, согласно своду правил из словаря. Но почему мы спрашиваем, понимает ли Кенни китайский язык? Разве вопрос не в том, понимает ли вся система — состоящая из Кенни, комнаты, словаря и оборудования для коммуникаций — китайский язык? Вы испытываете желание сказать: «нет». Раз Кенни не знает китайского и работает с помощью других неодушевленных предметов, делая свое дело? В ответ, критик Серла мог бы указать, что у нас, на самом деле, есть только очень приблизительное понимание того, как получается, что человеческой нервной системе удается дать начало размышлению, значит — мы не должны быть слишком скептичными к некоторой другой системе, которая не может осуществить то же самое.
И Алан Туринг и Джон Серл были обеспокоены вопросом того, может ли у машины, например, компьютера, быть разум. Мы видели, что каждый из них предложил метод для того, чтобы ответить на этот вопрос. Но, сосредоточившись на методе, мы перешли от вопроса может ли у машины быть разум, к вопросу как мы можем узнать, что у машины есть разум. Первый — метафизический вопрос, поскольку это касается природы вещей, в то время как второй — эпистемологический вопрос, что означает (как Вы должны уже знать), касающийся природы того, как мы познаем вещи. Мы же хотим знать, имеет ли машина или может ли иметь разум.
Но откуда мы узнаем, есть ли у чего-нибудь разум или нет? Это, оказывается, удивительно хитрый вопрос, в частности из-за того, что известно как проблема других разумов. Это — сложная проблема, но ей можно дать одно простое объяснение. Стэн знает, что у него есть разум. Откуда? Хорошо, во-первых, в некотором смысле, он сам ощущает свой разум. Вы же не думаете, что у него нет разума (то же самое — сказать, будто у него не темные волосы)? Если Стэн знает хоть что-нибудь вообще, то он знает, что является обладателем интеллекта. П'нятненько? Теперь, откуда Стэн знает, что у Кайла есть разум? Не таким же образом, правильно? У Стэна нет непосредственного доступа к разуму Кайла, как к своему собственному, если, конечно, в каком-нибудь будущем эпизоде он не предоставит фактов владения телепатией. Фактически, мы можем подумать, что Стэн не может знать наверняка, что у Кайл есть разум, так как он может вывести, что у Кайла есть разум, исключительно из наблюдения за поведением друга? И поведение Кайла дает Стэну лучшие свидетельств того, что он — разумен, в отличие от компьютера, участвующего в тесте Туринга. Но так как мы все уверены, что у маленьких мальчиков есть мозги, и прежде, чем нас загнали в угол философией, давайте обратимся к примеру чего-то, чей умственный статус рассматриваем.
Читать дальшеИнтервал:
Закладка: