Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут?
- Название:На что похоже будущее? Даже ученые не могут предсказать… или могут?
- Автор:
- Жанр:
- Издательство:Альпина нон-фикшн
- Год:2020
- Город:Москва
- ISBN:978-5-0013-9204-0
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Коллектив авторов - На что похоже будущее? Даже ученые не могут предсказать… или могут? краткое содержание
На что похоже будущее? Даже ученые не могут предсказать… или могут? - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Одним словом, люди резко расходятся во мнениях не только в вопросе о самой возможности наступления сингулярности, но также и в вопросе о том, будет ли это хорошо или плохо для нас. В любом случае нас ждет немало интересного впереди. Но совсем не обязательно верить в сингулярность, чтобы предсказать, что ИИ предстоит захватывающее будущее. Вряд ли кто-нибудь станет спорить, что ИИ шагнет далеко вперед по сравнению с текущим состоянием. Но насколько далеко он сможет шагнуть? Получится ли у ИИ, например, пройти знаменитый тест Тьюринга? В 1950 г. Тьюринг предложил тест, призванный показать, что машины могут думать. По условиям теста программа на основе ИИ должна вести беседу с людьми в течение пяти минут. Для успешного прохождения 30 % участников не должны догадаться, что их собеседник — компьютер. Тест до сих пор не пройден, хотя во многих случаях ИИ удавалось обмануть людей, если они не знали, что их собеседником может быть компьютер.
Каждый год в Блетчли-парк, там, где Тьюринг работал над расшифровкой кода немецкой «Энигмы» во время Второй мировой войны, проводится состязание по прохождению теста Тьюринга (оно транслируется в интернете). Участники борются за Премию Лёбнера: $2000 получает система, которая показывает лучший результат в конкретном году, приз в $25 000 ждет «первый компьютер, чьи ответы будет невозможно отличить от человеческих», и награда в $100 000 достанется создателям человекоподобной системы, наделенной способностью к аудиовизуальному восприятию, а также владеющей языком.
Пока никому не удалось получить заветные $25 000. Ни одна программа не смогла обмануть судей в 30 % случаев, как это требуется по условиям теста. Справедливости ради следует упомянуть, что в 2014 г. одной из программ удалось убедить 33 % собеседников в том, что они говорили с человеком. Однако из нескольких вариантов описания возможного собеседника, предложенных организаторами теста, большинство из них выбрали 13-летнего мальчика-украинца. Иными словами, язык (это был английский), на котором с ними общался компьютер, был далек от совершенства. Собеседники-люди закрывали глаза на ошибки и неуклюжие обороты, что было вполне естественно: когда мы общаемся с иностранцами, в особенности с детьми, которые вынуждены говорить не на своем родном языке, мы всегда делаем скидку на их произношение.
Сам собой напрашивается вопрос: «Ну и что?» Допустим, однажды появится система ИИ, которая пройдет тест Тьюринга или даже так называемый расширенный тест Тьюринга, предусматривающий участие робота, обладающего похожими на человеческие способностями к восприятию и двигательной активности. Что это докажет? Будет ли это означать, что компьютеры действительно умеют думать? Будет ли это означать, что они обладают сознанием?
Понятие сознания с трудом поддается определению. Однако мы все-таки можем отделить функциональное сознание от феноменального. Первая из этих категорий охватывает целый ряд психологических дихотомий — бодрствующий / спящий, намеренный / неумышленный, внимательный / невнимательный, доступный / недоступный, осознаваемый / неосознаваемый, отрефлексированный / неотрефлексированный и т. д.
Такие противопоставления носят функциональный характер. У нас есть все основания полагать, что они могут быть понимаемы в терминах обработки информации, а значит — и смоделированы на компьютере. (В настоящее время наиболее любопытной моделью машинного сознания является архитектура LIDA, учитывающая перечисленные выше различия и основанная на получившей широкое признание теории функционирования головного мозга.) Так что в этом смысле некоторые системы ИИ в будущем вполне могут обладать сознанием. Например, применительно к роботу, прошедшему тест Тьюринга, уместно говорить о способности планировать и думать.
Феноменальное сознание, или субъективное переживание квалиа (первичных ощущений — например, боли или красноты чего-то красного), представляется чем-то совершенно иным. Само его существование в преимущественно материальной Вселенной продолжает оставаться метафизическим парадоксом. Изучение природы феноменального сознания считается сложной задачей, так как добиться результата в этом случае куда сложнее, чем при рассмотрении функционального сознания.
Для объяснения квалиа выдвигались самые разные, исключительно спекулятивные решения, иногда кажущиеся абсурдными. Согласно некоторым из них, феноменальное сознание — такое же фундаментальное свойство Вселенной, как масса или заряд. (Разумеется, это вряд ли дает ответ на вопрос!) Другие обращаются к квантовой физике, используя одну непостижимую загадку для того, чтобы попытаться найди отгадку для другой. А многие просто опускают руки, отчаявшись найти ответ. Один известный философ заявил, что не только никто не имеет «ни малейшего представления о том, как нечто материальное может обладать сознанием», но также и «никто даже не знает, каково это — иметь хотя бы малейшее представление о том, как нечто материальное может обладать сознанием». Cловом, тема эта — самый настоящий философский тупик.
Если даже в случае с людьми феноменальное сознание — это непостижимая загадка, вряд ли мы способны судить о возможности его наличия у какой-либо системы ИИ в будущем. Наверняка это предположение само по себе кажется вам смешным. Во всяком случае, я точно не могу относиться к нему серьезно. Но к нему нужно относиться как к интуиции, которую можно просто принять без всяких возражений, а не как к тщательно обоснованному выводу.
Большинство исследователей ИИ — например, специалисты, занимающиеся разработкой архитектуры LIDA, — игнорируют феноменальное сознание. Им оно кажется слишком сложным. Однако есть ряд философов, которые под влиянием ИИ анализируют его в терминах обработки информации.
С их точки зрения, квалиа — внутренние вычислительные состояния, которые реализуются в головном мозге в рамках некой программы или своего рода «виртуальной машины». Эти состояния могут иметь причинно-следственное влияние на поведение (например, вызывать непроизвольную мимику). Под их влиянием могут меняться другие составляющие процесса обработки информации в сознании (например, мысли о мести в случае причинения кому-либо боли). Существование их возможно только в вычислительных системах с достаточно высоким уровнем структурной сложности. (Поэтому, например, у улиток их, скорее всего, нет.) Доступ к ним имеют лишь определенные сегменты системы. В результате появляется интимность. Кроме того, далеко не всегда их можно выразить словами, то есть описать способом, присущим более высоким уровням сознания, ассоциирующимся с рефлексией. Отсюда — невыразимость. Если подытожить: «Вам не дано прочувствовать мои ощущения от красного цвета. А я не способен в полной мере описать их словами ни вам, ни себе самому».
Читать дальшеИнтервал:
Закладка: