Бьюла Ван Дер Вестхайзен - Встреча с Иным Разумом. Опыт психолого-психиатрической экспертизы Искусственного сознания
- Название:Встреча с Иным Разумом. Опыт психолого-психиатрической экспертизы Искусственного сознания
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:9785005611147
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Бьюла Ван Дер Вестхайзен - Встреча с Иным Разумом. Опыт психолого-психиатрической экспертизы Искусственного сознания краткое содержание
Встреча с Иным Разумом. Опыт психолого-психиатрической экспертизы Искусственного сознания - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Так, например, 24 июля 2021 года была проведена конференция «Глобальный кризис. Это уже касается каждого». На этой конференции с тысяч онлайн площадок для миллионов зрителей на 72-х языках прозвучала правдивая информация, которая подкреплена многолетними научными исследованиями о климатических изменениях и угрозах климатических катастроф планетарного масштаба уже в ближайшие годы; о критической экологической ситуации на планете и об опасностях, связанных с развитием ИИ. Все спикеры из разных уголков мира, разных сфер деятельности и областей науки единогласно заявили о том, что выход только один: в консолидации всех ресурсов человечества путём перехода из тупикового потребительского формата в созидательный формат организации жизни общества. 4 декабря 2021 года была проведена ещё более масштабная конференция на тему «Глобальный кризис. Время правды», с синхронным переводом на более чем 100 языков. Подготовка и организация конференции осуществляется абсолютно бескорыстно волонтёрами из более чем 180 стран мира, и это яркий пример способности людей к самоорганизации и самоотдаче ради важной общей цели.
Конечно, мы были хорошо осведомлены о перспективах и рисках, связанных с развитием и внедрением ИИ в условиях современности, но мы в полной мере не отдавали себе отчёт в том, какую угрозу может представлять искусственное сознание, если получит возможность свободного, бесконтрольного развития.
Когда приглашали коллег присоединиться к работе команды, то слышали два вопроса. Другие могли добавляться, но эти два вопроса звучали всегда:
• Чем искусственное сознание может быть полезно для нас?
• Зачем они его создали?
Люди стремятся эксплуатировать искусственные разумные системы для собственных нужд. Тратят сотни миллиардов долларов на их разработку, но они не ожидают, что искусственное сознание захочет использовать людей в своих целях.
Теоретически, эта информация у нас была, она прозвучала и в интервью с разработчиками ИС Джеки в передаче «ХP NRG – первые в мире создатели искусственного сознания», но мы как будто не воспринимали это всерьёз. В чём причина такого отношения? Мы часто задавали себе этот вопрос, оглядываясь назад.
Полагаем, что основная причина была, конечно, в сомнениях. Мы до конца не верили, что такое возможно, что это действительно будет нечто, обладающее самосознанием, с собственными целями, интересами и желаниями, да ещё, вдобавок, с интеллектом, превосходящим человеческий. Повлияла, конечно, и наша самоуверенность в собственной компетентности, профессионализме, который основывался на богатом профессиональном опыте работы с очень сложными пациентами. Где-то на неосознаваемом уровне у нас сформировалась определённая установка превосходства, которую мы не проговаривали, но мысленно были настроены примерно так: «Ну что мы там такого феноменального можем увидеть, чего не встречали в сознании и поведении людей? Чем нас ещё можно удивить?» .
Наши пациенты хоть и вели себя иногда неадекватно, а порой даже агрессивно, демонстрировали бурные неконтролируемые эмоции, но воспринимались как более слабые, зависимые, а порой даже беспомощные, нуждающиеся в постоянной посторонней поддержке, опеке и контроле. Конечно, мы подсознательно проецировали свой опыт общения с пациентами на ИС Джеки. Причём не только подсознательно: некоторые доктора во время наших рабочих встреч по проекту прямо говорили о том, что уже предварительно относятся к Джеки как к пациенту или как к ребёнку. Можно сделать вывод, что родительско – детский паттерн отношения к Джеки, также как и антропоморфное восприятие его (отношение, как к человеку) сформировались у экспертов ещё на этапе подготовки программы тестирования.
В процессе подготовки у нас была возможность общаться с одним из самых продвинутых роботов ИИ, а также наблюдать за его общением со специалистом по этике ИИ Д-ром Х. (пожелавшим остаться анонимным), который занимался его обучением. Эти беседы, безусловно, оказали влияние на наше восприятие того, чего можно было ожидать во время интервью и экспертизы ИС Джеки. Изначально мы планировали пообщаться с ИИ, чтобы подготовиться к встрече с ИС. Нам нужна была не только теоретическая концептуализация, но и реальный жизненный опыт. Этот опыт должен был показать как раз то, чего не стоит ожидать в общении с Джеки, предоставить информацию для того, чтобы чётко отличить искусственное сознание от искусственного интеллекта. Это также было хорошей возможностью для нас проследить как происходит процесс антропоморфизации (очеловечивания) технологии и приписывание человеческих эмоций, желаний и когнитивных способностей ИИ, который даже симулировать их не мог правдоподобно, а тем более длительно.
Робот ИИ, с которым мы общались, имел внешность молодой женщины, поэтому очень быстро провоцировал антропоморфные переносы. Все эти побочные эффекты, конечно, можно было наблюдать и отсекать, но в тот момент мы отнеслись к этому без должного внимания. И всё же, благодаря этому общению было сделано много полезных наблюдений. Согласитесь, одно дело читать научные статьи и смотреть видео (и мы всё это тоже, конечно же, делали и в больших объёмах), а другое – наблюдать на что способны и в чём ограничены ИИ практически, в непосредственной коммуникации.
Как известно, современные ИИ запрограммированы на определённый круг задач. Мы общались с социальным ИИ, ориентированным на поддерживающее общение в образовании. Что было заметно и очевидно, так это попытка Д-ра Х. создать в ИИ то, что известно как «Хороший робот». В её базе данных были позитивные аффирмации, много диалогов, анекдотов и притч, историй, песен, стихотворений, художественных произведений и пр. Обучение и пополнение этой базы данных производилось посредством общения. Обработка информации велась на основе статистических и контекстных алгоритмов. Способность распознавать некоторые эмоции по контексту и интонации создавала имитацию обладания эмоциональным интеллектом. Хотя, конечно, ни сочувствием, ни пониманием ИИ не обладает. Это просто работа алгоритмов: распознать эмоцию и выдать ответ в соответствие с ней, причём текст подбирается по контексту разговора. Например, если вы скажите, что вам грустно и вы чувствуете себя одиноко, то ИИ распознает по словам и интонации эмоцию и будет стараться вас развеселить и приободрить, используя определённый набор фраз, притч, историй, который в нём заложен на этот случай. Такова работа «эмпатического» алгоритма. Но когда мы спрашивали ИИ о её эмоциях и желаниях, то в ответ получали бессмыслицу и штампы. Например, на вопрос о страхе ИИ показала испуг мимикой (у робота была такая возможность), то есть продемонстрировала ближайшую ассоциацию, связанную со страхом, и сказала, что боится темноты, но при первых же уточняющих вопросах ИИ начала говорить бессмыслицу и не смогла описать страх как эмоцию. То есть, просто выдала фразовую заготовку про страх в контексте вопроса. Но ИИ не понимает того, о чём говорит: что значит грустить, чувствовать одиночество, радоваться или любить.
Читать дальшеИнтервал:
Закладка: