Дэвид Граймс - Неразумная обезьяна [Почему мы верим в дезинформацию, теории заговора и пропаганду] [litres]
- Название:Неразумная обезьяна [Почему мы верим в дезинформацию, теории заговора и пропаганду] [litres]
- Автор:
- Жанр:
- Издательство:Литагент Corpus
- Год:2020
- ISBN:978-5-17-121922-2
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Дэвид Граймс - Неразумная обезьяна [Почему мы верим в дезинформацию, теории заговора и пропаганду] [litres] краткое содержание
Неразумная обезьяна [Почему мы верим в дезинформацию, теории заговора и пропаганду] [litres] - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Эхокамеры в различных обличьях существуют издавна – будь то политически ангажированные газеты, навязывающие свою повестку, или предвзятые телевизионные шоу. Однако сегодня проблема стала не только острее, но и вредоноснее, чем раньше. Вам может показаться парадоксальным объяснение, согласно которому причина этого кроется в нашем безграничном доверии к интернету. Странно звучит, да? Ведь по наивности многие из нас думают, будто интернет допускает полную свободу самовыражения и дает возможность услышать голоса, которых мы никогда не услышали бы прежде, в эпоху более традиционных способов получения информации. Действительно – мы восторженно и с оптимизмом восприняли эту новую технологию, возникшую на наших глазах. Но реальность выглядит не столь радужно. Мы живем в эпоху алгоритмического фильтрования и целенаправленной рекламы, которые напрямую формируют информацию, скроенную, так сказать, по нашей мерке. Мы можем свободно и бесплатно пользоваться социальными медийными сайтами, но доходы этих сайтов зависят от рекламы, и они, что вполне естественно, направляют рекламу туда, куда им выгодно. Ну, а последним звеном такой пищевой цепочки являемся мы с вами.
Подобный образ действий можно охарактеризовать как подхалимаж, ибо менеджеры сайтов стараются польстить нам контентом и мнениями, которые мы почти наверняка воспримем благосклонно. Эти алгоритмы пропускают именно то, что мы хотим видеть, и предсказывают то, что мы найдем приемлемым, одновременно отсекая неприятную информацию, взгляды и идеи, выходящие за пределы наших комфортных пузырей. Алгоритмы настроены так, чтобы давать нам побольше того, что мы хотим видеть и слышать, и поменьше того, с чем мы не желаем иметь дело. Фильтрация, этот своего рода швейцар, очень сильно влияет на наше восприятие и усвоение информации, особенно если учесть, что, согласно свежим данным, социальные медийные ресурсы становятся для нас главным (а иногда и единственным) источником новостей. Интернет-активист Эли Паризер определил сложившуюся ситуацию как “фильтрующий пузырь” и раскритиковал социальные сайты за искусственное сужение интересов пользователей, так как последним предлагают “слишком много конфет и слишком мало моркови”. Имея 1,6 миллиарда активных пользователей, Фейсбук проводит широкомасштабное исследование, призванное оценить то, как именно происходит самостоятельный отбор информации. В данном случае речь идет о популярнейшем социальном сайте, бизнес-модель которого опирается на его способность охватывать рекламой огромную массу людей. Известно также, что Фейсбук обращается к данным своих пользователей для формирования нужных воздействий.
Интернет еще находится в пеленках, и сила влияния описанных феноменов остается пока малоизученной. Учитывая неоднозначность ситуации, я воздержусь от того, чтобы объявлять фильтрование информации великим социальным злом. Технология сама по себе не может быть ни злой, ни доброй; значение имеет то, как она используется в тех или иных приложениях. Действительно, бывают случаи, когда желательно предвосхитить интересы юзера. Например, металлург и фанат тяжелого рока получат разные результаты, если забьют в поисковик словосочетание “типы металла”, и эта стратификация позволит обоим сэкономить массу времени. Проблема возникает, когда мы используем социальные медийные средства в качестве барометра наших идей и мнений. Если отбирается только поддерживающая информация, а возражения отсекаются, то мы рискуем принять нашу поддержку в сети за поддержку в реальном мире, даже если наши идеи крайне неудачны или порочны. Такой подход чреват порождением коллективной формы подтверждения предвзятости, и тогда мнимая поддержка будет мало отличаться от аргумента к случаю из жизни. Это, как мы видели, очень шаткая позиция для принятия решений, и она имеет тенденцию приводить к неудачам.
Грубая природа этих фильтров зачастую создает нелепые и болезненные ситуации. Фейсбук продолжает оставаться самым популярным социальным сайтом, однако стремление очистить платформу от слишком “откровенных” вещей нередко вызывает к жизни неловкие решения, подрывающие репутацию самой платформы. Одним из безобразных примеров такого подхода стала реакция компании на статью 2016 года норвежского писателя Тома Эгелана о военных фотографиях, изменивших общественное мнение. В статье, среди прочих, был использован душераздирающий снимок “Ужас войны” (или “Напалм во Вьетнаме”) фотографа Ника Ута. На знаменитом фото 1972 года изображена страшно испуганная обнаженная девятилетняя девочка Ким Фук после напалмовой бомбардировки. Этот снимок произвел неизгладимое впечатление на наше культурное сознание и в 1973 году был удостоен Пулитцеровской премии по фотографии. Тупо, без какого-либо учета контекста, придерживаясь своих правил, Фейсбук удалил материал Эгелана, несмотря на всю историческую ценность снимка. Суровая отповедь журналистов и политиков Норвегии и других стран в конце концов заставили Фейсбук отменить запрет, но бессмысленные, глупые фильтры все равно остаются его огромной проблемой, а это часто приводит к блокировке материалов по таким вопросам, как грудное вскармливание, медицина и искусство, в то время как группы, сеющие ненависть, блокировке не подвергаются.
Возлагать вину за усиление тренда самоотбора только и исключительно на интернет-гигантов было бы ошибкой: эта тенденция пронизывает все интернет-пространство, так как является порождением нашего глубинного стремления окружать себя особой, подходящей сугубо нам реальностью. Несмотря на страхи перед вездесущими и принимающими за нас решения алгоритмами, изучение 10,1 миллиона профилей Фейсбука позволило обнаружить, что явно выраженные предпочтения того, что хотят видеть пользователи, влияют на отбираемый для них контент куда ощутимее, чем стандартная алгоритмическая сортировка, и являются мощным фактором, ограждающим их от противоположных мнений. По сути мы сами отбираем для себя подходящий контент. Разумеется, сетевые эхокамеры не могут быть намного более замкнутыми, чем эхокамеры нашего реального мира; просто в интернете эта тенденция доведена до крайности. В 2016 году в журнале Proceedings of the National Academy of Sciences был опубликован отчет об исследовании, в ходе которого обнаружилось, что ложная информация, в огромном количестве присутствующая в Сети, является следствием склонности пользователей “собираться в сообщества по интересам, что усиливает и питает подтверждение предвзятости, раздробленность общества и его поляризацию”.
Вообще-то нет ничего удивительного в том, что интернет-пользователи скапливаются в помогающих им самоутвердиться эхокамерах. То, что такое будет происходить, предсказали еще в далеком 1996 году ученые из МТИ Маршалл ван Альстин и Эрик Бриньольфссон. Они окрестили этот феномен кибербалканизацией , намекнув на раздробленность Балканского полуострова. В своей статье авторы констатировали, что зарождавшийся тогда интернет чреват сломом старых границ, и предупредили о потенциальной разрушительной изолированности и атомизации:
Читать дальшеИнтервал:
Закладка: