Борислав Козловский - Максимальный репост. Как соцсети заставляют нас верить фейковым новостям
- Название:Максимальный репост. Как соцсети заставляют нас верить фейковым новостям
- Автор:
- Жанр:
- Издательство:Литагент Альпина
- Год:2018
- Город:Москва
- ISBN:978-5-9614-7108-3
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Борислав Козловский - Максимальный репост. Как соцсети заставляют нас верить фейковым новостям краткое содержание
Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Facebook выгодно отличается тем, что оставляет для «другой точки зрения» лазейку: в друзья мы часто добавляем людей, с которыми познакомились вне сети и не на почве политики, – коллег по работе, бывших одноклассников или соседей по лестничной клетке. Их убеждения не обязаны совпадать с нашими – и только благодаря им мы знаем, что на самом деле волнует оппонентов. Если, конечно, не «чистить ленту» всякий раз, когда ее чтение вызывает дискомфорт.
В цензуре новостей легко обвинять телевизор. В конце 1960-х теоретики медиа Джордж Гербнер и Ларри Гросс придумали беспощадно критическую по отношению к телевидению гипотезу культивации, которая объясняла, как безо всякой злой воли какого-нибудь комитета по идеологии, который занимался бы дезинформацией, телевизор выращивает («культивирует») в головах у зрителей искаженную картину мира. Скажем, у сценаристов полицейский – излюбленный герой, а аудитор или пожарный особой популярностью не пользуются – и пропорция между людьми этих профессий на экране совершенно иная, чем в реальности. У каждого отдельного телезрителя недостаточно знакомых пожарных, полицейских и аудиторов, чтобы вывести свою собственную статистику – вот он и проникается убеждением, что полиция – одна из ключевых действующих сил общества.
Социальные сети, казалось бы, полная противоположность ТВ – что смотреть и что читать, выбираем вроде бы мы сами, а не какие-то сценаристы и продюсеры новостных программ. Единственные злые парни в этой ситуации – наши собственные когнитивные ошибки, от стремления идеализировать жизнь других людей до нетерпимости к чужим мнениям. Коварные манипуляторы из числа штатных сотрудников Google, Twitter или Facebook в этом не виноваты – они просто предоставили нам возможность жить и действовать так, как мы давно хотели. Просто на практике это оборачивается непробиваемым пузырем заблуждений.
1. Facebook может управлять вашим настроением, просто меняя пропорцию веселых и грустных записей в ленте. Это доказал эксперимент на сотнях тысяч пользователей, которые не были в курсе, что на них ставят опыты.
2. Эмоции заразны, а модели поведения легко передаются через два-три рукопожатия. Это результат непрямого социального давления: если одновременно несколько знакомых ваших друзей бросят курить, резко вырастает вероятность, что бросите и вы.
3. Наши друзья в среднем популярнее нас – математики называют это «парадоксом дружбы» и объясняют при помощи теории графов. А вот ощущение, что их жизнь сплошной праздник и только у нас скучный быт – иллюзия, которую создают и поддерживают соцсети.
4. «Пузырь фильтров» – это когда соцсети и персонализированные сервисы создают ошибочное впечатление, будто нашу точку зрения разделяет весь мир. В соцсетях либералы дружат с либералами, а консерваторы с консерваторами, и Facebook предпочитает показывать записи, у которых выше шанс нам понравиться.
5. Теоретики ТВ придумали гипотезу культивации, чтобы объяснить, как именно телевизор без злого умысла пропагандистов создает у нас в голове искаженную модель общества, где полицейские важнее юристов. При всех отличиях соцсетей от ТВ для них это рассуждение тоже работает.
Глава 10
Выжить на «Титанике»
Как работают алгоритмы соцсетей, и почему они вводят нас в заблуждение
Facebook работает через алгоритмы. ‹…›
Пожалуйста, скопируйте и вставьте это на стену.
Из вирусной записи, распространявшейся в Facebook в январе 2018 годаДано: список пассажиров и экипажа «Титаника», где 1502 из 2224 человек на борту погибли в день столкновения корабля с айсбергом, 15 апреля 1912 года. Подробности про каждого второго из них – пол, возраст, порт отправления, где и за какие деньги куплен билет, первым классом плыл или третьим, сколько членов семьи было на борту – собраны в таблицу.
Предсказать: кто утонет, а кто выживет, основываясь только на данных из таблицы. Психологические портреты, воспоминания современников и дневники, которые могли бы что-нибудь объяснить про мотивы спасшихся и рассказать конкретную историю спасения, использовать, конечно, нельзя. Все выводы нужно делать на основе голых анкетных характеристик.
Это учебная задача на сайте Kaggle.com, с которого часто начинается карьера разработчиков искусственного интеллекта. Обычно сюда приходят решать задачи за деньги – участвовать в конкурсах с призовым фондом в десятки или сотни тысяч долларов. Крупные компании, от банков до медицинских клиник и трубопрокатных заводов, выкладывают порции своих больших данных и предлагают придумать алгоритм, который сделает из них какие-нибудь полезные выводы. Например, случится ли поломка на конвейере, есть ли на рентгеновском снимке указания на рак, и стоит ли выдавать человеку кредит. В каждом таком конкурсе соревнуются сотни, а иногда и тысячи команд программистов и программистов-одиночек. Те, кто войдет в первую тройку, разделят между собой призовые деньги, а люди из первой десятки могут быть уверены, что в ближайшие дни после оглашения результатов им напишут рекрутеры крупных компаний, работающих с данными.
Что общего у таких практических задач с вопросом о жизни и смерти пассажиров «Титаника»? С математической точки зрения они ничем не отличаются. Есть таблица, где для каждого человека записаны какие-то его признаки, а напротив части записей стоит пометка «да» или «нет» (вернул кредит или не вернул, пережил кораблекрушение или не пережил). Алгоритм должен увидеть скрытые закономерности в примерах и научиться угадывать «да» или «нет» как можно чаще.
Можно сказать, что и алгоритмы Facebook решают задачу того же сорта. Вот два человека и разные характеристики конкретной записи их дружбы в цифрах – сколько комментариев они написали друг другу за месяц, лайкает ли первый второго, часто ли оба одновременно ставят галочку «пойду» на страничке какого-нибудь концерта – и нужен однозначный ответ, показывать одному свежую запись другого или не показывать. Искусственному интеллекту достаточно сказать «да» или «нет».
К слову, на сайте Kaggle – да и вообще среди тех, кто обучает алгоритмы, – словосочетание «искусственный интеллект» не слишком популярно. Вместо него предпочитают употреблять термин «машинное обучение». (Если вы заявляли в 1990-е, что занимаетесь «искусственным интеллектом», объяснял кто-то из классиков этой науки, вас автоматически записывали в философы или футурологи, которые любят поговорить об отвлеченных сущностях, и математики стали говорить про «машинное обучение», чтобы их с футурологами не путали.)
Нейросети – частный случай машинного обучения, и не всегда самый эффективный (например, в задаче про «Титаник»). Наверное, самый популярный способ решать задачи на Kaggle (которыми пользуются и Google, и Facebook в промышленных масштабах) – это алгоритмы под странноватым названием «ансамбли решающих деревьев» (справедливости ради, «лес» и «пень» – тоже популярные герои мира алгоритмов). А самый простой способ – линейные модели.
Читать дальшеИнтервал:
Закладка: