Борислав Козловский - Максимальный репост. Как соцсети заставляют нас верить фейковым новостям

Тут можно читать онлайн Борислав Козловский - Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - бесплатно ознакомительный отрывок. Жанр: Психология, издательство Литагент Альпина, год 2018. Здесь Вы можете читать ознакомительный отрывок из книги онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.
  • Название:
    Максимальный репост. Как соцсети заставляют нас верить фейковым новостям
  • Автор:
  • Жанр:
  • Издательство:
    Литагент Альпина
  • Год:
    2018
  • Город:
    Москва
  • ISBN:
    978-5-9614-7108-3
  • Рейтинг:
    2/5. Голосов: 21
  • Избранное:
    Добавить в избранное
  • Отзывы:
  • Ваша оценка:
    • 40
    • 1
    • 2
    • 3
    • 4
    • 5

Борислав Козловский - Максимальный репост. Как соцсети заставляют нас верить фейковым новостям краткое содержание

Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - описание и краткое содержание, автор Борислав Козловский, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru
Теории заговора, слухи и фейковые новости – это то, с чем мы сталкиваемся каждый день. Неправду распространяют наши друзья, родственники и даже мы сами. Ни образование, ни умение логически рассуждать не защищают от этого, а только усиливают эффект. Научный журналист Борислав Козловский попытался разобраться, что могут сказать обо всем этом гены, мозг и большие данные. Где в нашей ДНК зашита восприимчивость к политической пропаганде? Как на нас влияют «алгоритмы фейсбука» и эксперименты сайтов знакомств над своими пользователями? И почему рациональные аргументы ничего не могут поделать с заблуждениями, в которые мы однажды поверили всем сердцем? Автор не обещает, что после прочтения этой книги вы сами перестанете заблуждаться. Но наблюдать за тем, как это делают другие, станет во много раз интереснее.

Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - читать онлайн бесплатно ознакомительный отрывок

Максимальный репост. Как соцсети заставляют нас верить фейковым новостям - читать книгу онлайн бесплатно (ознакомительный отрывок), автор Борислав Козловский
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Facebook выгодно отличается тем, что оставляет для «другой точки зрения» лазейку: в друзья мы часто добавляем людей, с которыми познакомились вне сети и не на почве политики, – коллег по работе, бывших одноклассников или соседей по лестничной клетке. Их убеждения не обязаны совпадать с нашими – и только благодаря им мы знаем, что на самом деле волнует оппонентов. Если, конечно, не «чистить ленту» всякий раз, когда ее чтение вызывает дискомфорт.

* * *

В цензуре новостей легко обвинять телевизор. В конце 1960-х теоретики медиа Джордж Гербнер и Ларри Гросс придумали беспощадно критическую по отношению к телевидению гипотезу культивации, которая объясняла, как безо всякой злой воли какого-нибудь комитета по идеологии, который занимался бы дезинформацией, телевизор выращивает («культивирует») в головах у зрителей искаженную картину мира. Скажем, у сценаристов полицейский – излюбленный герой, а аудитор или пожарный особой популярностью не пользуются – и пропорция между людьми этих профессий на экране совершенно иная, чем в реальности. У каждого отдельного телезрителя недостаточно знакомых пожарных, полицейских и аудиторов, чтобы вывести свою собственную статистику – вот он и проникается убеждением, что полиция – одна из ключевых действующих сил общества.

Социальные сети, казалось бы, полная противоположность ТВ – что смотреть и что читать, выбираем вроде бы мы сами, а не какие-то сценаристы и продюсеры новостных программ. Единственные злые парни в этой ситуации – наши собственные когнитивные ошибки, от стремления идеализировать жизнь других людей до нетерпимости к чужим мнениям. Коварные манипуляторы из числа штатных сотрудников Google, Twitter или Facebook в этом не виноваты – они просто предоставили нам возможность жить и действовать так, как мы давно хотели. Просто на практике это оборачивается непробиваемым пузырем заблуждений.

Краткое содержание главы 9

1. Facebook может управлять вашим настроением, просто меняя пропорцию веселых и грустных записей в ленте. Это доказал эксперимент на сотнях тысяч пользователей, которые не были в курсе, что на них ставят опыты.

2. Эмоции заразны, а модели поведения легко передаются через два-три рукопожатия. Это результат непрямого социального давления: если одновременно несколько знакомых ваших друзей бросят курить, резко вырастает вероятность, что бросите и вы.

3. Наши друзья в среднем популярнее нас – математики называют это «парадоксом дружбы» и объясняют при помощи теории графов. А вот ощущение, что их жизнь сплошной праздник и только у нас скучный быт – иллюзия, которую создают и поддерживают соцсети.

4. «Пузырь фильтров» – это когда соцсети и персонализированные сервисы создают ошибочное впечатление, будто нашу точку зрения разделяет весь мир. В соцсетях либералы дружат с либералами, а консерваторы с консерваторами, и Facebook предпочитает показывать записи, у которых выше шанс нам понравиться.

5. Теоретики ТВ придумали гипотезу культивации, чтобы объяснить, как именно телевизор без злого умысла пропагандистов создает у нас в голове искаженную модель общества, где полицейские важнее юристов. При всех отличиях соцсетей от ТВ для них это рассуждение тоже работает.

Глава 10

Выжить на «Титанике»

Как работают алгоритмы соцсетей, и почему они вводят нас в заблуждение

Facebook работает через алгоритмы. ‹…›

Пожалуйста, скопируйте и вставьте это на стену.

Из вирусной записи, распространявшейся в Facebook в январе 2018 года

Дано: список пассажиров и экипажа «Титаника», где 1502 из 2224 человек на борту погибли в день столкновения корабля с айсбергом, 15 апреля 1912 года. Подробности про каждого второго из них – пол, возраст, порт отправления, где и за какие деньги куплен билет, первым классом плыл или третьим, сколько членов семьи было на борту – собраны в таблицу.

Предсказать: кто утонет, а кто выживет, основываясь только на данных из таблицы. Психологические портреты, воспоминания современников и дневники, которые могли бы что-нибудь объяснить про мотивы спасшихся и рассказать конкретную историю спасения, использовать, конечно, нельзя. Все выводы нужно делать на основе голых анкетных характеристик.

Это учебная задача на сайте Kaggle.com, с которого часто начинается карьера разработчиков искусственного интеллекта. Обычно сюда приходят решать задачи за деньги – участвовать в конкурсах с призовым фондом в десятки или сотни тысяч долларов. Крупные компании, от банков до медицинских клиник и трубопрокатных заводов, выкладывают порции своих больших данных и предлагают придумать алгоритм, который сделает из них какие-нибудь полезные выводы. Например, случится ли поломка на конвейере, есть ли на рентгеновском снимке указания на рак, и стоит ли выдавать человеку кредит. В каждом таком конкурсе соревнуются сотни, а иногда и тысячи команд программистов и программистов-одиночек. Те, кто войдет в первую тройку, разделят между собой призовые деньги, а люди из первой десятки могут быть уверены, что в ближайшие дни после оглашения результатов им напишут рекрутеры крупных компаний, работающих с данными.

Что общего у таких практических задач с вопросом о жизни и смерти пассажиров «Титаника»? С математической точки зрения они ничем не отличаются. Есть таблица, где для каждого человека записаны какие-то его признаки, а напротив части записей стоит пометка «да» или «нет» (вернул кредит или не вернул, пережил кораблекрушение или не пережил). Алгоритм должен увидеть скрытые закономерности в примерах и научиться угадывать «да» или «нет» как можно чаще.

Можно сказать, что и алгоритмы Facebook решают задачу того же сорта. Вот два человека и разные характеристики конкретной записи их дружбы в цифрах – сколько комментариев они написали друг другу за месяц, лайкает ли первый второго, часто ли оба одновременно ставят галочку «пойду» на страничке какого-нибудь концерта – и нужен однозначный ответ, показывать одному свежую запись другого или не показывать. Искусственному интеллекту достаточно сказать «да» или «нет».

К слову, на сайте Kaggle – да и вообще среди тех, кто обучает алгоритмы, – словосочетание «искусственный интеллект» не слишком популярно. Вместо него предпочитают употреблять термин «машинное обучение». (Если вы заявляли в 1990-е, что занимаетесь «искусственным интеллектом», объяснял кто-то из классиков этой науки, вас автоматически записывали в философы или футурологи, которые любят поговорить об отвлеченных сущностях, и математики стали говорить про «машинное обучение», чтобы их с футурологами не путали.)

Нейросети – частный случай машинного обучения, и не всегда самый эффективный (например, в задаче про «Титаник»). Наверное, самый популярный способ решать задачи на Kaggle (которыми пользуются и Google, и Facebook в промышленных масштабах) – это алгоритмы под странноватым названием «ансамбли решающих деревьев» (справедливости ради, «лес» и «пень» – тоже популярные герои мира алгоритмов). А самый простой способ – линейные модели.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Борислав Козловский читать все книги автора по порядку

Борислав Козловский - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Максимальный репост. Как соцсети заставляют нас верить фейковым новостям отзывы


Отзывы читателей о книге Максимальный репост. Как соцсети заставляют нас верить фейковым новостям, автор: Борислав Козловский. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x