Тим О'Райли - WTF? Гид по бизнес-моделям будущего [litres]
- Название:WTF? Гид по бизнес-моделям будущего [litres]
- Автор:
- Жанр:
- Издательство:Литагент 5 редакция «БОМБОРА»
- Год:2019
- Город:Москва
- ISBN:978-5-04-091164-6
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Тим О'Райли - WTF? Гид по бизнес-моделям будущего [litres] краткое содержание
WTF? Гид по бизнес-моделям будущего [litres] - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Кроме того, что пользователи «избираются» контентом, который подтверждает их убеждения и скомпонован так, чтобы отвечать их интересам, они еще чрезмерно жаждут кликов и лайков. Джон Бортуик, генеральный директор компании Betaworks, описал поведение пользователя, которое способствует распространению фальшивых новостей. «Хакатоны используют преимущества деконтекстуальной структуры новостных лент в режиме реального времени, – отмечает он. – Вы видите твит с провокационным заголовком на известном новостном сайте, возможно, с инфографическим изображением – и вы делаете ретвит. Возможно, вы собираетесь прочитать эту историю, возможно, вы просто хотите твитнуть что-то интересное и провокационное, возможно, вы найдете источник информации, возможно, нет. Одним из простейших алгоритмических действий, которое могли бы сделать Facebook и Twitter, это спросить людей: «Вы действительно хотите поделиться этой ссылкой? Кажется, вы не прочитали статью».
Поскольку алгоритмы четко следуют правилам, они хорошо замечают вещи, которые ускользают от внимания людей. Ранее в этой главе я процитировал высказывания Карол Кадуолладр о Google и сайтах, отрицающих существование холокоста. В еще одной статье, в которой Кадуолладр рассмотрела способы понизить фальшивые новости в результатах поисковой выдачи, приводилась цитата, приписываемая гуру в области поисковых систем, Дэнни Салливану, в которой говорилось, что Google изменил свои алгоритмы, «чтобы продвигать популярные результаты поисковой выдачи, вместо авторитетных. По той причине, что это принесет Google больше денег».
Статья выглядела авторитетной вдвойне – она появилась в авторитетной газете The Guardian, и в ней приводилась цитата эксперта по поиску Google, которого я знаю и уважаю. Но что-то не давало мне покоя. Хотя в авторской статье присутствовали другие ссылки, не было ссылки на статью, из которой, предположительно, была взята цитата Дэнни Салливана. Поэтому я отправил Дэнни письмо по электронной почте. Он сказал мне, что не только не говорил, что Google изменил свой алгоритм, чтобы увеличить свою прибыль, но и проинформировал газету The Guardian после того, как вышла статья, что его цитата была использована некорректно. Статью так и не исправили, с сожалением сказал он.
Цитата с указанием ссылки на источник облегчает проверку того, является ли утверждение чьим-либо мнением или его интерпретацией и кому оно принадлежит. Это должно стать золотым стандартом для всей предоставляемой информации. Если бы средства массовой информации стабильно указывали ссылки на источники, то любая статья без указания источников автоматически вызывала бы подозрения.
Бывают случаи, когда журналисты используют анонимные источники. На ум приходит «Глубокая Глотка», информатор по делу Уотергейта. Но заметьте, как деградировали журналистские стандарты: Вудворд и Бернштейн в те времена потратили много месяцев, разыскивая доказательства, подтверждающие утверждения «Глубокой Глотки». Они не бездумно и бездоказательно распространяли утечку информации.
Когда фальшивые новости идентифицированы, существует множество возможных путей решения. Если есть полная уверенность в том, что статьи являются ложью, их распространение можно полностью пресечь. Не стоит это часто делать, потому что полный запрет контента – это скользкий путь, ведущий к цензуре. Впрочем, в других онлайн-приложениях мы уже руководствуемся этими чрезвычайными мерами предосторожности, поскольку электронные почтовые сервисы отфильтровывают письма, которые мы действительно хотим видеть, от миллиардов спам-сообщений, отправляемых каждый день. Статьи можно помечать. Например, Facebook (или онлайновые почтовые сервисы, такие как Gmail, так как множество фальшивых новостей, по-видимому, распространяется именно по электронной почте) может показать предупреждение «Возможно, эта новость фальшивая. Вы уверены, что хотите поделиться ею?» со ссылкой на причины, по которым она вызывает подозрение, или на статью, которая ее опровергает, если таковая имеется. К сожалению, нежелание компании Facebook становиться арбитром, даже когда статьи публикуются из известных источников дезинформации, означает, что ее усилия зачастую менее эффективны, чем могли бы быть.
В марте 2017 года компания Facebook начала вести список «сомнительных» статей, но, как и следовало ожидать, при использовании человеческого труда фактчекеров, процесс этот занимает несколько дней, в то время как дискредитация совершается за считаные минуты или часы. Кришна Бхарат, инженер Google, основавший сервис «Google Новости» и много лет руководивший им, считает, что одной из важнейших ролей алгоритмов может стать своего рода автоматический выключатель, который приостанавливает распространение подозрительных сообщений, обеспечивая людям «достаточное количество времени, чтобы собрать доказательства и рассмотреть их и, возможно, остановить волну, прежде чем она превратится в цунами». Бхарат подчеркивает, что не все фальшивые истории нужно помечать, а только те, которые распространяются в ускоренном темпе. «Предположим, что социальная медийная платформа решила, что она должна всесторонне изучить новость к тому моменту, как ею поделятся 10 000 раз, – отмечает он. – Для достижения этой цели они, возможно, начнут анализировать вирусную новость, которой поделились 1000 раз. В случае с поиском вы считали бы запросы и клики, а не сколько раз поделились новостью, а пороговые значения могли быть выше, но в целом логика та же».
Вариация существующей автоматизированной функции Facebook «Новости страниц, которые могут вам понравиться» может стать еще одним способом преодолеть распространение некорректной новости, не прибегая к ее полной блокировке. Если конкретно взятая статья, согласно различным алгоритмическим измерениям, выражает предвзятое мнение, ее можно сразу сопоставить с альтернативной статьей известного авторитетного сайта или с первоисточниками. Поскольку ничто не сможет заставить читателей обратиться к этим источникам самостоятельно, тот факт, что статья помечена как потенциально фальшивая или вводящая в заблуждение и что существует альтернативное мнение, может заставить их задуматься, прежде чем нажать на кнопку «поделиться». Но такие сопоставления должны совершаться чрезвычайно быстро, прежде чем контент станет вирусным.
Подозрительным статьям также можно уделять меньше внимания, показывать их ниже или реже в ленте новостей. Google делает это регулярно, производя ранжирование результатов поиска. И хотя идея о том, что социальная сеть Facebook тоже должна это делать, является более спорной, Facebook уже ранжирует статьи, располагая те, что вызывают наибольший интерес, выше самых свежих, и показывая статьи, связанные с теми, которыми мы уже поделились или поставили им лайк, и даже публикуя популярные статьи повторно. Как только сеть Facebook прекратила показывать истории по временному порядку, она поставила себя в положение алгоритмического управления статьями. Самое время добавить к алгоритму функцию проверки источника и другие идентификаторы «истины».
Читать дальшеИнтервал:
Закладка: