Анатолий Косарев - Поисковые алгоритмы ранжирования сайтов

Тут можно читать онлайн Анатолий Косарев - Поисковые алгоритмы ранжирования сайтов - бесплатно ознакомительный отрывок. Жанр: Справочники. Здесь Вы можете читать ознакомительный отрывок из книги онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.
  • Название:
    Поисковые алгоритмы ранжирования сайтов
  • Автор:
  • Жанр:
  • Издательство:
    неизвестно
  • Год:
    неизвестен
  • ISBN:
    9785005689986
  • Рейтинг:
    4/5. Голосов: 11
  • Избранное:
    Добавить в избранное
  • Отзывы:
  • Ваша оценка:
    • 80
    • 1
    • 2
    • 3
    • 4
    • 5

Анатолий Косарев - Поисковые алгоритмы ранжирования сайтов краткое содержание

Поисковые алгоритмы ранжирования сайтов - описание и краткое содержание, автор Анатолий Косарев, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru
Этот труд – второе издание книги «SEO-продвижение. 36 фильтров Google». Название пришлось изменить потому, как по новым правилам нельзя на обложке писать названия брендов. Кроме этого второе издание претерпело большие изменения и дополнения, в результате её объем увеличился почти в три раза.Книга о том, какие сайты любят пользователи и поисковые системы, и как делать сайт первым в поисковой выдаче.

Поисковые алгоритмы ранжирования сайтов - читать онлайн бесплатно ознакомительный отрывок

Поисковые алгоритмы ранжирования сайтов - читать книгу онлайн бесплатно (ознакомительный отрывок), автор Анатолий Косарев
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Под этот фильтр попадает обмен ссылками с доморощенными каталогами, которые предлагают за установку баннера их каталога размещать у себя ссылки на сайт.

Теперь если же на одной страницы сайта появляется 4 или более ссылок на сайты «партнеров», то велика вероятность попасть под пессимизацию фильтра Links.

Но если вы пишете хорошую статью, и в статье ссылаетесь на выводы нескольких авторитетных сайтов, то в этом случае сайт не попадает под этот фильтр, а наоборот – увеличивает свой вес.

Google считает, что одним из признаков авторитетности статьи – ссылки на первоисточники. В этом случае, если на странице 4 и более ссылок на авторитетные издания, то Google добавляет вес к авторитету сайта. Такой шаг Google считает, что ссылка помогает углубить изучение вопроса, в котором заинтересован пользователь.

Подчеркну, что Google не учитывает обмен ссылками. Лучше сослаться на авторитетный сайт самому, чем искать, с кем можно обменяться ссылками.

9 – PAGE LOAD TIME (ВРЕМЯ ЗАГРУЗКИ СТРАНИЦЫ)

Фильтр Page load time проверяет, как быстро загружается сайт на различных гаджетах.

Если сайт долго загружается, то есть вероятность, что пользователь не дождется окончательной загрузки, то для этого фильтра – это сигнал, чтобы понизить рейтинг сайта на таком устройстве.

В самом деле, зачем пользователю показывать сайт, который на его устройстве будет грузиться долго, в то время как сотни подобных сайтов загружаются быстро. Особо щепетильно Google относится к загрузке страниц сайтов на мобильные устройства.

Каждый разработчик после того как собрал сайт, если желает, чтобы сайт высоко позиционировался в Google проверит скорость загрузки своего творения на тестирующие Google – PageSpeed Insights, чтобы убедиться, что скорость загрузки его шедевра удовлетворяет требованиям поисковика. Если же скорость загрузки низкая, то требуется выполнить там же предлагаемые рекомендации.

Заметьте, что Google никого и ничего не заставляет делать, он принимает всех, только выстраивает в рейтинге как считает нужным. Но Google дает рекомендации, которые не сам придумывает, чтобы усложнить жизнь разработчикам.

Его рекомендации – это плод его исследований, и собираемой статистики. Google бесплатно делится ими, чтобы помочь нам сделать свой веб-проект как можно более полезным конечному потребителю.

Но вернёмся к скорости загрузки веб-сайта.

Кроме медленной скорости работы сервера (что сейчас редко встречается), может быть очень большой объем загружаемой информации.

Это может быть километровые CSS файлы, скрипты, которые лучше подгружать позже, или скрипты в основном несущие только дизайнерскую «красоту» и эффекты, а также огромные картинки, которые в своем объеме практически не нужны. На все, что может снизить время загрузки, на исследуемом сайте Google сразу же указывает в своих рекомендациях, поэтому разработчик сайта обязан устранить все указанные недочеты…

Но скудные знания многих «программистов», тех, которые разрабатывают сайты на известных системах управления сайтами, не позволяют сделать это… А скорость загрузки сайта – один из приоритетных факторов при ранжировании сайтов.

Здесь и большая вина заказчиков сайтов. Они, как правило, желают по максимумы получить навороченный сайт. Но все навороты сводятся к усложнению дизайна: всякие всплывающие, динамические элементы, большие графические вставки существенно увеличивают время загрузки веб-страницы.

Возможно, провести сравнение крысы и белки. Белка – тюнингованная крыса, а заказчик желает получить белку, на которой дополнительно надеты наряды.

Google еще не понимает, хорош или плох дизайн, пользователю приятнее смотреть на белку. Поэтому мастерство разработчика сайта должно найти золотую средину между белкой и крысой.

Ведь, если пользователь пытается просмотреть сайт на своем мобильном устройстве, при оплате за трафик, для него тяжелые сайты – расточительны, поэтому тяжелая версия сайтов в Google считается недопустима. Так Google заботится о своих пользователях.

Если скорость загрузки страницы сайта больше 2—3 сек., то сайт может иметь существенную пессимизацию.

Здесь действует принцип – чем быстрее открывается веб-страница, тем лучше. Статистика показывает, что пользователи не готовы ждать открытия страницы более 2—3 сек. Пользователи смартфонов ещё более не терпеливы.

10 – OMITTED RESULTS (УПУЩЕННЫЕ РЕЗУЛЬТАТЫ)

Если на сайте:

– много дублей страниц;

– мало уникального контента;

– много похожих фрагментов на разных страницах;

– мало ссылок на другие страницы сайта;

– нет внешних ссылок на авторитетные сайты;

То велика вероятность попасть под Фильтр Omitted results.

Честно говоря, мне не нравится стандартный оборот: «попасть под фильтр», мне кажется, что слово «выбраковывается» более точно подходит.

Дубли страницчасто возникают в системах управления сайтом (СМС), когда добраться до одного материала можно несколькими способами.

Например, до статьи можно добраться через раздел «Последние статьи», и через раздел, к которому приписана эта же статья. В интернет-магазинах один товар можно открыть в нескольких категория. И в каждом случае прописываются разные адреса одной веб-страницы.

Более подробно о дублях страниц, и как их избегать будет рассказано в другой части книги.

Малое количество уникального контента, т.е. основная часть текстов скопирована с других сайтов. Здесь не имеет значение, копирован текст с одного сайта, или была солянка фрагментов с разных сайтов.

Много похожих фрагментов на разных страницах, когда на веб-странице вместо гиперссылки на другую страницу сайта дублируется текст. Это распространено в интернет-магазинах, когда схожие товары имеют одно описание.

Этим грешат и компании, у которых несколько филиалов. Чтобы набрать больше страниц, они для каждого филиала создают отдельные страницы с длинными, или не очень длинными текстами. И вся разница в том, что в текстах меняется только адреса, телефоны, да время работы.

Так же плохо, когда дублируется текст на нескольких страницах.

Не желательно копировать фрагменты текстов с разных источников, которые в этом случае идут в минус. Для этого нужно пользоваться тегами цитаты.

Для Google хороший сигнал качества, когда в тексте он видит тег

для длинных фрагментов текста, и тег для коротких цитат, с указанием первоисточника.

Google считает, что пользователям удобнее прослеживать одну мысль от начала до конца на одной странице. Если же требуется расширить изложение в подтверждении фактов, или развить тему с уводом излагаемого в сторону, то нужно делать гиперссылку на все разъяснения и отклонения. Не желательно валить всё в одну кучу, у себя на веб-странице.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Анатолий Косарев читать все книги автора по порядку

Анатолий Косарев - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Поисковые алгоритмы ранжирования сайтов отзывы


Отзывы читателей о книге Поисковые алгоритмы ранжирования сайтов, автор: Анатолий Косарев. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x