Анатолий Косарев - Поисковые алгоритмы ранжирования сайтов
- Название:Поисковые алгоритмы ранжирования сайтов
- Автор:
- Жанр:
- Издательство:неизвестно
- Год:неизвестен
- ISBN:9785005689986
- Рейтинг:
- Избранное:Добавить в избранное
-
Отзывы:
-
Ваша оценка:
Анатолий Косарев - Поисковые алгоритмы ранжирования сайтов краткое содержание
Поисковые алгоритмы ранжирования сайтов - читать онлайн бесплатно ознакомительный отрывок
Интервал:
Закладка:
Чтобы избежать такой ситуации перед публикацией статьи на сайте опубликуйте её часть в нескольких социальных сетях, со ссылкой на продолжение статьи на своем сайте.
Для этого хорошо подходит Дзен.
Но с дзеном – беда. Яндекс воспринимает, как будто оригинал находится на Дзене, и ее высоко позиционирует, а статья на сайте проваливается в результатах поиска.
Для закрепления авторства контента молодому сайту в Google, самым надежным способом, при публикации статьи, дать в Google контекстную рекламу на веб-страницу, на которой размещен этот материал.
Так вы хотя бы по дате публикации сможете доказать своё авторское право.
Другой вариант: написать статью в гостевом блоге, или каталоге, у которого высокая частота переиндексации, и в этой статье поставить ссылку на свою новую статью. Если выбрали правильную, часто индексируемую площадку, то авторское право будет закреплено за вами.
Более рискованно сразу после публикации статьи сразу купить ссылку на эту статью.
Ни один из перечисленных способов не гарантирует на 100% закрепление авторства за вами, но лучше что-то делать, чтобы увеличивать свои шансы.
Другой способ подгадить чужому сайту – писать на него отрицательные отзывы интернет-площадках.
Работают отрицательные отзывы, написанные и на других ресурсах, и величина пессимизации зависит от авторитетности площадки, на которой был написан отзыв.
В этом случае пара отрицательных отзывав не сделают погоды, но успокаивают жалобщика. А вот сотня негативных отзывав может существенно испортить репутацию.
Конкуренты могут писать отрицательные комментарии на вашем сайте, делать посты, не относящиеся к теме сайта, и ещё многое другое.
Мелким компаниям не следует этого бояться, но знать о том, что конкуренты могут повлиять на ваш веб-ресурс подлым образом. Но это нужно знать обязательно, чтобы отслеживать и вовремя пресекать происки конкурентов.
Постоянно надо отслеживать статистику сайта, и немедленно реагировать, обращаясь в поддержку Google.
19 – SUPPLEMENTAL RESULTS (ДОПОЛНИТЕЛЬНЫЕ РЕЗУЛЬТАТЫ)
Робот Google индексирует все, что найдет на сайте, и все данные передает на анализ в фильтр Supplemental results. Этот фильтр разделяет проиндексированные страницы сайта на хорошие и плохие.
Страницы, которые Google считает хорошими, попадают в основной индекс.
Страницы же, которые Google посчитал плохими, попадают в дополнительные результаты.
Страницы сайта, не прошедшие через сито Supplemental results никогда не попадают в органический поиск. Google никогда ранее признанную страницу плохой не меняет своего мнения.
Если плохих страниц на сайте много, то Google считает сайт бесполезным пользователю, и никогда его не показывает. В этой ситуации не стоит пытаться улучшать что-либо. Единственный выход – закрывать сайт, и учитывая ошибки создавать новый.
В дополнительные результаты попадают:
В первую очередь, дубли страниц сайта.
О дублях страниц более подробно читайте в « Дубли или копии страниц на сайте».
Во-вторых, не корректное, или полное игнорирование основных тегов страницы (Title, Description). Если проигнорированы Title, Description и на страницы нет заголовка Н1, то это гарантия того, что сайт попадает под Supplemental results.
В дополнение замечу, что, хотя Google объявил, что перестал учитывать ключевые слова, но стоило нам на одном из сайтов, написать ключевые фразы, чтобы определиться со стратегией, как этот сайт вышел на первую страницу. Повторюсь, добавили только ключевые слова в мета—тег keywords, и всё. Возможно это совпадение, с каким-либо другим событием, или пришло время сойтись звездам. Но не стоит лениться, и поэтому заполняйте все имеющиеся мета-теги. Уж точно – хуже не будет, а плюсы – повысится качество сайта.
В-третьих, не достаточный вес у страницы. Если сайт содержит сотни или тысячи страниц, расположенные на 4-5-6 и т. д. уровнях и к ним добраться с 4-5-6 и т. д. клика, то будьте уварены, что такие страницы попадут в дополнительные результаты, потому что даже хозяин сайта считает их малополезными.
А для поисковика – чем выше уровень размещения статьи, тем он более значимый. Все же материалы ниже третьего уровня, для поиска считаются малозначимыми.
В-четвертых, если страница сайта не имеет обратных ссылок, нет качественного контента, то и такая страница может быть отнесена к дополнительным результатам.
Чем больше страниц сайта в дополнительных результатах, тем ниже авторитетность сайта, и тем ниже рейтинг всего сайта в результатах поисковой выдачи., что отрицательно влияет и на хорошие веб-страницы.
Поисковые роботы Google посещают страницы дополнительного индекса значительно реже, чем уже занесенные в индекс и поиск новых, поэтому лучше избегать попадания под действие фильтра Supplemental results, чем улучшать, или удалять «плохие» страницы, с надеждой, что скоро улучшенные страницы получат больший вес.
Дешевле сразу продумать интуитивно понятную структуру с пунктами меню, которые соответствуют запросам пользователей, чем после попадания в дополнительный индекс пытаться выводить сайт.
Обычному разработчику всё равно за что получать деньги, а вот хозяину сайта придётся платить дважды, если заблаговременно не позаботится о правильной структуре.
20 – POSSUM (ОППОСУМ. ТЕРРИТОРИАЛЬНОЕ РАНЖИРОВАНИЕ)
Представьте распространенную ситуацию, когда в одном бизнес-центре находится 6 юридических контор, которые, судя по их сайтам, оказывают одни и те же услуги.
Если прежде все 6 компаний отображались в локальном поиске, то после введения Оссумума Google может показать в местном поиске только одну, или, возможно, две, юридические конторы вместо всех шести.
Для человека из 6 фирм выбрать одну, лучшую, практически не реально. Человек по природе своей в состоянии выбрать только из двух. Если ему приходится выбирать из трех, то выбор происходит следующим образом. Сначала сравниваются первые два, выбирается лучший, а затем выбранный и следующий. Уж так устроен наш мозг.
Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.
Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.
Но последнее кто будет делать?
В одном из примеров своего исследования MOZ отметил, что бизнес, расположенный слегка удаленно от географического скопления, подскочил с №21 до №10 в результатах локального поиска.
Интервал:
Закладка: