Panda 4.1: обновление алгоритма
В конце сентября представители компании Google сообщили о том, что произошло обновление поискового алгоритма Panda 4.1. Новая его версия позволяет фильтровать содержимое даже небольших ресурсов, отсеивая низкокачественные сайты из списка результатов поиска по определенному запросу.
Апдейт четвертой версии алгоритма затронет 3-4% всех поисковых запросов. Внесенные изменения позволяют выйти из-под санкций тем ресурсам, которые пострадали от ошибок прошлой версии, если они провели нужные изменения. Высокая точность алгоритма – главное достоинство фильтра, который используется компанией Google с 2011 года.
Чтобы продвижение сайтов было успешным и эффективным, необходимо учитывать специфику постоянно обновляющихся поисковых алгоритмов. Что это означает для владельцев сайтов и обычных пользователей? Посетители тематических ресурсов могут рассчитывать, что поисковик будет направлять их исключительно на качественные сайты. А вот их владельцы теперь должны внимательнее выбирать специалистов, занимающихся СЕО-продвижением.
Зная принципы и правила фильтрации, можно направлять все свои усилия, чтобы не стать очередной жертвой обновленного алгоритма Panda.
На сайте должен размещаться только уникальный контент. Плагиат, копипаст и даже явный рерайт запрещены. Обновленный фильтр отслеживает любые такие ресурсы и отсеивает их. На сайте должны публиковаться исключительно тематические статьи. Если на страницах есть посторонний контент, который совершенно не соответствует тематике сайта, это основание для бана.
Эффективное продвижение сайта в поисковых системах всегда основано на размещении исключительно качественного контента. Статьи, которые не несут информационной нагрузки, а попросту «напичканы» ключевыми словами, не могут быть опубликованы. Любые данные, имеющиеся на вашем сайте, должны быть полезными, интересными.