Москва +7(499)
38-08-060
меню
мы в соцсетях
Подпишитесь на новые статьи

6 типов негативной SEO-оптимизации

4.8 из 5 на основе 4 оценок
27.04.2017 Написать комментарий

Угроза негативной поисковой оптимизации с каждым днем становится более реальной. Насколько легко конкуренту испортить репутацию компании? Каким образом можно защитить сайт? Многие предприниматели, продвигающие выпускаемую продукцию посредством собственного интернет-проекта, задаются подобными вопросами.

Прежде чем найти на них ответы, давайте рассмотрим понятие негативной поисковой оптимизации и методы борьбы с ней.

Негативная SEO оптимизация – это комплекс мер, направленных на снижение рейтинга ресурса в поисковой выдаче. Предпринимаемые противниками действия чаще всего выходят за рамки Off-Page оптимизации (например, размещение неестественных ссылок на ресурс, присвоение чужого контента). Иногда методы включают в себя взлом сайта, изменение информационного наполнения.

Негативная Off-Page оптимизация

Такие тактики подразумевают создание угрозы сервису без вмешательства в его работу. Наиболее распространенными ее формами являются:

Линкоферма

Одна-две спам-ссылки, вероятно, не повредят репутации интернет-портала. Именно поэтому SEO-атаки включают в себя создание группы взаимосвязанных сайтов, содержащих ссылки на другие порталы группы, так называемых «ферм». Как правило, большинство этих ссылок используют одинаковый якорный текст. Такой якорь точного соответствия порой не имеет никакого отношения к ресурсу, находящемуся под атакой, а иногда содержит нишевое ключевое слово, вследствие чего ссылочный профиль сайта выглядит так, словно владелец манипулирует им.

Как избежать подобной ситуации: предотвратить подобные происки нельзя, но выявить попытку в самом начале, когда еще есть возможность восполнить причиненный ущерб - возможно. Для этого регулярно отслеживайте рост ссылочной массы.

Веб - скрейпинг

Копирование опубликованных материалов и размещение на других сервисах - распространенный способ понижения позиции ресурса. Google, нашедший дублированный контент, выбирает для ранжирования только одну версию.  Поисковая система преимущественно способна определить первоисточник…если только украденная версия не находится раньше. Поэтому скрейперы, автоматически копирующие новое информационное наполнение, сразу делают репост.

Меры предосторожности: Copyscape является важным инструментом при необходимости найти случаи дублирования информационного наполнения. Если такие материалы обнаружены, сперва обратитесь к веб-мастеру с просьбой удалить этот фрагмент. Если это не сработало, сообщите о скрейпинге, используя отчет Гугл о нарушении авторских прав.

Принудительное сканирование

Некоторые отчаянные предприниматели пытаются нанести вред ресурсу конкурента, принудительно сканируя его и вызывая тем самым нагрузку на сервер. Если робот Googlebot, разработанный для сканирования контента, не может получить доступ к сервису несколько раз подряд ... вы угадали – его позиция ухудшается.

Способы решения возникшей проблемы: заметили, что ресурс стал работать медленнее или, еще хуже, перестал быть доступным?  Срочно свяжитесь с хостинговой компанией или веб-мастером. Попросите их объяснить, откуда идет нагрузка.

Негативная On-Page оптимизация

Ниже приведены основные угрозы, которые представляет собой хакерская атака:

Внесение правок в контент

Порой кажется, что исправление информационного содержимого сразу становится заметно, однако данная тактика оказывается порой очень тонкой.  Распознать ее сложно. Взломщик, добавляющий спам-контент (преимущественно ссылки), обычно прячет добавленное вредоносное содержимое (например, в разделе «display: none» в HTML), поэтому его не видно, пока не заглянешь в код.

Другой возможный сценарий - изменение ваших страниц для перенаправления на страницы сервиса конкурентов. Такие действия не представляют угрозы для большинства малых предприятий, но если веб-портал пользуется высоким авторитетом, а ссылки - популярностью, это может стать нечестным способом повысить рейтинг страницы PageRank или просто перенаправить посетителей на другой сервис.

Меры предосторожности. Регулярный аудит сайта посредством такого инструмента, как WebSite Auditor, - лучший способ выявления таких тонких атак.

2. Де-индексация сайта

Незначительное изменение в robots.txt (стандарте исключений для роботов) способно нанести ущерб общей SEO-стратегии. Допущенные при создании такого файла ошибки дают Google право полностью игнорировать веб-сайт.

Меры безопасности: регулярный мониторинг позиций помогут узнать, подвергся ли веб-портал де-индексации. Rank Tracker позволяет запланировать автоматические ежедневные или еженедельные проверки.

Взлом сайта

Сама по себе атака способна здорово навредить SEO-оптимизации, даже если хакер ставил перед собой совсем другие цели. Google хочет защитить пользователей, поэтому при подозрении на взлом веб-портала, его позиция понижается.

Меры предосторожности: повышение уровня безопасности сайта по очевидным причинам должно иметь приоритетное значение.

мы в соцсетях
Подпишитесь на новые статьи