Содержание

Проверка и вывод сайта из-под ручных фильтров Гугла

Ручные санкции накладываются в том случае, если применялись:

  • дорвейные технологии;
  • искусственные SEO-ссылки;
  • агрессивный спам ключевыми словами;
  • технологии черного SEO (создание дорвеев, клоакинг, сокрытие текста, сателлиты, маскировка отдельных элементов сайта);
  • некачественный, неуникальный и спамный контент.

Проверить сайт на предмет попадания под ручной фильтр поисковой системы легко в панели Google Webmaster Tools. В случае если для Вашего сайта ручные санкции не применялись, в меню «Инструменты для веб-мастеров» Вы увидите следующее сообщение:

Тем не менее, если ручной фильтр был применен, то для выхода сайта из-под него требуется внимательно ознакомиться с информацией в вышеназванной вкладке и следовать указанным инструкциям для устранения проблем.

Как узнать, что сайт попал под автоматический фильтр Google?

Фильтров в поисковой системе Гугл очень много, и быстро проверить, какой именно тип санкций был применен, довольно сложно. ПС учитывают множество факторов ранжирования площадок, и задача любого поисковика — сделать выдачу максимально релевантной. Однако ошибаться могут даже машины, и Гугл в этом плане не исключение.

Ваш ресурс мог оказаться под фильтром, если Вы не манипулировали выдачей, не накручивали ссылочную массу и ключи и в целом не злоупотребляли черным и серым SEO, однако заметили, что в один период:

— резко упал трафик;

— в Google Webmaster Tools появилось сообщение, что обнаружены искусственные ссылки на сайт.

Перечислим некоторые фильтры Гугла:

  • «Песочница»;
  • Domain name Age («Возраст домена»);
  • Google Omitted Results («Дополнительные результаты»);
  • Page Load Time («Длительное время загрузки»);
  • Broken Link Filter («Много битых ссылок»);
  • Bombing («Бомбежка»);
  • Bowling («Боулинг»);
  • Too Many Links at once («Много ссылок сразу»);
  • Links («Линкопомойки»);
  • CO-citation Linking Filter («Социтирование»);
  • -30 («Минус тридцать»);
  • Duplicate Content («Дублирующийся контент»);
  • Over Optimization («Чрезмерная оптимизация»);
  • Google page layout («Много рекламы в верхней части страницы»);
  • Фильтр за всплывающие окна;
  • Google Panda;
  • Google Penguin.

Рассмотрим несколько самых серьезных фильтров Гугла.

Penguin («Пингвин»)

Был запущен в 2012 году. Попадание под этот фильтр характеризуется резким падением трафика. Как правило, проседание совпадает с моментом переиндексации выдачи. Этот фильтр «наказывает» площадки за неестественную ссылочную массу. Если после очередного обновления алгоритма Вы заметили проседание трафика на сайт, то, вероятно, к ресурсу были применены санкции.

Как выглядит график посещаемости сайта под фильтром Penguin:

К манипулированию ссылочной массой Гугл относит:

  • присутствие в анкоре ссылки прямого вхождения ключевого запроса;
  • размещение ссылочной массы на некачественных и спамных площадках;
  • присутствие сквозных ссылок в сайдбаре и/или футере;
  • ссылочный обмен;
  • хаотичное и неравномерное распределение анкоров по страницам ресурса.

Метод вывода сайта из-под фильтра довольно прост: достаточно убрать некачественные и неестественные ссылки, устранить внутренние ошибки (клоакинг, дубли) и постепенно наращивать естественную ссылочную массу без резкого увеличения этих ссылок.

Некорректные ссылки могут возникать по разным причинам, и самая распространенная — некачественные работы, проведенные по внешней SЕО-оптимизации. Например, покупные ссылки на сайт, за которые Гугл может применить санкции.

Нередко встречаются ситуации по обнаружению ссылок на ресурс, которые были проставлены конкурентами с сайтов с взрослой тематикой или с вредоносными источниками. Также до сих пор встречаются сайты с огромным количеством ссылок, проставленных в те годы, когда определяющим фактором было не качество ссылок, а их количество.

Обычно ссылки можно удалить через переписку с веб-мастерами площадок, с которых они ведут. Но бывают случаи, когда это невозможно. В таких ситуациях проводится так называемое дезавуирование ссылок.

Слово «дезавуирование» произошло от фр. desavouer — «отказываться», «выражать неодобрение». Таким образом, дезавуирование ссылок — это процесс, при котором владелец ресурса указывает поисковику, что данные ссылки не нужно учитывать при ранжировании сайта, и снимает с себя ответственность за их появление.

Дезавуировать нежелательные ссылки сам Гугл рекомендует с помощью инструмента Disavow Links.

Правила использования сервиса:

Шаг первый. Переходим на страницу Disavow Links Tool и выбираем наш домен:

Шаг второй. Загружаем txt-файл со списком ссылок, которые необходимо удалить. Кодировка файла — UTF-8 или 7-bit ASCII. Каждую ссылку требуется писать с новой строки, также можно запретить и домен, и отдельную страницу сайта, используя команду domain. При необходимости оставить комментарий нужно проставить в начале строки символ #.

ВАЖНО: размер загружаемого файла не должен превышать 2 Мб.

Ссылки, индексируемые Google, вы можете проверить в панели веб-мастера:

Шаг третий: Ждем новой индексации с учетом загруженных запретов (этот процесс может занять от нескольких дней до месяца) и после отправляем сайт на пересмотр: https://www.google.com/webmasters/tools/reconsideration?hl=ru

Panda («Панда»)

Этот пессимизирующий фильтр поисковой системы Google был введен в 2011 году. Его основная цель — борьба с некачественным контентом и рекламой, не имеющей отношения к тематике текста, а также целостная оценка наполнения сайта.

Так выглядит график посещаемости сайта, попавшего под фильтр Panda:

Чтобы избежать фильтра «Панда», на Вашем сайте не должны присутствовать:

  • неуникальные, скопированные тексты;
  • нетематические ссылки;
  • спам ключевыми словами, переоптимизация;
  • неуникальные метатеги, дубли страниц и пр.

Процесс вывода сайта из-под фильтра «Панда» трудозатратный и долгий. Необходимо провести работы по комплексному аудиту, уделить внимание каждой странице, исправить каждую внутреннюю техническую ошибку. Подробно об этом фильтре Вы можете прочитать в нашей статье.

Что необходимо делать, чтобы не попадать под фильтры поисковой системы Google?

В первую очередь не следует нарушать правила честной оптимизации. Рекомендации по основам адекватной оптимизации дают как крупные компании по продвижению, так и сами поисковые системы. Наполнять страницы следует только уникальным и интересным для пользователей контентом. Необходимо избегать резкого роста ссылочной массы, возникновения дублей страниц или всего сайта. Нельзя размещать нетематическую рекламу и пренебрегать основами юзабилити, следует оперативно проверять сайт и исправлять возникающие технические ошибки.

Площадки, нарушающие правила поисковых систем, могут попасть под действие специальных алгоритмов, в народе именуемых фильтрами. Как результат, проседают позиции отдельных страниц или всего сайта или сайт выпадает из индекса. Мы расскажем, как проверить, находится ли сайт под санкциями поисковых систем.

Фильтры в Яндекс и Google могут накладываться по разным причинам:

  • неуникальный контент;
  • переоптимизация текстов ключами;
  • скрытый текст;
  • бессистемный линкбилдинг;
  • злоупотребление продажей ссылок;
  • накрутка поведенческих показателей;
  • агрессивная реклама, всплывающие окна;
  • заражение сайта вирусами;
  • «серые» технологии: кликджекинг, клоакинг, криптоджекинг, фишинг и проч.

Это лишь часть возможных нарушений — каждая поисковая система выдвигает свои требования, причем они регулярно обновляются и дополняются. Цель фильтрации — сделать поиск более качественным. Если вы заметили, что позиции сайта резко просели, страницы выпали из индекса одного из поисковиков и трафик упал, то это серьезный повод проверить сайт на попадание под фильтры. Сделать это можно 4 способами.

1. Проверка на фильтры с помощью ИКС, трафика и количества страниц в индексе

Оценить трафик можно с помощью подключенной системы аналитики: Яндекс.Метрика, Google Analytics или Liveinternet. Если график посещаемости напоминает представленный ниже, то начинайте искать причины такого положения дел.

Прежде всего, важно правильно установить диагноз, ведь при возникновении проблем первая мысль, которая приходит в голову, неразрывно связана с фильтрами. Помимо фильтров это могут быть и следующие причины:

  • запрет индексации сайта или отдельных страниц в robots.txt, .htaccess или настройках CMS;
  • заражение сайта вирусами или взлом;
  • блокирование доступа роботам к сайту со стороны хостинг-провайдера;
  • сайт некоторое время был недоступен для сканирования роботами (например, если не был вовремя оплачен хостинг) и исключен из поиска.

Для быстрой проверки количества страниц в индексе зайдите в интересующий поисковик и введите запрос site:вашдомен.ru (без пробела).

Резкое сокращение количества страниц до 1-10 — верный признак фильтрации.

Раньше для проверки сайта на фильтры Яндекса можно было перейти по ссылке https://yandex.ru/yaca/cy/ch/ и посмотреть на значение тИЦ — если все в порядке, то это значение было 0 или выше (в противном случае напротив тИЦ была надпись «не определен»). Но в конце 2017 года Яндекс.Каталог закрыли, а с сентября 2018 года тИЦ заменили на ИКС.

Теперь проверить любой домен на фильтры можно с помощью бесплатного парсера ИКС — введите адрес главной страницы сайта, и если ИКС обнулен или аннулирован, это верный признак фильтрации.

Для проверки собственного сайта на санкции Яндекса достаточно зайти в Яндекс.Вебмастер и посмотреть на значение ИКС интересующей площадки в списке сайтов.

Полезный совет: сопоставьте дату проседания трафика с датой выхода очередного обновления алгоритма поисковика. Например, все обновления алгоритмов Google фиксируются на сервисе moz.com. О фильтрах Яндекса можно узнать из официального блога или из новостных публикаций от PromoPult. Если даты совпадают, то вам будет проще понять, какой именно фильтр повлиял на работу сайта.

Снять позиции в поисковиках можно инструментом системы PromoPult. Оцените набор профессиональных инструментов для работ по оптимизации и продвижению сайтов.

4. Анализ на фильтры с помощью онлайн-сервисов

В рунете существует ряд сервисов, анализирующих вероятные санкции со стороны поисковых систем. Например, фильтры Яндекса (АГС, Минусинск и др.) неплохо определяет Xtool.ru — просто вводите интересующий домен, и если есть проблемы, они будут отражены в таблице:

Даже если фильтр не наложен, сервис все равно предупредит вас о возможных проблемах:

Проверить сайт на АГС Яндекса можно с помощью pr-cy.ru. Среди результатов проверки есть строка с проверкой на АГС:

Проверить наличие санкций в ПС Google можно с помощью англоязычного сервиса Barracuda. Здесь есть инструмент Panguin Tool для обнаружения «Панды» или «Пингвина». Для работы сервиса нужно разрешить доступ к Google Analytics. Данные анализируются за 2 последних года:

На графике отмечены даты обновления алгоритмов Google — таким образом, вы можете сопоставить изменения трафика с обновлениями и сделать выводы.

Итак, есть много способов узнать о наложении фильтров на ваш сайт. Если по каким-либо причинам вы не можете проверить сайт самостоятельно, вам поможет Персональный менеджер в PromoPult.

Панда Panda

Данный фильтр Google накладывается на сайты по большей части в связи с контентом плохого качества, большого количества рекламы, избытка ключевых фраз, ссылок с сайтов плохого качества, клонов страничек и прочее.

Чтобы выйти из-под «Panda», нужно заменить неуникальный текст на уникальный, убрать ссылки плохого качества, лишние ключевики, лишнюю рекламу. И главное, проверьте качество рекламы, она не должна быть агрессивной, навязчивой, запрещенной законодательством!

Фильтры Google разнообразны и их большое количество. Бывает, иногда даже профи оптимизатору трудно определить, под которым точно фильтром находится ваш сайт. У моего сайта тоже не лучшие отношения с Google. Я провел полный анализ своего сайта, и выяснил, что он не под фильтром, у него просто просели страницы. Их необходимо заново оживить с помощью хороших ссылок, повторной индексации Гугл и полного анализа страниц.

Сейчас мой сайт в Гугл начинает оживать. С Google на него начинает идти трафик, чего желаю и вашим сайтам, если на них наложены фильтры Google. Успехов!

Борьба за трафик. Как вывести сайт из-под спам-фильтра Google (Первая Часть)

В марте прошлого года мы неожиданно получили письмо от команды Google по борьбе со спамом.
В письме говорилось, что некоторые ссылки, ведущие на наш сайт rusonyx.ru, не соответствуют рекомендациям по обеспечению качества. Поэтому, к нашему сайту были применены меры, которые в последствие повлияли на входящий бесплатный трафик с поиска Google. Он резко снизился, а точнее, упал ниже плинтуса.

Мы с грустью смотрели на эту картину. Но делать нечего – нужно было срочно что-то предпринимать. Спустя год, потратив 300 человеко-часов, нам удалось вытащить сайт из бана. В этой статье я постараюсь подробно описать, как нам это удалось, каких это стоило усилий и какие шаги нужно предпринимать в такой ситуации.

Изучение проблемы

Сначала я решила изучить все форумы по этой проблеме и хелпы Гугла. Но в итоге поняла, что четких и структурированных рекомендаций по этой теме нет. Проще говоря, никто толком не мог конкретно сказать, что нужно сделать, чтобы Google снял с сайта фильтры.
Тогда я стала искать хоть какую-то литературу с успешными кейсами. И наткнулась на англоязычную книгу «The complete guide to unnatural links recovery». Книга платная и стоит $90, но я все же ее купила и прочитала от корки до корки. После прочтения появилось понимание того, что нужно делать.
В этой статье я постараюсь описать весь алгоритм действий, который нужно проделать для отмены санкций Google. Это не просто изложение прочитанного. Здесь описан мой опыт вытаскивания сайта из под спам-фильтров Google.

Чего делать точно не стоит

Не рекомендую писать гневные письма в Google, тем более что это не решит проблему. В Гугле работают такие же люди, как и мы с вами, которые просто выполняют свою работу. Не надо халтурить и отправлять запросы в Google на пересмотр, не поработав с внешними ссылками на ваш сайт. Сотрудники Google должны видеть ваши страдания 🙂 Фильтр – это наказание и вы должны сильно попотеть, вытаскивая сайт из бана. Это часть плана и вы либо принимаете правила игры, либо остаетесь без натурального трафика из поисковой системы.

Нельзя просто так взять и выйти из-под бана Google. Нам потребовалось на это полгода усердной работы. По самым скромным подсчетам на это ушло около 300 человеко-часов. Надеюсь, что вам удастся решить проблему быстрее, благодаря этой статье.
Итак, вы обнаружили резкое снижение трафика с Google. Как понять, что это именно из-за санкций, которые поисковик применил к вашему сайту?

Ваш сайт попал под спам-фильтры?

Это можно выяснить, если зайти в панель для веб-мастеров Google Webmaster Tools. В меню слева выберите «Поисковый трафик», далее «Меры, принятые вручную».Если к вашему сайту применялись фильтры, то вы увидите сообщение об этом. Наглядно показать вам не могу, так как с нас эти меры Google снял до того, как я догадалась сделать скриншот.
Если меры не применялись, то сообщение будет таким:

Первый шаг: ищем причину

Прежде всего я выяснила, что это за ссылки, которые не соответствуют рекомендациям по обеспечению качества Google. В руководстве для веб-мастеров Google подробно описаны , которые использовать не рекомендуется. Подумайте, что могло стать причиной. Может быть, вы нанимали агентство по SEO – продвижению или сами закупали ссылки и статьи через биржи ссылок. Или, может, вы используете схемы обмена ссылками.
Мы в 2011 году работали с агентством, которое продвигало наш сайт за счет покупки вечных ссылок и SEO-статей. И несмотря на то, что в январе 2012 года мы расторгли с ними договор и целый год не продвигали сайт при помощи SEO-методов, в марте 2013 Гугл прислал нам письмо «счастья».
Изучив рекомендации Google, я выявила несколько основных причин, из-за которых, скорее всего, наш сайт мог отправиться в бан:

  1. SEO-статьи и вечные ссылки
  2. Ссылки в SEO –каталогах и SEO-закладки
  3. Большое количество сквозных ссылок на сторонних не тематических ресурсах
  4. Спам-ссылки, в т.ч. форум-спам
  5. Дорвеи

Второй шаг: Выгружаем внешние ссылки

Для того, чтобы начать работу по выявлению некачественных ссылок и их устранению, нужно создать файл и выгрузить все внешние ссылки, ведущие на ваш сайт. Обратите внимание, что файлы, лучше всего создавать в GoogleDocs. Основная причина этого требования Гугла в том, что в других файлах могут содержаться вирусы и вредоносные программы. Поэтому, MS Ecxel файлы сотрудники Гугл проигнорируют, а вот в таблицах Google Docs примут.
Где взять эти внешние ссылки? Для этого используйте инструменты GoogleWebmasterTools
Как выгрузить ссылки. Заходим в панель WebmasterTools слева в основном меню, выбираем «Поисковый трафик», далее «Ссылки на ваш сайт». Нас интересует раздел «Наиболее часто ссылаются». Нажимаем «Дополнительно» и загружаем последние ссылки. Напомню, что при выгрузке ссылок выбирайте вариант «Документы Google».

У вас должна получиться таблица со списком ссылок. Для удобства работы, отсортируйте ссылки в алфавитном порядке.

Третий шаг: Создание таблицы ссылок

Откройте созданную Google таблицу с выгруженными ссылками. В столбце «В» указана дата, когда Google обнаружил эту ссылку. Назовите его «First Discovered» («Дата обнаружения ссылки»).
Создадим еще несколько столбцов, которые нам понадобятся (далее я объясню):

  • C – Needs to be removed? (Нужно удалить?)
  • D – Disavow? (Отклонить?)
  • E — Contact e-mail found on site (Контактный e-mail, найденный на сайте)
  • F – First name of contact (Контактное лицо)
  • G – Whois e-mail (e-mail, найденный в whois)
  • H — First name of Whois contact (Имя владельца e-mail, найденного в whois)
  • I – E-mail reference # (порядковый №, указывающий на отправленный e-mail)
  • J – Url of contact form (Ссылка на контактную форму, найденную на сайте)
  • K – Contact form reference # (порядковый №, указывающий на отправленное письмо через контактную форму)
  • L – Comments (Комментарии).

В итоге у вас должна получиться такая таблица:

Четвертый шаг: Создание списка статусов

У меня получилась таблица с огромным списком ссылок – порядка 12000. Задача состояла в том, чтобы проверить каждую ссылку из выгруженного списка и присвоить ей тот или иной статус. Цель – определить, какие из ссылок, в последствие, нужно удалять, а какие оставить. В процессе работы со ссылками, каждой из них в столбце «С» — «Needs to be removed» нужно присвоить один из следующих статусов:

  • YES – SEO article (ДА – SEO статья)
  • YES – SEO directory (ДА – SEO каталог)
  • YES – SEO bookmark (ДА – SEO закладка)
  • YES – Forum spam (ДА – Форум-спам)
  • YES – Spam (ДА – Спам)
  • YES – Link made for SEO purposes (Ссылка созданная для целей SEO)
  • NO – Nofollowed (НЕТ – не индексируемая)
  • NO – Page not found (НЕТ – Страница не найдена)
  • NO – Link not found (НЕТ – ссылка не найдена)
  • NO – Site not visited due to malware warning (Не удалось зайти на сайт из-за предупреждения о вредоносных программах)
  • NO – Valid directory (НЕТ – Полноценный каталог)
  • NO – Natural link (НЕТ – Естественная ссылка)

Следующему столбцу «D» — «Disavow?» («Отклонить?») мы тоже в процессе работы над ссылками присвоим статусы:

  • YES (ДА) – если хотим отклонить весь домен целиком
  • NO (НЕТ) – отклонять не нужно
  • YES – url (ДА – url) – если не хотим отклонять весь домен, а только отдельную ссылку или ссылки на этом домене.

О Disavow. Это инструмент Google, с помощью которого можно отклонить ссылки. По сути вы просите Google не принимать во внимание некоторые ссылки при оценке вашего сайта – сделать их неиндексируемыми. Инструмент находится в панели для веб-мастеров Google (Webmaster Tools). На первом этапе достаточно просто понять, для чего этот инструмент нужен. Во второй части я расскажу как им воспользоваться.

Шаг пятый: Подготовка браузера

Перед тем как начать работу со ссылками, нужно подготовить браузер. Я пользовалась Google Chrome. Мне он показался самым удобным в плане поиска ссылок.
Для быстрого поиска Nofollow ссылок, можете установить приложение MozBar. Приложение позволяет выделять цветом индексируемые /неиндексируемые ссылки. Также можно настроить отображение Page Rank, Domain Authority и прочие полезные штуки.
Также рекомендую установить приложение Web Developer Toolbar, для того, чтобы отключать Java Script, куки и все такое. Поверьте, сайты вам будут попадаться разные: с навязчивым контентом, всплывающими окнами, редиректами и прочей гадостью.

Шаг шестой. Работа со ссылками

Это основной шаг, он же и самый трудоемкий. Задача этого шага состоит в том, чтобы открыть и проверить каждую ссылку из списка, найти на странице ссылки на ваш сайт, определить к какому статусу они относятся, и отразить статус в Google таблице.
Итак, открываем первую ссылку.
Как искать ваши ссылки на странице
Иногда ссылку на странице трудно найти. Для этого используйте исходный код страницы. Открываете исходный код, задаете в поиске ваш домен (Ctrl+F) и если ссылки на ваш сайт есть, то они будут выделены цветом. В Google Chrome искать ссылки удобнее всего, если ссылок на странице много.
Если ссылок на ваш сайт на странице найти не удалось, то смело ставьте статус «NO – Link not found» (НЕТ – ссылка не найдена) в столбце «С» — «Needs to be removed». А в столбце «D» — «Disavow?» («Отклонить?») – определите статус по ситуации (Да, нет или да – url).
Также может быть, что к ссылке применен тег «Nofollow». Это означает, что ссылка не индексируется поисковыми системами и удалять/отклонять ее нет смысла. Поэтому, смело ставьте в столбце «С» статус «NO – Nofollowed» (НЕТ – не индексируемая) и в соседнем столбце «D» — NO (НЕТ).

Если вы сомневаетесь, стоит ли удалять ссылку, то отложите ее, указав в комментариях «Возможно», чтобы потом снова к ней вернуться или быстро найти все такие ссылки и пересмотреть, если вдруг после отправленного вами запроса на пересмотр, Google пришлет отказ.
Если страница не найдена

Если перейдя по ссылке, страница не отображается, то напротив этой ссылки в столбце «С» — «Needs to be removed» ставьте NO – Page not found (НЕТ – ссылка не найдена), а в столбце «Disavow?» («Отклонить?») укажите YES (ДА) или YES – url (ДА – url).
Зачем такие ссылки отклонять? У меня был случай, когда Гугл отказал в снятии мер, в том числе, и из-за того, что обнаружил неестественные ссылки на страницах, которые не открывались ранее, но вскоре заработали снова и ссылки на наш сайт стали активны.
Найдена неестественная ссылка
Если вы нашли на странице неестественную ссылку, к которой присвоили один из следующих статусов в столбце «С»,

  • YES – SEO article (ДА – SEO статья)
  • YES – SEO directory (ДА – SEO каталог)
  • YES – SEO bookmark (ДА – SEO закладка)
  • YES – Forum spam (ДА – Форум-спам)
  • YES – Spam (ДА – Спам)
  • YES – Link made for SEO purposes (Ссылка созданная для целей SEO)

ищите контакты веб-мастера или владельца домена на котором размещена такая ссылка. Это может быть e-mail или контактная форма для связи. Заносите контактные данные в таблицу в соответствующие колонки (столбец «Е», «F» или «J»).
Если на сайте нет контактов, то вы можете найти e-mail владельца домена в базе Whois. Я пользовалась этим ресурсом whois-service.ru.
Если контактные данные скрыты, то всегда есть возможность отправить запрос владельцу через регистратора данного домена (строка «admin — contact»).

Заносите контактные данные, найденные через Whois, в таблицу в соответствующие колонки (столбец «G», «H» или «J»)Столбец «D» — «Disavow», пока оставьте. Статусы в этом столбце к таким ссылкам, вы будете проставлять позднее – после связи с веб-мастером или владельцем сайта. А пока пусть эти ячейки останутся пустыми.

Шаг седьмой: письма веб-мастерам

Если у вас не так много ссылок, которые нужно проверить, то пишите письма веб-мастерам после того, как работа над всем списком ссылок проделана (Шестой шаг).
Так как у меня был огромный список ссылок (12000), то я отправляла письма сразу, как только находила ссылки, подлежащие удалению.
Важная деталь. Отправлять письма веб-мастерам нужно с почтового ящика на gmail. Рекомендую заранее создать отдельный ящик. Вы можете использовать и существующий, но, на мой взгляд, с отдельным работать проще. Я, например, отправляла по нескольку писем веб-мастерам в день и получала по нескольку ответов, соответственно. Поэтому создала отдельный ящик.
Итак, у вас есть почтовый адрес на gmail, с которого вы будете отправлять письма веб-мастерам, владельцам доменов и т.д.
Ниже текст письма с обращением, которое я отправляла. Вы можете взять его за основу.
Здравствуйте!
Меня зовут Анна, я представляю компанию Русоникс, которая является владельцем домена www.rusonyx.ru
Дело в том, что некоторое время назад мы получили уведомление от Google о том, что наш сайт попал в бан-списки из-за некоторого ряда ссылок.
На данный момент мы проводим работу по выявлению таких ссылок и их устранению.
У меня большая к вам просьба.
Пожалуйста, поставьте тег «nofollow» или удалите ссылки на вашем сайте, которые ссылаются на наш (www.rusonyx.ru ).
Вот страницы с вашего сайта, где есть ссылки на нас:
………
Заранее спасибо!
Пожалуйста, как только вы это сделаете, сообщите нам ответным письмом.
Будем вам очень благодарны и признательны за оказанную помощь!
С уважением,
Мой e-mail на домене rusonyx.ru:
————————————-
Как задокументировать доказательство отправки писем
Все просто. Создайте 2 новых документа в Google Docs:

  1. Первый назовите «Оригинальные коды отправленных писем»
  2. Второй — «Скриншоты запросов, отправленных с контактных форм»

В первый документ вы будете переносить оригинальные коды отправленных писем, и присваивать им номера, которые будут отражены в Google таблице в столбце «I» — «E-mail reference #» (№ Ссылки на отправленный e-mail). Выглядеть это будет так:
В документе «Оригинальные коды, отправленных писем»
В Google таблице
Не нужно копировать весь код письма, достаточно той части, где указан отправитель, получатель, дата отправки и тема письма. Как открыть код письма. Откройте отправленное письмо, и справа в выпадающем списке выберите «Показать оригинал».
Второй текстовый документ «Скриншоты запросов, отправленных с контактных форм». Сюда нужно заносить скриншоты (по аналогии с кодами писем) и присваивать им номер, который будет отражен в основной таблице в столбце «Contact form reference #» (№ Ссылки на отправленное письмо через контактную форму). Выглядеть это будет так:
В документе «Скриншоты запросов, отправленных с контактных форм»
В Google таблице

Шаг восьмой: Работа с ответами на запросы

Есть 3 варианта развития событий, после того, как письма с запросами отправлены:
Первый вариант. Вам ответили на запрос и сообщили, что ссылка удалена или к ней применен тег nofollow. В этом случае:

  • В основной таблице в столбце «L» с комментариями укажите, что ссылка удалена/применен тег nofollow и поставьте дату;
  • помечаете строку зеленым цветом;
  • в столбце «D» — Disavow ставьте статус «NO».

Вот так это выглядит в таблице
Второй вариант. Вам пришло письмо с отказом удалить ссылку.

  • Помечаете в комментариях к таблице в столбце «L» факт отказа;
  • копируете исходный код ответа в файл «Оригинальные коды, отправленных писем»;
  • даете № ссылки на этот исходный код в Google таблице в столбце «L» с комментариями;
  • Всю строку помечаете красным цветом;
  • в столбце «D» — Disavow ставьте статус YES (ДА) или YES-url (ДА-url ссылка).

Третий вариант. Вы не получили ответа.

  • В комментариях к таблице в столбце «L» укажите этот факт;
  • В столбце «D» — Disavow ставьте статус YES или YES – url;
  • Всю строку помечаете красным цветом.

Ну вот, это все, что нужно сделать на первом этапе. Второй этап работы касается подготовки и отправки отчета на пересмотр в Google. Но этот этап требует отдельной статьи, которую я буду писать, пока вы работаете над первым.

Как выйти из-под фильтра Гугл Панда

Статья о практических мерах по выводу сайта из-под фильтра Гугл, касающихся внутренней оптимизации. Я не буду описывать все фильтры этого поисковика: приведу только хронологию и конкретные шаги, которые помогли выйти из-под санкций. Уверен, если вы столкнулись с резким падением трафика с Гугл, то прочитали уже массу манускриптов на эту тему.

7 фев. 2014 года резко обвалился трафик из поисковой системы Google и, в считанные дни, сошёл до нуля. Мои позиции из Топ-20 упали на 200 пунктов и ниже. Если вы столкнулись с такой ситуацией и хотите вывести ресурс из-под действия фильтра, то читайте дальше — будет полезно и поучительно:

Честно сказать, первую неделю я бездействовал — думал, что это какая-то ошибка. Надеялся, что само пройдёт, ругал Гугл, да и не только его. Но сознание постепенно прояснилось: прежде всего, во всех неудачах надо винить себя, и нельзя «опускать руки». Стал читать в Интернете информацию про фильтры и случаи, схожие с моим, при которых резко упал трафик с Google.

Главными подозреваемыми стали Панда и Пингвин, менее значимые фильтры я отмёл, как не подходящие. Определить какой из двух фильтров стал причиной наложения санкций можно, используя ресурс: barracuda-digital.co.uk. Потребуется предоставить доступ к своему аккаунту Analytics, лучше частичный — создать гостевой аккаунт, особенно если зарабатываете в Adsense.

Мне это не потребовалось — Пингвина я отбросил, потому что webmastersam.ru имел бэклинки всего с нескольких десятков доноров.

Из прочитанного мною о фильтре Панда я понял, что борьба с ним отнимает долгие месяцы. Один блогер писал, что вывел сайт из-под фильтра за 1 месяц — я не поверил, конечно. Оставалось сменить домен, что исходя из моей практики, не раз помогало. Вопреки всему я решил принять новые обстоятельства и бороться, отслеживая результаты — и не ошибся.

Если бы это были «меры, принятые вручную» в Google Webmasters, то, по крайней мере, было бы понятна причина санкций. А автоматически наложенные фильтры распознать трудно и писать по поводу них в Службу поддержки этой поисковой системы бесполезно. Я решил продвигать сайт в Яндексе, там требования жёстче — тогда со временем и санкции от Гугл могут быть сняты.

До сих пор я полагал, что имею хорошее представление о внутренней оптимизации сайта. Пришлось «освежать» знания и проводить доскональный аудит своего ресурса. Нашлись грубейшие ошибки, как и небольшие дефекты, после исправления которых, посещаемость проекта стала восстанавливаться.

Потребовался 1 месяц до начала возврата позиций. Мне повезло, что сайт молодой, имеет мало страниц и на его исправление ушло только 3-4 полноценных «рабочих» дня, с перерывами. Обратимся к такой seo-схеме и на её примере проведём «разбор полётов»:

Внутренняя оптимизация сайта

1. Уникальность текстов — этот пункт я пропускаю, так как пишу тексты сам.

2. Плотность KC — нашёл несколько страниц с явной «тошнотой» и переработал тексты. Необходимо довести плотность ключевых слов до вменяемого состояния в 2-4%, делая упор на читабельность. Важный момент: кроме основного контента (самой статьи), необходимо учитывать количество КС на всей странице — в шапке, колонках, футере. Это меню, блоки ссылок c атрибутами Alt, Title — часто именно неучтённые КС являются причиной их избыточности, особенно когда объём статьи небольшой.

3. Title — важные теги для каждой страницы, с точки зрения seo. Оставил без изменения, посчитав их удовлетворительными. Правильное составление Title играет чрезвычайную роль для внутренней оптимизации сайта. Избегайте повтора ключей в теге. Хорошим подспорьем при его составлении будет анализ титлов конкурентов и оценка их привлекательности.

4. Заголовки — посчитал, что это главная причина попадания под фильтр. Незадолго до наложения на сайт санкций я провёл небольшую реконструкцию: чуть-чуть изменил структуру и дизайн, добавив элементы оформления. В том числе: на страницах подразделов в заголовки H поместил теги Strong, чтобы «выделить дополнительно» — ничего глупее придумать нельзя.

Ясно как день, что для оформления нужно использовать CSS, и ни в коем случае не помещать теги Strong, B, Em в тег H. Далее обнаружил в статьях чрезмерное употребление заголовков H и их неправильный порядок.

Отмечу два важных момента. Первый, не стоит ими злоупотреблять: если после заголовка идут всего 2-3 предложения, а потом снова заголовок — то это неправильно. Второй момент, заголовки должны строго отображать логическую иерархию страницы, придерживайтесь их правильной очередности: H1 — H2 — H3 — H3. Нужно соблюдать несколько правил при использовании заголовков H1-H3 на странице — читайте об этом подробнее.

5. Description — не изменял. Они прописаны вручную, к их составлению отношусь очень внимательно. Основной задачей мета-тега является привлечение дополнительного внимания пользователей, т.е. увеличение кликабельности ресурса в поисковой выдаче. Если Description прописан правильно, то ПС формируют из него сниппет — чего и надо добиваться. Старайтесь избегать повтора ключей или используйте морфологию.

6. Alt — по моему мнению, это вторая основная причина наложения фильтра. Думаю, что это распространённая ошибка, если изображений на странице много. Сколько там оказалось повторений — сам бы расценил это как спам! На одной странице вообще все атрибуты Alt оказались одинаковые — оплошность при вёрстке. Хорошо ещё, что я не использовал атрибут Title.

Рекомендация: сокращайте длину атрибута и не используйте более 1-2 ключей в «суммарном Alt» на странице. Делайте описание именно самой картинки, исключив из соображения общую тему статьи.

Оговорюсь, что это касается только текстов с приличным количеством картинок. Ещё одно соображение: если вы используете подпись под иллюстрацией, Figcaption или другой тег, — не повторяйте в нём содержимое Alt. К этому и Яндекс относится недоброжелательно.

Что ещё не упомянул? Не надо злоупотреблять тегами акцентирования Strong, Em — их присутствие желательно, но умеренное. А у Яндекса так же повышенное внимание к тегу B. Не выделяйте этими тегами маловажные, с точки зрения SEO, слова. Обратите внимание на перелинковку, её не учитывал, она у меня крайне умеренная. Остальные процедуры, которые я совершил, для выхода из-под действия Панды считаю менее важными: ускорение загрузки сайта, страница 404. Улучшением внешних факторов в течение «чёрного» месяца не занимался.

Для проведения seo анализа лучше воспользоваться специализированными сервисами, где можно исследовать структуру и контент сайта, плотность ключевых слов, узнать о недочётах внутренней оптимизации и отслеживать позиции в ПС.

Как ускорить переиндексацию сайта

После серьёзных изменений сайта необходимо добавить его на переиндексацию в Инструменты для-вебмастеров Google: «Сканирование — Просмотреть как Googlebot», что существенно ускорит дело и выход из-под санкций. Это можно проделать до 10 раз — не расходуйте запросы зря. Аналогичный инструмент для ускорения переиндексации в Яндекс Вебмастер — «Проверить URL»:

Гугл отреагирует довольно быстро, он «лёгок на подъём». Что касается его оппонента — потребуется набраться терпения. О результатах дальнейшей seo раскрутки сайта в Яндексе написал отдельно. Это инструкция по улучшению позиций сайта в более «строгой» и требовательной поисковой системе.

Не могу утверждать: Панда это была или нет — да и разницы никакой. Главное, что преодоление трудных обстоятельств даёт знания и бесценный опыт. Надеюсь, что статья поможет вам найти действенные решения по внутренней оптимизации сайта для его вывода из-под фильтра Google и придаст необходимый оптимизм.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *