Почему поисковые системы их фильтруют
Разработчики компании Google и Яндекс стремятся исключить различные способы стороннего манипулирования алгоритмами. Более того, они борются за качество и полезность публикуемого контента, и жестко отсеивают любые площадки, которые нужны исключительно для механического поднятия в рейтинге. Конечно, подобная принципиальная позиция — это желание перевести любые маркетинговые кампании в практическую плоскость. Однако именно такой подход в итоге приводит к существенным улучшениям материалов в сетевом пространстве.
Распознать аффилированность можно также по совпадению технических параметров, в частности:
- одинаковые контактные данные (адреса, телефоны, e-mail и т.д.);
- одинаковая информация о компании (юридический адрес, название компании, реквизиты и т.д.);
- похожий дизайн и HTML-верстка плюс схожая структура сайта;
- особенности CMS;
- наличие ссылок друг на друга;
- совпадающий каталог продукции/услуг плюс одинаковая ценовая политика;
- одинаковые технические данные (один IP-адрес, один владелец доменов);
- одинаковая информация о сайтах во внешних источниках (Яндекс.Справочник, общие ссылающиеся сайты и т.д.);
- пересекающиеся аккаунты в сервисах Яндекса (например, один аккаунт Яндекс.Вебмастера).
Чем больше находится общих признаков у потенциальных сайтов-аффилиатов, тем вероятнее и быстрее Яндекс поймет, что эти сайты принадлежат одному владельцу. Соответственно, для минимизации угрозы аффилирования нужно, чтобы как можно меньше признаков указывали Яндексу на связь между сайтами одного владельца.
Какие сайты поисковые системы не считают аффилиатами.
Впрочем, никто не запрещает иметь в распоряжении, например, сразу три веб-ресурса, каждый из которых будет решать свои задачи:
- охватывать разную аудиторию;
- отличаться по семантике;
- работать на субдомене.
Последний вариант — самый безопасный. Он практически на сто процентов исключает возможность попадания под фильтры пессимизации.

