Система обладает и средствами, позволяющими веб-мастеру или оптимизатору следить за тем, на каком свете ресурс и все ли с ним благополучно. При создании проекта в его профиле возникают настройки статистики и аналитики, куда необходимо ввести данные от одного из трех счетчиков, после чего система начнет забирать сведения из него и показывать пользователю в простом виде, сколько человек перешло на сайт, кто по каким запросам, словоформам и т. д. Благодаря тому что статистика посещаемости интегрирована с инструментами продвижения, возникает возможность оценить, сколько было вложено в SEO и какова отдача от него. Предположим, из отчета явствует, что ссылок было куплено на 100 руб., а за месяц на сайт перешло 20 человек. Значит, привлечение каждого обошлось в 5 руб. Если система прогнозировала показатель 7 руб., очевиден выигрыш. Если же предполагалось 2 руб., нужно искать, где был допущен просчет, чему и способствует внутренняя аналитика сервиса.
   Существуют наиболее вероятные места «пробуксовки». Немного об одном из них. На что, по-вашему, в первую очередь смотрит человек в естественной поисковой выдаче? Ясное дело, на сниппет сайта. Он оценивает его качество, красоту, заголовок и текст. Эти блоки автоматически генерируются поисковиком из контента сайта, и влиять на их состав веб-мастер способен лишь ограниченно, косвенно. В SeoPult наличествует подмодуль, который изо дня в день проверяет сниппеты. Благодаря ему владелец сайта может провести ретроспективный анализ, посмотрев, как выглядел сниппет месяц или два назад, выдвинуть гипотезу, на что опирались алгоритмы поисковика в его составлении, и, предприняв обходные маневры, подкорректировать данный элемент. В заголовок сниппета, как известно, выносится содержимое тега title. С текстом дело обстоит сложнее. Если в случае с Google необходимо оперировать метатегом description, то для «Яндекса» обычна ситуация, в которой для части запросов в сниппете отображается содержимое description, для другой же части описание черпается из контента сайта. Как быть в таком случае? Изучите вычлененный поисковиком кусок текста, и, если вы считаете, что он не является продающим, если он не способен привлечь внимание посетителя, попытайтесь его творчески переработать. Посмотрите, взял ли его «Яндекс» на вооружение. Если тот выбрал другой фрагмент, значит, редактируйте его. Взаимодействие с «Яндексом» – это все равно игра в черный ящик. Зато благодаря SeoPult эта игра проходит хотя бы не в черной комнате, где не видно, что и когда из ящика было вынуто.
   Я не раз касался того, как SeoPult извлекает пользу из анализа конкурентной среды. Возможен и прямой анализ – в форме сравнения. Небольшой пример. Дан список из 50 поисковых запросов и десяток конкурентов. В отчетах SeoPult можно получить сравнение сайта с конкурирующими и постоянно быть в курсе, выше или ниже его они находятся в выдаче. Такой мониторинг дает вам возможность заблаговременно принять решение об увеличении бюджета или, наоборот, успокоить нервы зримым подтверждением своей незыблемости в топе. Система показывает, насколько быстро набирает очки тот или иной сайт. В конце концов, алгоритмы поисковиков меняются едва ли не каждый день. Хотя глобальные изменения совершаются не чаще чем раз в полгода, нелишним будет прогнозировать, исходя из реальной статистики, в какую сторону грозит качнуться выдача и где подстелить соломку, чтобы не было больно падать по позициям.
   Нельзя умолчать о такой функции, как гостевой доступ. Изначально он создавался для того, чтобы у человека, который таким образом заходит в систему, не было возможности редактировать данные в проекте. Режим допускает как «белое», так и «сероватое» применение. Честные оптимизаторы через такое «окошко» могут показывать своему клиенту в понятном и приятном интерфейсе, какие позиции занимает его сайт и сколько расходуется на продвижение, и не засорять ему почту письмами с многочисленными отчетами. В свою очередь, оптимизаторы, нечистые на руку, используют гостевой вход с «коэффициентом накрутки». Дело в том, что при настройке урезанного доступа владелец аккаунта вправе выбрать, какие данные предоставлять гостю. Можно показать ему только ключевые запросы и позиции, можно продемонстрировать увеличенный коэффициент цены ссылочной массы, а следовательно, и бюджета в целом. Этически такой прием часто сомнителен, однако вполне правомерен, когда клиент договаривается с SEO-агентством о некоей наценке за сервис и знает о ней.
   Мне удалось бегло описать лишь несколько функций SeoPult. Правда, надеюсь, моих примеров достаточно, чтобы вы убедились в степени гибкости системы. Естественно, за манипуляции во вред сервису его администрация вынуждена налагать бан, о чем честно предупреждает на своих страницах большими буквами. Однако штатной и полуофициальной функциональности системы хватает с головой практически для любых случаев без привлечения сторонних инструментов. Подобно тому как, в отличие от автовладельцев, владельцы и пилоты самолетов редко бывают одержимы их «апгрейдом», предпочитая совершенствоваться в искусстве маневра и в управлении, то же самое можно сказать и о продвижении своими силами и через автоматизированные сервисы. Стараться нужно в обоих случаях. Но вообще – земля и небо.

Трастовость сайта

   В число важнейших факторов ранжирования входит такой показатель сайта, как трастовость, именуемый также TrustRank, или просто траст. Представители поисковых систем настаивают на том, что траст – понятие относительное и не выражается количественно для каждого отдельно взятого сайта. Нам же как практикам важно одно: траст существует, он более чем реален и участвует в ранжировании. А значит, было бы непростительной ошибкой закрывать на него глаза в процессе поискового продвижения. Суслика никто не видит, но он действительно есть, и огромный.

Что такое TrustRank

   Первое упоминание о трасте датируется 2004 годом. Это понятие фигурировало в совместном труде сотрудников Стэнфордского университета и компании Yahoo! под названием «Борьба с веб-спамом с помощью TrustRank». Согласно содержанию работы, TrustRank отводится важная роль в искоренении искусственной накрутки авторитетности ресурсов. Ключевые моменты влияния траста на качество выдачи таковы.
   1. Наличие лишь одного метода определения авторитетности сайта, а именно PageRank, на руку любителям «черной» оптимизации. Один из их методов базируется на создании множества грамотных перелинковок между сайтами с нулевым весом, которые образуют сетку сателлитов. Благодаря накрутке реципиент получает приличный вес и вместе с ним статус авторитетного ресурса.
   2. Во избежание глобальной несправедливости и ради устранения спама из выдачи и вводится TrustRank. Таким образом, при передаче PageRank от донора к реципиенту посредством обратных ссылок учитывается некий «особый вес», исходящий только от качественных, крупных, известных, прошедших ручную проверку ресурсов. Трастовый сайт не станет ссылаться на низкосортный ресурс с псевдоуникальным контентом. Это обстоятельство призвано подтолкнуть оптимизаторов и разработчиков к созданию предназначенных для людей сайтов с интересным контентом.
   В сущности, траст напоминает переменную, без которой невозможно решить уравнение. Значение траста нельзя зафиксировать, но без него у сайта падают шансы на долговременное попадание в топ по высококонкурентным запросам. Вместе с тем все ресурсы Сети не могут обладать большим TrustRank. Это привело бы к хаосу в поисковой выдаче, так как определить сайты, наиболее релевантные запросу, было бы проблематично.
   Благодаря трасту сайт котируется поисковыми системами выше, чем если бы не имел его, но залогом успеха в продвижении по-прежнему остаются уникальный тематический контент, безупречная внутренняя оптимизация и максимально приближенная к естественной внешняя ссылочная масса, стабильная и разнородная.
   TrustRank присваивается домену в целом по аналогии с тИЦ, и делается это двумя способами. Во-первых, посредством ручной проверки сайта асессорами, во-вторых, в автоматическом режиме на основании ряда факторов, отражающих качество ресурса. Оценки в первом и втором случаях могут не совпадать: порой при незначительном трасте, определенном автоматически, выставленный вручную балл оказывается на порядок выше.

Способы увеличения траста

   Наряду с поднятием «пузомерок» (в частности, PR и тИЦ) увеличение траста сайта – ежедневная забота оптимизатора. Пусть траст – величина, не поддающаяся измерению, но ее можно преумножить. Получение даже небольшого TrustRank серьезно повышает шансы ресурса на то, чтобы продвинуться в топ по ключевым запросам. Процесс приобретения траста имеет две составляющие.
   1. Работа над внутренней оптимизацией сайта. Качество внутренней оптимизации явным образом влияет на присвоение траста.
   2. Приобретение ссылок с трастовых ресурсов. Наличие у площадки даже небольшого количества покупных ссылок с авторитетных ресурсов повышает эффективность ссылочного продвижения в целом.

Работа с сайтом

   Оптимизаторы носили бы на руках того, кто предоставил бы им подробный достоверный список факторов, которые принимает во внимание поисковая система при назначении уровня траста ресурсу. Также тайной за семью печатями остаются алгоритмы вычисления траста, которые вдобавок регулярно меняются. В частности, «Яндекс», поставив себе на службу систему машинного обучения MatrixNet, ускорил внедрение изменений.
   Опытным путем SEO-эксперты все же составили перечень наиболее важных факторов, влияющих на получение TrustRank. Легко заметить, что многие из них схожи с критериями выставления тИЦ, вИЦ («взвешенный индекс цитирования» в терминологии «Яндекса») и PR. Перечислим наиболее важные.
   1. Необходим качественный контент – уникальный и тематический. Сайту с заимствованным контентом странно рассчитывать на доверие поисковиков. Все тексты должны быть объединены общей тематикой, или, по-умному, обязательно присутствие сквозного семантического кластера. Сайту о ремонте жилых помещений с дельными статьями легче заслужить доверие, чем псевдоэнциклопедии, страницы которой забиты всякой всячиной, мало интересующей пользователей.
   Немаловажны с точки зрения присвоения траста страницы с контактными данными, информацией о компании. Очевидно, что эти сведения должны быть реальными. В противном случае оценка асессоров будет заведомо отрицательной.
   2. Возраст домена и сайта напрямую влияют на присвоение траста. Молодой сайт лишен шансов быстро удостоиться TrustRank. Поисковики прибегают к таким ограничениям ради борьбы с сателлитами и дорвеями, которые с первых дней жизни способны засорить поисковую выдачу. Стоит отметить, что возраст сайта для поисковика отсчитывается не с даты регистрации домена, а с момента первой индексации его поисковым роботом.
   3. Качество хостинга играет не последнюю роль в оценке сайта. Учитывается бесперебойная работа сервера, отсутствие ошибок в его настройке, скорость загрузки страниц сайта, история IP-адреса. Если на IP ранее был размещен вредоносный ресурс, нарушавший правила поисковых систем, вероятно понижение траста у продвигаемого ресурса.
   4. Дизайн сайта, претендующего на хороший траст, не должен быть шаблонным. Если в коде встречаются фрагменты, которые используются и на других сайтах, они могут быть идентифицированы как дублированный контент. Да и асессоры оценят шаблонный дизайн невысоко.
   5. Вредоносный код несовместим с трастом. Следует тщательно проверить сайт и убедиться в отсутствии вирусов на нем.
   6. Спам на сайте недопустим. Необходимо проверять комментарии, сообщения форума и своевременно удалять все похожее на спам.
   7. Стабильный трафик свидетельствует о востребованности сайта. Регулярная посещаемость и естественный, постепенный прирост аудитории – прямой путь к набору траста. Резкие скачки или падение трафика с высокой степенью вероятности приведут к понижению TrustRank.
   8. Кликабельность сниппетов демонстрирует интерес пользователей к продвигаемому ресурсу. Привлекательный сниппет приближает сайт к получению заветного траста.
   9. Время нахождения на площадке – один из поведенческих факторов, которые также влияют на доверие к ней со стороны поисковых систем. Данные о длительности пребывания пользователей на сайте «Яндекс», в частности, получает посредством установленного на сайте счетчика «Яндекс.Метрика». Слишком быстрый переход посетителей со страниц свидетельствует о низком качестве контента.
   10. Присутствие в крупных «белых» каталогах, а именно в «Яндекс.Каталоге» и DMOZ, повышает траст сайта в «Яндексе» и Google.
   11. Использование ключевых слов в домене в некоторой степени также работает на присвоение траста. По возможности домен должен быть лаконичным и характеризовать тематику ресурса. Слишком длинные домены с нагромождением ключевых запросов в URL характерны для спам-сайтов. Им поисковики не доверяют и принимают против них защитные меры.
   12. Количество страниц в индексе также учитывается при оценке ресурса. Поисковики больше доверяют крупным сайтам, у которых в индекс попало большое количество страниц с качественным контентом. Маленькие площадки имеют право на существование и способны попасть в топ, однако траста им достанется гораздо меньше.
   13. Сайт тем больше нравится поисковикам, чем чаще обновляется его содержание. Не обязательно каждый день добавлять уникальные статьи, достаточно систематически проводить работу с контентом, тем самым показывая, что сайт живет и развивается. Полезно использовать такие фишки, как RSS-ленты и XML-sitemap.
   Этот внушительный список отражает требования к внутренним факторам сайта. Не менее важны и внешние.

Приобретение ссылочной массы

   Покупка ссылок с целью «подкачки» траста требует бдительности, так как доноры должны быть исключительно трастовыми площадками и передавать большой вес.
   В SeoPult реализована такая функция, как закупка сугубо трастовых ссылок. Система самостоятельно определяет, нужно ли сайту поднять TrustRank, и автоматически подключает к используемому каскаду фильтры закупки трастовых ссылок.
   Прибегая к традиционным ручным методам закупки ссылок, необходимо помнить о нескольких факторах, на которые следует обращать особое внимание при отборе доноров.
   1. Качество исходящих ссылок продвигаемого ресурса. Прежде чем начать поиск доноров, проверьте собственные исходящие ссылки. Если они ведут на ресурсы сомнительного качества, это может грозить передачей в обратном направлении «отрицательно заряженного» траста. Необходим и контроль количества исходящих ссылок. Чем их меньше, тем лучше.
   2. Входящие ссылки. «Надуть» траст покупными ссылками не так просто, но все же возможно. Поэтому при покупке трастовых входящих ссылок важно проверять возможных доноров с особой дотошностью. Подлинно трастовый ресурс запросит высокую плату за размещение ссылки и будет удовлетворять основным критериям площадки с большим TrustRank.
   При необходимости можно каждого донора пристально изучать под лупой, но гораздо удобнее поручить эту задачу каскадам фильтров системы SeoPult. Источником качественных доноров для SeoPult является биржа трастовых ссылок TrustLink, где сайты проходят жесткий отбор и ручную модерацию. Это гарантирует, что ссылки, приобретенные в TrustLink, положительно повлияют на авторитетность и трастовость продвигаемого ресурса.
   Рекомендуется при покупке ссылок разбавлять общую внешнюю ссылочную массу с помощью безанкорного продвижения. В среднем 5-10 % от бюджета на продвигаемую страницу следует выделять на закупку ссылок с анкорами вида «тут», «здесь», «на сайте» и т. д. Также для придания большей естественности можно купить несколько ссылок на страницы, которые непосредственно не участвуют в продвижении.
   3. Входящие естественные ссылки. Покупка ссылок – дело нехитрое, особенно если под рукой удобный инструмент. Но хотя SeoPult при грамотном использовании выводит сайты в «Топ-10» поисковой выдачи, параллельно имеет смысл провести работу над внутренними факторами. Владелец качественного сайта способен добиться того, чтобы ссылки на его материалы бесплатно размещались в известных блогах, на крупных тематических сайтах. Интересный и востребованный ресурс сам по себе запускает механизм наращивания естественной ссылочной массы. Необходимо дать пользователям то, что им нужно: знания, сервисы, развлечения, исследования. Получив популярность в широких кругах, сайт вправе рассчитывать на достойный траст. А трастовым ресурсам проще как забраться на высшие ступени поисковой выдачи, так и удерживать завоеванные позиции.
   Резюмируя все вышеизложенное, мы повторим, что, как это ни тривиально, качество сайта – тот фундамент, на котором строится его продвижение.
   В процессе присвоения уровня траста ресурсу поисковые системы учитывают тысячи разных параметров, но все они коррелируют с качеством сайта и его полезностью для интернет-аудитории.

АГС, горе от ума и парадоксы современного SEO

   «Мой сайт попал под АГС[9]!» – обронить такую фразу на форуме оптимизаторов – значит вызвать такой же всплеск сочувствия пополам со злорадством, какой возник бы, если бы некая дама написала в комьюнити о фитнесе: «Я сидела на диете полторы недели, но за два дня набрала все, что сбросила». Как в том, так и в другом случае жалобщиков избавило бы от проблем знание ряда фундаментальных законов: в первом – «сеошно-математических», во втором – физиологических и биохимических. О том, чем в большинстве случаев оказывается мнимое «попадание под АГС», какую пользу сметливый оптимизатор извлечет из теории игр, комбинаторики и иных страшных в своей полезности дисциплин, расскажет известный SEO-эксперт Андрей Шипилов.
 
   Насколько актуален АГС сегодня?
   Андрей Шипилов: АГС свою задачу выполнил. Потому что он был направлен против массы ГС, автоматически ваяемых школьниками. Их больше нет, поэтому сайты продолжают наказываться совсем по другим основаниям. Конечно, если вы сваяли кучу говносайтов, то у вас сайт попадает под АГС, пять страниц в индексе осталось – и вы рвете волосы. Но если у вас нормальный сайт, в развитие которого вложено 5–6 млн руб., да пусть даже 500 тыс., и у вас вдруг остается десять страниц в индексе, а вы бегаете кричите, что у вас АГС, то, простите, у вас не АГС – у вас глупость! В теории игр есть такое положение: не надо искать заговор там, где все можно объяснить простейшей глупостью.
 
   Разве АГС сегодня не работает?
   А. Ш.: Он продолжает работать. Вот пришел Коля Иванов: «Ах, я сейчас пойду зарабатывать на Sape[10]!» Сделал 100 сайтов, и 100 сайтов у Коли Иванова ушли под АГС. Такое случается. Когда приходит человек, у которого сайт приносил на нормальной рекламе, на контексте или еще на чем-то 60 тыс. руб. в месяц, когда у него была посещаемость 20 тыс. в месяц, когда на сайте бурлила жизнь и вдруг у него либо трафик падает в 50 раз, либо вылетают все страницы из индекса, то это не АГС, а, повторюсь, глупость.
 
   Действительно хороший сайт не может в принципе попасть под АГС?
   А. Ш.: Как правило, человек, желая сделать свой сайт лучше и наслушавшись советов SEO-специалистов, загнал его в такие условия, что он, с точки зрения «Яндекса», стал очень плохим. Я придумал термин – «парадокс Марьи-искусницы». Знаете, когда в старом фильме выходит мальчик и колдун предъявляет ему 20 абсолютно равнозначных копий его мамы – выбирай, какая настоящая. Сейчас любой в нашей отрасли находится в положении такого мальчика, выбирающего между десятками «Марий-искусниц», потому что на рынке SEO сейчас информации нет. Есть информационный белый шум, и среди него гуляет один-единственный нужный вам ответ, но вы его не увидите, поскольку у вас нет методики, как его вытащить. Простейший эксперимент. Я иду в «Помощь» «Яндекса», читаю о синтаксисе robots.txt, захожу на форум под видом новичка и спрашиваю: «Ребята, каков правильный синтаксис строки Crawl-delay? Как мне ее правильно написать в robots.txt?» Получаю восемь, десять, пятнадцать ответов. Взаимоисключающих. Логика подсказывает, что среди ответов в лучшем случае только один верный.
   Другой парадокс – «парадокс монетки»: принимая решение по принципу «орел или решка», я получу более точный ответ, чем задав вопрос на форуме. Говорят, что на форумы не надо ходить, но форумы – это отражение сообщества. Человек, который владеет информацией, будет на ней зарабатывать, он ею делиться не станет. И даже если некто владеет информацией, маленьким кристалликом истины, тот все равно будет поглощен информационным шумом. Темы быстро «сгорают». Положим, вы нашли способ заработать на SEO. Вы сумеете на нем зарабатывать два-три года, не больше, а скорее меньше. Возникает куча сервисов, разного рода программ SEO, которые что-то делают. В основе их функционирования лежит тот же информационный шум, который гуляет по SEO-рынку. Но человек, получая информационный шум опосредованно, через программу, зачастую не видит того, что творится на форумах, он хочет быть выше их суеты: «Пускай школьники болтают, а вот программа дала мне результаты, я на них и буду ориентироваться». Посмотрите по терминологии, зайдите на форумы Sape, на SearchEngines. Приходит человек: «У меня трастовые показатели сайта – 15, показатели вхождения – 18, все круто, а сайт падает. Почему?» А что такое «трастовые показатели – 15»? Ему программа это сказала. Еще конкретный пример: «У моего сайта выпала первая страница из индекса. Все остались, а первая выпала. Почему?» Да потому, что ему какой-то сервис сказал, что выпала первая страница. Когда человек хочет улучшить свой сайт, он волей-неволей оказывается жертвой информационного шума.
 
   В заблуждение впадают те, кто слишком доверяет как истинным, так и самозваным SEO-специалистам, это болезнь неофитов?
   А. Ш.: Классический пример. Сидит народ на серьезной конференции и рассуждает о влиянии поведенческих факторов на ранжирование сайтов, на их позиции в «Яндексе». Дескать, надобно увеличить время просмотра страницы на столько-то, а глубину просмотра – на столько-то, а показатель отказов – на столько-то. Обратите внимание: употребляя эти термины, каждый под ними понимает свое. А в соседнем зале рассказывают, как «Яндекс» наказал MegaIndex или еще кого-то за накрутку поведенческих факторов. Что такое поведенческие факторы? Никто не знает. Раз никто не знает, будем принимать за поведенческие факторы статистику. Почему? Потому что статистика показывает, как пользователь ведет себя на нашем сайте. Коль скоро она показывает, как пользователь ведет себя на нашем сайте, значит, статистика и есть поведенческий фактор. Следовательно, надо улучшить статистику сайта. А как я буду улучшать? Уменьшая процент отказов, увеличивая глубину просмотра, увеличивая время нахождения на сайте.
   Очень серьезная контора, очень грамотные специалисты. Компания занимается онлайн-обучением. Хороший инвестор, действительно умелые технические специалисты и преподаватели, бизнес-команда прекрасная. Они принимают совершенно верные тактические решения, проводят маркетинговые исследования. Однажды делают вывод: «Если мы разместим на сайте видеоролики, то тем самым повысим усвояемость материала, сделаем его более интересным». Приходит грамотный технический специалист и говорит: «Вы что, сдурели – видеоролики класть на своем сервере! Есть же видеохостинг. Заведите аккаунт, положите все видеоролики там, а здесь сделайте iframe или еще что-нибудь и показывайте на здоровье». Посетитель заходит, смотрит видеоролик «Как собрать детектор для пыли в домашних условиях». Как принято на видеохостингах, ему сразу же подсовываются значки более интересных записей на ту же тему, он щелкает, смотрит их 15 минут, не уходя со страницы. Все радуются: проведенное на сайте время – 15 минут, глубина просмотра – неимоверная, и уж, наверное, чудесные поведенческие характеристики. В какой-то момент у сайта оказывается ноль страниц в индексе. Причина проста: поисковая машина лишена эмоций и ей понятен тот факт, что на сайте с 5 тыс. страниц каждая ссылается на один и тот же хостинговый аккаунт и народ ходит туда, только чтобы через эти страницы смотреть видеоролики на стороннем хостинге. Что увидел «Яндекс»? Дорвей. Сайт забанен.
 
   А как понять причину «возмездия»?
   А. Ш.: Причина наказания качественного сайта может быть до такой степени неочевидной, что даже три-четыре аудитора, садясь вместе, очень долго будут копаться. Сам я сейчас, когда занимаюсь аудитом сайтов, действую очень просто: я прежде всего стараюсь понять, что именно было вытащено из информационного шума. Я вижу, по какой ниточке из информационного шума они пошли, и всегда отыщется уязвимая точка, где сделано не то. Только так. Если тупо сидеть и искать, вы ничего не найдете.