Другой аспект. Везде, на сайтах разработчиков CMS, на сайтах специалистов по безопасности, в очень многих серьезных источниках по SEO, выложены чек-листы по 20–30 пунктов, описано, чего не надо делать, какие технические погрешности на вашем сайте могут привести к наказанию со стороны поисковых машин. В 90 % случаев именно нарушение чисто технических требований и приводит к наказанию сайта, несмотря на то что разработчики сайта все это читали и вроде бы понимают: не нужно плодить дубли, надо закрывать от поисковых роботов все технические страницы, результаты сортировки, профили – все то, что не несет информации, релевантной содержанию сайта.
   Беда в том, что если вы все перечисленное без задней мысли проделаете, то потеряете четыре пятых трафика, который у вас идет на эти паразитные страницы. Снова бросаемся с головой в информационный шум, выныриваем оттуда вот с такими глазами, с полной уверенностью в том, что чем больше у нас проиндексированных страниц на сайте, тем лучше он проиндексирован, чем больше трафик на сайт льется, тем круче. Да, если ваш сайт – СМИ и вы с трафика продаете рекламу, без вопросов. А если вы торгуете шинами или бриллиантами и добились того, что на ваш сайт в поисках бриллиантов заходит 50 тыс. человек в день? Чтобы радоваться этому – извините, господа, – надо быть полным глупцом! Потому что бриллиант и даже автомобильные шины – это не тот товар, который можно продать 50 тыс. покупателям. Значит, у вас столпится такая куча народа, что вы его не продадите.
   Еще раз: не плодим дубли, категорически закрываем от индексации все технические страницы, в строгом соответствии с рекомендациями в «Яндексе» и Google составляем robots.txt. На 95 % сайтов, аудит которых я проводил, robots.txt был написан с синтаксическими (что не страшно, в общем-то) или фактическими ошибками. За последние два года мне три раза приходилось сталкиваться с тем, что сайт вылетал из индекса, поскольку веб-мастер нечаянно запретил индексацию сайта в файле robots.txt, просто написав строку Allow без параметров, подумав, что она разрешает индексировать на сайте.
   Смотрим, чтобы было с robots.txt. В обязательном порядке проверяем, что выдает наш сервер в ответ на запрос браузера. Если ваш сервер отвечает – типичная ситуация, – что срок валидности опубликованного материала истек 1 января 1980 года, то ни о каком регулярном и системном посещении вашего сайта поисковыми роботами и речи нет. Вы можете прописать в sitemap все параметры как положено, однако, если робот увидит эту запись в коде ответа сервера, он ваш sitemap проигнорирует. Пустячок, но я сам был свидетелем того, как новостной сайт нормально не индексировался. После того как в полях, касающихся модификации публикаций, появились валидные даты, возникла валидная дата истечения cookie, сайт взлетел просто за счет того, что робот стал заходить практически секунда в секунду с публикуемым материалом. Грубо говоря, вы делаете технически правильный сайт и потом не платите мне 30 тыс. за то, чтобы я вам сказал: «Исправьте эту строчку в robots.txt или закройте с помощью noindex технические страницы».
   К слову о noindex. Он позволяет закрыть часть страницы от индексации. Проглядываю сайт, и каждое второе предложение – в noindex. Спрашиваю у владельца сайта:
   – Что это такое у тебя?
   – А это я придумал такой очень хороший способ уникализации текста!
   – Как так?
   – Вот «Яндекс» это предложение читает, это предложение читает, это предложение, и вроде как текст уникальный.
   – Да «Яндекс» у тебя все прочитает, понимаешь?
   Noindex – это «не помещать в индекс», это не значит «нельзя читать, нельзя анализировать». Это значит «прочти, проанализируй, но не помещай в индекс». На сайте «Яндекса» четко все написано в «Помощи», двоякие толкования исключены.
   Очень серьезная контора, имеющая десятки сайтов по всему бывшему СССР Специфика компании вынуждает одни и те же позиции товара по 50, по 100 раз на одной странице приводить. В какой-то момент сайт перестает нормально индексироваться, все рушится, из индекса тоже много вылетает. Когда я проверяю сайт, в первую очередь смотрю robots.txt, потом код страницы. Открываю совсем небольшую страничку – там 150 раз noindex.
   – А что это, господа?
   – Понимаете, у нас слово «насос» встречается 150 раз, и мы подумали, что «Яндекс» это сочтет спамом. Только один «насос» оставили, а все остальные забрали в noindex, чтобы поисковик их не прочитал.
   Во-первых, «Яндекс» никогда прайс-лист, табличку не сочтет спамом. Он не дурак и распознает, где у вас прайс-лист, а где текст, насыщенный спамом. Он это начал понимать лет десять назад. Во-вторых, если на сайте 50 тыс. страниц и на каждой надо обработать тег по 150 раз, это же какие вычислительные мощности потребуются. В конце концов, либо роботу самому «надоело», либо человек зашел, увидел 150 noindex, у него глаза из орбит вылезли, он – чпок! – нажал кнопку.
   Повторюсь, когда я слышу: «Помогите, мой сайт попал под АГС!» – то, если это достаточно серьезная площадка, почти наверняка она попала не под АГС, а под информационный белый шум в Интернете, помноженный на глупость владельца.
 
   Если не АГС, то что может грозить хорошему сайту и за что именно?
   А. Ш.: Да простит меня поисковая система «Яндекс», но у нее очень часто случаются разного рода ошибки и глюки. В большинстве случаев они некритические и остались бы незамеченными, кабы владельцы сайтов, «вооруженные» информационным шумом, не следили за позициями. Здравый смысл подсказывает, что важно следить за трафиком сайта. А информационный шум говорит: «Мониторь позиции». Вдруг владелец сайта видит, что у него позиции начинают скакать. Когда подобное происходит, у меня первая мысль: «А не глюк ли это “Яндекса”?» Ведь мне известно, что с моим сайтом все нормально и ни с того ни с сего он прыгать в выдаче не начнет. А у человека, который живет в белом шуме, иная реакция: «А какой фильтр на меня наложили?» Он делает лихорадочные шаги в поисках мнимого фильтра и надеется устранить проблему, мечась от одного предположения к другому: «Ах, может быть, у меня переспам? А давай на 1 % меньше ключевых слов на всех страницах сделаем? Ах, может быть, я слишком много ссылок закупил? Дай-ка я от части откажусь, закуплю вместо них другие…» Сайт, в общем-то, стабильный и нормальный, но с ним в одночасье затевается чехарда: синхронно меняются тексты на всех страницах, ссылки скачут. Все, и никаких фильтров не надо. Просто потому, что тексты синхронно поменялись, позиции у вас упадут.
   Технологии совершенствуются. Раньше – да: накупил ссылок – фильтр «Ты последний» (уж не знаю, существовал он на самом деле или нет), переспамил – фильтр «Ты спамный». Сейчас такого нет. Действуют очень сложные механизмы, которые стараются понапрасну не наказывать. На сегодняшний день «Яндекс» наказывает, только если его изрядно достать. Четкой статистики у меня нет, но частенько ко мне приходят люди с просьбой: «Ах, определите, какой у меня фильтр!» Нередко дело в региональной принадлежности оказывается. «Яндекс» все время что-то у регионов подкручивает. Господа, ваш сайт привязан к Перми. Поменяйте регион, и вы увидите, что эта чехарда только в конкретном регионе происходит, в других ее нет. У «Яндекса» написано чуть ли не аршинными буквами черным по белому на панели «Веб-мастер», что для каждого региона используются свои правила ранжирования. Следовательно, что-то с факторами ранжирования в вашем регионе происходит. Можно задать «Москву», зайти с зарубежного IP и убедиться, что на самом деле с сайтом все нормально. Я не знаю, как он внутри устроен, в моих глазах «Яндекс» – это «черный ящик» что на входе, что на выходе. Но очень часто по какой-то причине «Яндекс» перестает видеть часть страницы. Может, действительно какие-то проблемы с базой, а может, проблемы со считыванием. Тем не менее он индексирует страницу до половины, а оставшуюся часть не видит. Такие эксцессы, впрочем, кратковременны. Если вас «Яндекс» видит по одному заголовку, по тупому вхождению предложения целиком, а абзацем ниже – нет, то подождите немножко. При условии, что вы страницу в noindex не забирали, не бывает так, чтобы страница индексировалась кусочками, она всегда индексируется полностью.
 
   Когда позиции скачут или нечто подобное происходит, как правило, это не фильтр?
   А. Ш.: Я бы не сказал «как правило». Всегда можно проверить. Все боятся: «А ну как у меня на сайте какой-то криминал, и если я напишу в техподдержку “Яндекса”, то меня накажут еще сильнее». На самом деле написал и получил ответ: «Извините, с вашим сайтом все в порядке, у нас была ошибка. Подождите немного, ваш сайт начнет ранжироваться нормально». Уверяю вас, когда я обращаюсь по поводу нормального сайта, я в 90 % случаев получаю именно такой ответ. Так и пишут: «Проблемы с нашей стороны. Подождите, ваш сайт начнет нормально ранжироваться». Спросите! Нет, я буду уменьшать количество вхождений на сайте. Нет, я буду менять структуру: кто-то мне подсказал, что у меня неправильный sitemap. Я нагенерю sitemap, куда для надежности включу все технические страницы, которые «Яндекс» никогда бы не нашел самостоятельно. Итог печален.
   Говносайты, MFA-сайты[11] (между прочим, хорошие MFA-сайты очень тяжело отличить от обычных качественных сайтов, это практически одно и то же), сайты под Sape, под продажу ссылок, для арбитража всегда видно сразу. Если сайт нормальный, приличный, на нем несымитированная людская активность, но он оказывается наказанным, это не АГС. У АГС нет конкретной причины. АГС – это сложный механизм, который берет совокупность огромного количества параметров. Когда сайт наказывают за что-то конкретное, это не АГС, а в 90 % случаев глупость владельца.
 
   Если что-то случается с позициями, до ответа от «Яндекса» лучше не делать «резких движений»?
   А. Ш.: Да. Конечно, если ваш сайт плохой и наказан за то, что он плохой, вам так и скажут честно: «Развивайте ваш сайт. Наши алгоритмы приняли решение». Если ваш сайт до сих пор был нормальным, то глупо опасаться, что на основании письма его отнесут к плохим. Может быть, такая вероятность есть, но она намного ниже, чем шансы на то, что вы сами испортите свой сайт необдуманными действиями. Для того и существует диалог. Можно даже написать: «Был такой-то запрос, по нему у меня сайт был на пятой позиции, а сейчас на пятнадцатой. Что случилось?»
   Клиент стесняется написать. А я всегда пишу, даже если клиент меня просит не писать – уж открою секрет. Потом отвечаю клиенту, что его сайт вернется в индекс через два-три апдейта, и с чистой совестью беру с него деньги за письмо, написанное в «Яндекс». Если он не хочет платить, ради бога, пусть напишет сам, но если он хочет мне заплатить за то, чтобы я написал, я сделаю это.
 
   За что все-таки могут наказать качественный, сделанный для людей сайт? Ведь, кроме АГС, существуют и другие фильтры.
   А. Ш.: Могут наказать за технические проблемы, особенно если ваши конкуренты подсуетятся. Если ваш сайт тяжело индексировать, то есть на нем 200 страниц, а на его индексацию надо потратить ресурсов как на сайт с 200 тыс. страниц, его могут наказать, пусть даже с точки зрения наполнения контентом он совершенно нормальный. Положим, робот ждет, пока сайт ответит, по пять секунд на страницу, или у вас на каждую страницу с полезной информацией приходится десять с бесполезной. Или архитектура сайта до такой степени запутана, что робот, проходя по графам, по 50 раз зайдет на одну и ту же страницу, считая, что он попадает на новую.
   Могут ошибочно наказывать за поведенческие факторы или за неверную раскрутку сайта. Например, если в какой-то момент вы решили всерьез продвинуться по SEO и получилось так, что у вас 95 % входящего трафика составляет SEO-трафик, причем большой, то есть если на ваш сайт только с поисковиков заходит 20 тыс. человек в день, составляющие абсолютное большинство его посетителей, то определенные механизмы позволят «Яндексу» заподозрить, что у вас MFA-сайт, созданный исключительно для того, чтобы сливать куда-то трафик по более высокой цене, чем та, по которой вы его привлекаете. И если, не ровен час, на вашем сайте найдутся тому подтверждения – необоснованно большое количество тизерок и прочего, – то вас однозначно накажут, и довольно жестоко, притом что наказание будет снять очень тяжело. Или у вас нормальный сайт, но вы решили продвинуться сомнительным способом. К вам пришел новый веб-мастер и обмолвился, что знает, где взять трафик по 10–20 коп. за человека. Такие источники действительно есть, и вы гоните себе 50 тыс. человек в день. Между тем у вас никакого другого входящего трафика нет. Так не только у «Яндекса». Все роботы сразу делают стойку: «А, мы имеем дело с арбитражем!» Не дай бог, у вас на сайте где-нибудь мелькнут слова «пошли SMS»: он будет наказан. Хотя, казалось бы, это совершенно невинные вещи.
 
   Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?
   А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что-то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?
 
   Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?
   А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScript понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET-запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по-моему, после письма Платону Щукину[12], где ситуация была объяснена.
 
   А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.
   А. Ш.: По-моему, у «Яндекса» это даже где-то написано. Даже если нет, у «Бегуна»[13] четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?
   Один из хороших способов уйти от информационного шума – черпать знания не из SEO-источников, а из других, близких: документации поисковиков, документации систем контекстной рекламы. Profit-Partner[14] дает, например, очень хорошую инструкцию. У меня был случай, когда я сам не мог понять, в чем дело, но, поскольку сайт участвовал в «Яндекс»-«вертушке», я просто позвонил знакомому специалисту из Profit-Partner, и тот мне объяснил на пальцах, как именно структура трафика повлияла на ситуацию.
   Мы вновь возвращаемся к поведенческим факторам. Почему я говорю, что поведенческие факторы не равны статистике? Еще и потому, что значительная часть поведенческих факторов вообще лежит за пределами вашего сайта. До того как человек к вам пришел, он отслеживается. Человек в поиске кликнул на одном сайте – ушел, на другом сайте – ушел, заглянул на ваш – остался. Вам плюс. Где, на чем он кликает до вашего сайта, вы не в силах проконтролировать. Мало того, вы это естественно и сымитировать не сумеете. Человек провел на вашем сайте три минуты – вроде как много. Дальше он ушел на другой сайт той же тематики, провел там 15 минут, заполнил форму, сделал заказ. Это все отслеживается. Хотя у вас, казалось бы, нормальная глубина просмотра, но у вас будет плохая поведенческая характеристика, а у владельца конкурирующего проекта – хорошая.
   Способ избежать наказания – делать сайт интересным для людей. Попробую сформулировать правила.
   Во-первых, попробуйте вылезти из информационного белого шума. Когда вы видите, что перед вами двадцать «Марий-искусниц», не выбирайте между ними, идите и ищите другой источник знаний. В сказке мальчик вышел за дверь, и ему девочка шепнула, что от настоящей мамы теплом повеет. Лучше выйдите за дверь, и найдете место, где вам шепнут правильно.
   Во-вторых, возьмите на вооружение то, о чем «Яндекс» говорит, хотя никто никогда его не слушает: делайте ваш сайт интересным людям, развивайте его. Маленький секрет. Если у вас хороший трафик с поисковых машин, есть трафик из контекста, на вас ссылаются форумы, к вам переходит тьма народа с ссылок, значит, у вас нормальный входной «мультитрафик», ваш сайт очень хорошо отслеживается поисковыми машинами. Но если ваш сайт притом не заносится в «Закладки», вы заметите, что трафик начинает потихонечку падать просто потому, что раз сайт действительно нравится людям, то хоть один из ста человек его к себе в «Закладки» да внесет. Не заносят? Стало быть, сайт не нравится людям, плохой он. Это тоже поведенческий фактор, и все именно так и происходит. Одно время было поветрие: существовали всякие хитрые механизмы, которые заносили сайт в «Закладки», либо побуждали занести сайт в «Закладку», либо заносили его без ведома пользователя. Потом эти методики завяли. Механизмы имитации очень быстро раскалываются.
   Не надо забывать, что математика – это наука, а поисковики делаются математиками. Я несколько лет назад потратил деньги и хорошенько изучил теорию игр, и я осознал, каким был идиотом до той поры, не понимая простейших вещей, очевидных в рамках математических моделей. Они противоречат интуиции, но верны. Многие решения на SEO-рынке принимаются на интуитивном уровне, на уровне догадок, а с той стороны – точная наука, которую не обманешь.

Особенности продвижения интернет-магазина

   Ежедневно в Рунете делаются десятки тысяч запросов с целью поиска товаров или заказа услуг. Преимущественно через «Яндекс», который является главным поставщиком клиентов для большинства локальных коммерческих площадок. Немудрено, что успех бизнеса в Сети зависит от того, какую позицию в поисковой выдаче занимает интернет-магазин. У продвижения таких сайтов есть нуждающиеся в разъяснении нюансы, а кроме того, в SEO выработались специфические приемы для вывода сайтов категории e-commerce в топ «Яндекса».

Место не для каждого

   Позиция вверху SERP гарантирует площадке поток целевых посетителей, но не каждому проекту имеет смысл тратить бюджет на продвижение с целью занять первые места в поисковой выдаче. Каким же сайтам нет резона метить в топ и почему?
   1. Только что «сошедший со стапелей» коммерческий сайт имеет минимум шансов попасть в топ. Поисковики проявляют осторожность по отношению к молодым ресурсам и не спешат им доверять. Даже если сайт прошел безупречную внутреннюю оптимизацию, потребуются месяцы, прежде чем ему можно будет «разевать рот» на траст «Яндекса» и выход на высокие позиции в выдаче по основным запросам.
   Правильнее начинать продвижение новой площадки с запуска кампании по контекстной рекламе и с присоединения к «Яндекс.Маркету». Параллельно следует осуществлять продвижение по НЧ-запросам, избегая резкого прироста ссылочной массы. Через год впору будет бороться за высокие места в выдаче по СЧ– и ВЧ-запросам (средне– и высокочастотным).
   2. Многие категории товаров затруднительно продавать дистанционно. Так, не каждый пользователь решится приобрести джинсы без примерки. Поэтому маленьким интернет-магазинам с ассортиментом такого рода невыгодно удерживаться в топе ввиду крайне низкой конверсии, в отличие от крупных проектов типа Wildberries.ru и Sapato.ru, чья аудитория несопоставимо больше.
   3. Нерентабельно заниматься в Интернете продажей очень дешевых и притом неуникальных товаров. Потребуются большие, приближенные к опту объемы заказов, чтобы работать не в убыток себе. Да и редкий житель России согласится заплатить за доставку почти столько, сколько стоит сам товар. Поэтому конверсия «ширпотребных» площадок оставляет желать лучшего.
   На первом этапе организации собственного бизнеса в e-commerce необходимо провести серьезный анализ выбранной ниши, изучить конкурентов, понять, стоит ли дальше двигаться в эту сторону, а следовательно, прибегать к продвижению торговой площадки с помощью SEO.

Ставка на низкочастотные запросы

   Главным козырем в продвижении интернет-магазина будут низкочастотные запросы. Дело в том, что высокочастотники требуют больших расходов, к тому же нередко бьют из пушки по воробьям. Не всегда тот, кто ищет «паркет», хочет его купить. С высокой долей вероятности пользователя интересует способ укладки напольного покрытия, но он не ввел в состав запроса уточнений. Иначе говоря, трафик по ВЧ-запросам не всегда является целевым.
   После того как большинство посадочных страниц попало в топ по НЧ-запросам, для укрепления позиций можно начать подключать СЧ– и ВЧ-запросы. Но страницы для такого продвижения (главную, каталоги и прочие) необходимо оптимизировать заранее.
   Для каждого низкочастотника из огромного списка необходимо подготовить и оптимизировать отдельную страницу. Каждая посадочная страница должна отвечать на один запрос. Это угодно «Яндексу» и рационально с точки зрения конверсии. Чем точнее landing page соответствует запросу, тем выше вероятность того, что посетитель совершит на ней желаемое действие.

Подбор ключевых запросов для семантического ядра

   Составление семантического ядра – задача несложная, но кропотливая и рутинная. Альтернативой ручному подбору запросов для семантического ядра в сервисе Wordstat «Яндекса» служит более удобная, с нашей точки зрения, функциональность SeoPult. На этапе подбора ключевых слов и словосочетаний система автоматически генерирует список ключевиков, исходя из анализа контента страниц. Стоит пойти дальше и прибегнуть также к помощи дополняющего подборщика, которые добавляет ключевые слова к введенным вручную, оценивая их частотность. Таким образом, система предлагает лишь те слова, по которым на сайт придут реальные посетители. Например, статистика «Яндекса» свидетельствует о том, что определенное словосочетание имеет частотность 150, а, по данным SeoPult, на практике оно принесет лишь десять посетителей в месяц. Эти данные бесплатны, и в других источниках их найти затруднительно. Кроме прогноза посещаемости по ключевым запросам, система выполняет расчет оптимального бюджета на их продвижение.
   Полученный список НЧ-запросов подлежит дальнейшему анализу, на сей раз с помощью вашего собственного мыслительного аппарата. Из массива слов нужно выделить те, которые в большей степени подходят для продвижения коммерческого проекта. Уточним, что все запросы делятся на навигационные, информационные и транзакционные. Владельца интернет-магазина интересуют преимущественно транзакционные, нацеленные на поиск конкретного товара с перспективой покупки, каждый из которых будет релевантен той или иной посадочной странице

Стратегия продвижения

   План выведения интернет-магазина в топ включает в себя перечисленные ниже пункты:
   • подбор запросов, составление семантического ядра;
   • размещение ключевых запросов на релевантных страницах, создание недостающих страниц под другие запросы;
   • внутренняя оптимизация страниц;
   • запуск SEO-кампании по НЧ-запросам;
   • постепенное подключение к продвижению СЧ-запросов;
   • распределение бюджета в пользу СЧ-запросов;
   • ввод в стратегию ВЧ-запросов с целью получения максимального трафика.

Подготовительные работы

   Перед запуском SEO-кампании следует проверить техническую сторону сайта. На это может уйти немало времени и средств, так как коммерческий ресурс содержит великое множество страниц, каждая из которых должна функционировать безупречно. Технический аудит заключается в проверке работы сервера, тестировании площадки на устойчивость к высоким нагрузкам, корректной настройке CMS с точки зрения SEO, проверке валидности кода. Огрехи и недоработки обязательно должны быть устранены, прежде чем состоится первое «знакомство» сайта с поисковиком.