Как провести SEO-аудит вашего сайта: подробное руководство

Как провести SEO-аудит вашего сайта: подробное руководство

Вступление

Проведение SEO-аудита сайта — достаточно сложная задача. Нужно всесторонне изучить контент, структуру, технические особенности сайта и внешние факторы, влияющие на него, выявить слабые места, спланировать и реализовать необходимые доработки и улучшения, учитывая при этом принципы работы поисковых систем.

Проводить такой анализ и последующую оптимизацию нужно регулярно — например, раз в полгода — ведь поисковые алгоритмы постоянно совершенствуются, и многие тактики SEO со временем перестают работать.

В прошлом весь комплекс мероприятий по SEO-аудиту был по силам только специалистам, но к настоящему времени в интернете накопилось огромное количество подробных руководств по поисковой оптимизации.

Лучшие статьи доступны на английском языке, а в рунете сложно найти исчерпывающее пособие по SEO-аудиту. Поэтому мы решили подготовить свою версию руководства, которая претендует на наиболее полное и детальное изложение этапов аудита среди аналогичных открытых публикаций на русском языке.

Разумеется, самые высокие результаты SEO-аудита по-прежнему достижимы только при сотрудничестве с профессионалами, знающими тончайшие нюансы ранжирования сайтов. Но и сами вы сможете научиться многому, используя наше руководство, ссылки на внешние материалы и инструменты SEO, которые вы найдете ниже, а также обращаясь к другим полезным ресурсам.

Подготовка к SEO-аудиту

Рекомендуем начать со сканирования сайта с помощью краулера — например, Screaming Frog SEO Spider или менее функционального Xenu’s Link Sleuth. Эти инструменты анализируют код, контент, внутренние и исходящие ссылки, изображения и другие элементы сайта с точки зрения SEO и позволяют составить общее представление о положении дел.

Вполне естественно воспользоваться возможностями стандартных сервисов поисковых систем — «Яндекс.Вебмастер» и Google Webmaster Tools («Инструменты для веб-мастеров»), они также предоставляют большое количество ценной информации.

После этой предварительной проверки можно переходить к более глубокому и всестороннему SEO-аудиту.

Внутренний SEO-аудит
Технический аудит
Robots.txt

Файл robots.txt по желанию размещается в корневой директории сайта и содержит инструкции по его индексированию для роботов поисковых систем.

С использованием различных директив robots.txt можно:

запретить или разрешить роботам индексировать некоторые разделы и страницы сайта или весь сайт целиком;
указать путь к карте сайта sitemaps.xml, способствующей правильному индексированию;
дать понять роботу, какое зеркало сайта — при наличии нескольких его копий — является главным, и какие зеркала индексировать не нужно;
снизить нагрузку на сайт от поисковых роботов, если в определенной ситуации необходимо экономить ресурсы.

При этом разные правила можно создавать для отдельных поисковых систем и даже для разных роботов одной и той же системы.

Используйте все возможности robots.txt. Убедитесь, что запрещено индексирование «секретных» областей сайта, страниц с контентом низкого качества и страниц-дубликатов. Проверьте, разрешен ли доступ ко всем областям сайта, которые должны быть проиндексированы поисковыми системами.

При анализе файла robots.txt вам помогут «Яндекс.Вебмастер», Google Webmaster Tools и другие сервисы.

Ранее мы писали и о других способах запрета на индексирование страниц сайта.

Указания для поисковых роботов в тэгах <meta>

Файл robots.txt, о котором шла речь в предыдущем разделе, очень удобен для создания правил поведения поисковых машин на вашем сайте. Но для еще более гибкого управления индексированием сайта и его отдельных страниц можно помещать директивы для поисковых роботов в тэгах <meta>. Таким способом можно разрешить или запретить роботам индексирование конкретных страниц и переход по размещенным на них ссылкам.

XML Sitemap

Файл Sitemap (карта сайта) добавляется в корневую директорию сайта и предоставляет поисковым системам информацию о том, какие страницы сайта должны быть проиндексированы, какие из них в первую очередь, как часто они обновляются. Робот не всегда способен сам отыскать все страницы сайта и правильно установить важность каждой из них по сравнению с другими — ему стоит дать четкие указания для обеспечения наиболее полного индексирования, особенно если вы занимаетесь оптимизацией интернет-магазина с большим количеством товаров или другого крупного сайта.

Если на сайте уже есть файл Sitemap (желательно в формате XML), то проверьте корректность его кода с помощью валидатора (такой инструмент есть, в частности, в сервисах для веб-мастеров от «Яндекса» и Google). Позаботьтесь также о том, чтобы файл Sitemap содержал не более 50 тыс. URL и весил не более 10 Мб. Если эти лимиты превышены, то придется создать несколько файлов Sitemap и один индексный файл Sitemap Index со списком всех карт.

Если карты сайта пока нет, создайте ее вручную или с помощью одного из множества инструментов (например, XML Sitemap и его аналогов, плагинов для WordPress и других распространенных движков; с большим списком инструментов можно ознакомиться на ресурсах Google).

После создания проанализируйте карту в валидаторе и сообщите поисковым системам о ее существовании через их сервисы для веб-мастеров, а также посредством добавления пути к Sitemap в файл robots.txt.

Оценка качества индексирования сайта

Команда site: обычно вводится в строке поисковых машин, чтобы ограничить зону поиска определенным доменом. Но эта команда позволяет также узнать приблизительное количество всех страниц сайта, которые были проиндексированы. Для этого просто введите site: c доменным именем без слов поискового запроса.

Сравните количество проиндексированных страниц с общим количеством страниц сайта, которое вы узнали на стадии создания sitemap.xml и сканирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или других инструментов.

Если оба числа почти одинаковы, значит сайт проиндексирован хорошо. Если проиндексированы не все страницы, то выясните причину — возможно, ваш сайт не оптимизирован для поисковых систем, имеет много закрытых от индексирования разделов и страниц или попал под санкции (в этом случае вам поможет руководство по выявлению санкций и их преодолению). Если же количество проиндексированных страниц значительно превосходит реальное их количество, то, вероятно, на вашем сайте есть много дублированного контента, о котором речь пойдет далее в этой статье.

Коды состояния HTTP

Код состояния HTTP содержится в первой строке ответа сервера при запросе к веб-странице и показывает ее текущее состояние. Необходимо установить, при обращении к каким URL сайта появляется сообщение об ошибке — обычно с кодом вида 4xx или 5xx. Например, широко известно: код 404 означает, что страница не найдена, а код 503 — что обнаружена внутренняя ошибка сервера. Код 200 говорит о том, что все работает хорошо.

Если на сайте используются перенаправления (редиректы) с одних URL на другие, то убедитесь, что это именно 301 редиректы, а не 302 и не перенаправления, прописанные в тегах <meta> или с помощью JavaScript.

Для проверки кодов состояния HTTP можно пользоваться различными сервисами — например, специальным инструментом от Monitor Backlinks или встроенными средствами «Яндекс.Вебмастер» и Google Webmaster Tools.

URL страниц сайта

Хороший URL страницы имеет длину не более 100-120 символов, состоит в основном из легкочитаемых слов (а не бессмысленного набора букв и цифр) и содержит ключевые слова, описывающие страницу. Все это способствует не только лучшему поисковому индексированию, но и повышению удобства для посетителей сайта.

Важно соблюдать и другие рекомендации SEO-специалистов: стараться избегать сложных адресов с параметрами и отдавать предпочтение статичным ссылкам, использовать для разделов в структуре сайта директории, а не субдомены, разделять отдельные слова в URL дефисами, а не знаками подчеркивания.

Остановимся подробнее на выборе между ссылками с параметрами и обычными ЧПУ. Поисковые системы умеют индексировать контент и c динамическими URL, но все же в случае со статичными URL процесс индексирования упрощается и ускоряется, и кроме того, у вас появляется возможность вставлять в URL ключевые слова, показывать посетителям сайта легкочитаемые и легкозапоминаемые ссылки, заранее дающие представление о содержании страницы, а такие ссылки обычно имеют более высокий CTR. Кстати, можно настроить конвертацию динамических URL в статичные на стороне сервера, однако эту задачу лучше поручить профессионалам.

Скорость загрузки сайта

Пользователи интернета нетерпеливы и быстро покидают сайты, которые медленно работают. Аналогично у поисковых систем есть определенный лимит времени на обработку каждого сайта, поэтому быстрые сайты индексируются тщательнее и за более короткий период времени.

Проанализируйте скорость загрузки сайта. Стоит постоянно применять для этого встроенные средства систем веб-аналитики (например, отчеты о времени загрузки страниц есть в Google Analytics и «Яндекс.Метрике»). А для наиболее полного анализа скорости можно использовать специализированные сервисы — Google PageSpeed Insights, YSlow и другие. Эти инструменты предлагают конкретные рекомендации по повышению скорости работы сайта.

Если сайт нуждается в ускорении, оптимизируйте изображения в графическом редакторе с помощью функции подготовки графики для публикации в интернете, сократите объем кода HTML и CSS, уберите лишний код JavaScript, разумно используйте сжатие, кэш браузера и сервера и осуществите другие необходимые действия.

Рекомендуем также ознакомиться с 20 основными факторами, замедляющими работу сайтов.

Аудит структуры сайта
Архитектура сайта

Сайт должен иметь ясную и логичную структуру страниц, упорядоченных по категориям и тесно связанных между собой внутренними ссылками (о внутренней перелинковке мы еще поговорим отдельно).

Избегайте большого количества уровней вложенности: пусть все важные страницы будут расположены в одном клике от главной, а другие страницы — не далее, чем в 3-4 кликах. Даже крупный сайт можно спроектировать с глубиной не более 5 кликов.

Такая плоская архитектура сайта позволит поисковым машинам быстрее проиндексировать все страницы сайта (и в первую очередь самые важные из них), а посетителям поможет не заблудиться и быстро найти нужную информацию, что в конечном счете тоже положительно повлияет на SEO.

На сайтах с большой глубиной и необходимостью часто возвращаться с текущей страницы обратно в общий раздел, к которому она принадлежит, рекомендуем создавать дополнительную навигацию в виде «хлебных крошек». Это особенно важно для интернет-магазинов с достаточно сложной структурой каталога.

Старайтесь не использовать на сайте навигационные меню, созданные с помощью Flash и JavaScript. Это нежелательно, даже несмотря на то, что поисковые системы сегодня намного умнее, чем в прошлом.

Если все же JavaScript-навигация присутствует на сайте, проведите два этапа индексирования сайта с помощью Screaming Frog, Xenu’s Link Sleuth или другого специализированного сервиса (мы писали об этом в начале этого руководства): с включенным и отключенным JavaScript. Это позволит выявить, оказались ли какие-то разделы и страницы сайта недоступными для индексирования из-за наличия JavaScript-меню.

Внутренние ссылки

Внутренняя перелинковка способствует лучшему индексированию сайта и разумному распределению веса страниц.

Старайтесь установить между страницами сайта множество связей, соблюдая при этом простые требования:

в качестве анкоров используйте не только ключевые слова, но и различный нейтральный текст — например, такие призывы к действию, как «ознакомьтесь», «скачайте» и т.п. (это делает общую массу ссылок более естественной для поисковых систем, тогда как изобилие ключевых слов выглядит подозрительно);
страницы и ключевые слова в составе анкоров должны быть релевантны контенту целевых страниц;
направляйте больше ссылок на те страницы, которые должны занять более высокие позиции;
ссылайтесь на такие страницы с главной;
размещайте на одной странице не слишком большое количество внутренних ссылок.

Аудит контента
Заголовки страниц <title>

Заголовки страниц — это первое, что видят люди в поисковой выдаче и в социальных сетях и на основании чего они принимают решение посетить ваш сайт. Поэтому важно уделить оптимизации заголовков особое внимание.

Формулируйте заголовки кратко: старайтесь не выходить за рамки 70-90 символов, иначе заголовок может быть обрезан в результатах поиска, в социальных сетях, а пользователи Twitter не смогут добавить к нему свои комментарии.

Заголовки служебных и различных информационных страниц сайта (за исключением статей и других подобных контентных продуктов) должны точно описывать их содержание.

При написании статей также отдавайте предпочтение заголовкам, точно передающим их тему. Иногда в творческих целях можно пренебречь этим советом. Однако в большинстве случаев нет смысла приносить в жертву экстравагантности поисковую оптимизацию, удобство для потенциальных читателей, быстро просматривающих заголовки в Twitter или RSS-агрегаторах, и часть трафика (многие люди поленятся проверять, что скрывается под вашим малоинформативным заголовком).

Не забудьте добавлять в заголовки страниц ключевые слова — желательно ближе к началу. Но не переходите границы разумного: как и в случае со всем контентом страницы, придумывайте заголовки для людей, а не для машин.

Убедитесь, что все страницы на сайте имеют уникальные заголовки. В этом вам поможет, например, сервис Google Webmaster Tools, в котором есть инструмент поиска страниц с одинаковыми заголовками.

Описания страниц в тэгах <meta>

Описание страницы из тэга <meta> может включаться в сниппет в поисковой выдаче, поэтому стоит ответственно подойти к управлению мета-описаниями важных страниц. На ранжирование страниц этот тэг, судя по всему, не влияет, так что необязательно добавлять в него ключевые слова.

Составляйте описания из нескольких слов, общей длиной до 150-160 символов. Это должен быть связный текст, рассказывающий о конкретной странице, а не о всем сайте, и не перегруженный ключевыми словами. Поддерживайте описания в актуальном виде: если информация на странице обновилась, и описание устарело, внесите в него необходимые изменения.

Пусть каждая страница имеет уникальное описание. Выявить все страницы с одинаковой информацией в тегах <meta> можно с помощью Google Webmaster Tools.

Ключевые слова в тэгах <meta>: забудьте о них

Уже достаточно давно большинство поисковых систем игнорируют ключевые слова в тэгах <meta>, так что есть смысл вообще не добавлять эту информацию в код сайта, чтобы не предоставлять конкурентам лишние данные о вашей SEO-стратегии.

Контент

Нужно всегда помнить истину, уже ставшую банальной: вы должны создавать контент для людей, а не для поисковых машин. Не стоит слишком увлекаться поисковой оптимизацией — это сделает текст почти непригодным для комфортного чтения, и в конечном счете отрицательно скажется на результатах SEO.

Убедитесь, что страницы вашего сайта содержат ценный для аудитории, уникальный контент, а не сверхоптимизированный текст и копии с других сайтов, и что объем контента на каждой странице превышает 300-400 слов (есть данные, что при прочих равных условиях страницы с 2000 слов и более располагаются обычно выше в результатах поиска).

Проверьте наличие ключевых слов в тексте страниц — прежде всего, в первых нескольких абзацах. Отредактируйте текст так, чтобы использование ключевых слов не приводило к повторениям и бессмысленным фразам, написанным с одной лишь целью в очередной раз упомянуть ключевое слово. Красивый, стройный, полезный текст, с незаметными для читателя ключевыми словами — вот к чему вы должны стремиться. Перенасыщение контента и мета-тэгов такими словами (англ. keyword stuffing) приводит к санкциям от поисковых систем.

Текст на сайте должен быть лишен грамматических ошибок: безграмотность обычно говорит о непрофессионализме автора, поэтому такой контент может занимать низкие позиции в результатах поиска.

Дублированный контент

Если на вашем сайте или за его пределами присутствует контент, дублирующий другие материалы сайта, поисковые системы сталкиваются с трудной задачей: определить, какую именно версию нужно проиндексировать и показать в результатах поиска. И эта проблема только усугубляется по мере того, как другие сайты ссылаются на разные копии страницы или одну и ту же страницу, открывающуюся по разным URL.

Вот некоторые причины возникновения дублированного контента:

CMS сайта может делать одни и те же страницы доступными по разным ссылкам;
вторая часть URL на многих сайтах формируется динамически, содержит дополнительные параметры, меняющиеся в зависимости от различных факторов;
контент сайта часто воруют, размещают на других ресурсах без обратной ссылки, и поисковая система неспособна связать его с первоисточником;
при посещении сайта может создаваться сессия с уникальным идентификатором, который используется в динамических URL (это нужно, например, для временного хранения информации о добавляемых в корзину товарах — вплоть до оформления заказа);
версии страниц сайта, оптимизированные для печати, могут расцениваться как дубликаты.

Дублированный контент внутри сайта можно выявлять, например, с помощью Google Webmaster Tools (сервис умеет находить страницы с одинаковыми заголовками и мета-описаниями) и поисковых операторов, которые могут указываться вместе с запросами в строке поисковых машин.

Решить проблему дублированного контента можно путем простого удаления дубликатов, создания 301 редиректов, запрета на индексирование дубликатов в файле robots.txt или в мета-тэгах отдельных страниц, использования директивы rel="canonical" и другими способами.

Рекомендуем ознакомиться с подробным руководством по обнаружению и устранению дублированного контента.

Внутритекстовые заголовки

Четко структурируйте текстовые публикации. Используйте заголовки (тэг <h1> — для самых значимых из них), подзаголовки нескольких уровней, выделяйте отдельные фрагменты текста жирным шрифтом, курсивом. Продуманное форматирование текста значительно облегчает читателю восприятие текста, а заголовки с важными словами еще и положительно сказываются на SEO.

Нужно соблюдать меру: слишком много заголовков и ключевых слов, выделенных жирным шрифтом, оттолкнут читателей не меньше, чем монотонный неструктурированный текст.

Наилучший способ структурирования текстов на сайте — думать, прежде всего, о людях и сделать несколько легких «реверансов» в сторону поисковых машин.

Изображения

Проанализируйте все важные изображения на вашем сайте, тематически связанные с окружающим их текстовым контентом. Для полноценного индексирования имена графических файлов, а также значение атрибута alt тега <img> должны содержать слова, описывающие изображение, и желательно ключевые слова страницы. При этом сделайте разными имя файла и значение атрибута alt.

Слова в имени файла стоит разделять дефисами, а не знаками подчеркивания. Для описания следует использовать именно атрибут alt, а не title, и оно должно быть кратким — не длиннее 150 символов, со всеми важными словами в начале текста.

Нет смысла добавлять описания и давать имена файлов, нацеленные на SEO, изображениям, которые не связаны с текстовым контентом: например, графическим элементам дизайна.

Не забывайте обеспечивать быструю загрузку всех изображений, размещаемых на сайте: удаляйте все лишние области, устанавливайте размер картинок не выше минимально необходимого, оптимизируйте их в графическом редакторе с использованием встроенных инструментов подготовки картинок для интернета. Как уже говорилось выше, длительная загрузка страниц вредит SEO.

Почитайте также наше отдельное руководство по оптимизации изображений для поисковой машины Google.

Внешний SEO-аудит
Исходящие ссылки

Часто владельцы сайтов внимательно относятся только к получению трастовых обратных ссылок, но заботиться нужно и об исходящих ссылках с вашего сайта на другие ресурсы.

Избегайте ссылок на некачественные сайты и сайты с плохой репутацией: это будет негативно влиять на ваши позиции в результатах поиска. Если размещение такой ссылки все же неизбежно, используйте в теге <href> атрибут rel со значением nofollow для запрета перехода по ссылке для поисковых машин.

Ссылайтесь на внешний контент, тематически связанный с вашей страницей, а в текст ссылок старайтесь включать слова, описывающие целевую страницу.

Регулярно проводите проверку на наличие битых ссылок, то есть тех, переход по которым приводит к ошибкам с кодом вида 4xx или 5xx. Для этого можно использовать Link Checker от W3C и другие сервисы.

Обратные ссылки

Ссылочное ранжирование все еще работает, и нам стоит принимать во внимание количество и качество входящих ссылок, хотя тенденции и говорят о снижении в будущем их значения для продвижения сайта.

Воспользуйтесь такими сервисами, как Majestic SEO, Open Site Explorer, Ahrefs или инструментами для веб-мастеров от «Яндекса» и Google, чтобы узнать, какое количество сайтов ссылаются на ваш сайт, связаны ли они тематически с вашим сайтом и являются ли они трастовыми.

Если на вас ссылается множество качественных сайтов из той же отрасли, вы приобретаете высокий авторитет. Если же эти сайты имеют плохую репутацию и содержат контент низкого качества, поисковые системы начинают считать таковым и ваш сайт.

Старайтесь приобретать обратные ссылки, в тексте которых присутствуют нужные вам ключевые слова. В этом деле надо соблюдать меру: большое количество входящих ссылок с других сайтов с одинаковым или похожим анкорным текстом может приводить к понижению позиций вашего сайта в поиске по содержащимся в тексте ссылок ключевым словам. Общая масса обратных ссылок на ваш сайт должна выглядеть естественной для поисковых машин: пусть одни ссылки имеют в анкорах ключевые слова, другие — призывы к действию, вроде «щелкните здесь», «ознакомьтесь», или другой нейтральный текст.

Продумайте новую стратегию сотрудничества с трастовыми и тематически близкими сайтами (в этом вам помогут наши 32 способа создать обратные ссылки на сайт) и организуйте удаление обратных ссылок с некачественных сайтов-доноров. 

SEO-анализ сайтов-конкурентов

Важной частью аудита является изучение стратегий и ошибок ваших конкурентов в области SEO. Рекомендуем ознакомиться с кратким руководством по SEO-анализу конкурентов.

Защита от негативного SEO

Негативная поисковая оптимизация объединяет совокупность черных и неэтичных методов и технологий, которыми пользуются конкуренты, чтобы снизить позиции вашего сайта в поисковой выдаче или вообще забанить его в поисковых системах. Вот некоторые способы достичь этих целей:

хакерская атака и взлом сайта;
распространение тысяч спамерских ссылок на вашем сайте через комментарии;
создание клонов вашего сайта и копирование контента без вашего разрешения;
перенаправление ссылок на ваш сайт с ключевыми словами вроде «виагра», «покер онлайн», «порно» и т.п.;
создание поддельных профилей в соцсетях, через которые распространяется негатив против вашей компании и сайта;
удаление трастовых ссылок с других сайтов на ваш сайт.

Заключение

SEO-аудит не только позволяет сделать сайт более дружелюбным по отношению к поисковым системам, но и одновременно повышает его удобство и ценность для посетителей.

При условии грамотного и регулярного исполнения (не реже двух раз в год) аудит значительно увеличивает трафик — как поисковый, так и другие его виды, ведь умная и честная оптимизация улучшает контент и повышает юзабилити, а люди любят хорошие сайты и приходят на них снова и снова.

Источник

Актуальные новости
Подписаться на новости