19:56
Самые страшные ошибки в SEO

Самые страшные ошибки в SEO


Некоторые ниже перечисленные ошибки являются очень грубыми и могут приводить к санкциям со стороны поисковых систем, другие же – помягче, но тоже не дающие выйти сайту в топ по нужным запросам. В любом случае каждая из перечисленных ошибок может привести к снижению трафика в разы. Поэтому очень внимательно изучите этот раздел и бойтесь как огня допустить эти ошибки.
1. Переспам. Это, пожалуй, самая грубая из всех ошибок поисковой оптимизации сайта. Некоторые оптимизаторы стараются перенасытить страницы продвигаемыми ключами. Они добавляют их по несколько раз в метатеги, заголовки, а в тексте ключ может встречаться у них десятки раз во всех склонениях, часто полужирным шрифтом или с подчеркиванием. Ну и в завершение они добавляют на страницу множество внутренних ссылок, угадайте каких, – с вхождением продвигаемого ключа. В итоге, страница больше похожа на созданную для поисковых систем, чем для человека.
Что об этом думает Яндекс? Читаем в блоге Яндекса: «Как мы уже писали, поиск Яндекса отдает предпочтение сайтам, которые созданы для людей и удобны пользователям, и негативно относится к попыткам повышения релевантности страниц за счет чрезмерного употребления в текстах ключевых слов (или целых популярных запросов). Размещение переоптимизированных текстов, которые не адресованы посетителям сайта, относится к приемам «псевдооптимизации» и никак не улучшает качество сайта. Если алгоритм определит, что контент создан для влияния на поисковую систему и повышения релевантности, позиции этого документа в выдаче могут ухудшиться».
И это не шутки, поисковые системы очень жестко карают сайт за переспам потерей позиций и выпадением страниц из индекса.
Ниже пример переспамленного текста с блога Яндекса:
«В последнее время проблема переоптимизированных текстов особенно актуальна. Переоптимизированные тексты (которые по-английски можно назвать over-optimized texts или over-optimized content) или тексты с запросами, часто используются для оптимизации сайтов. Переоптимизированные тексты помогают поместить на сайт большое количество ключевиков (ключевых слов, целевых запросов), по которым сайт продвигается. Поэтому сейчас активно используется такая процедура, как продвижение переоптимизированными текстами. Что такое продвижение переоптимизированными текстами, спросите вы. Если вы никогда раньше не пробовали продвижение переоптимизированными текстами, вы все равно наверняка знаете, что это такое».
Случаев фильтрации сайтов за переспам немало. Вот один из недавних примеров с форума Searchengines: «Подскажите, опытные товарищи. Девелопил сайт, интернет-магазин аксессуаров. Пока сайт разрабатывался (месяца два в индексе был), были позиции по НЧ и шел трафик. Прямо перед запуском, подключением мерчанта (Яндекс.Касса, кстати) сайт выпал из индекса. На письма в саппорт отвечают стандартно: «Наши алгоритмы... работайте над сайтом и т.д.». Добавил тексты (главная, категории, приоритетные бренды), не помогло, тот же ответ от платонов. Сайт – чистый екомерц, 5000 позиций товаров, свой чекаут и т.д. По совету отправил сайт на апрув в Яндекс Каталог, получил ответ: «По оценке редакции сайт переоптимизирован». Хотя, на мой взгляд, все ОК, тайтлы человеческие более чем. Из стремного – только динамическая перелинковка на страницах товара. В ней может быть дело?» Опытные товарищи тут же разобрались, что дело в жестком переспаме текстов продвигаемыми ключами. Например, фраза «солнцезащитные очки» встречалась в коде одной страницы 181 раз!
Поэтому оптимизируйте-оптимизируйте, но не переоптимизируйте. Нескольких повторов продвигаемой фразы в тексте страницы вполне достаточно. Главное, чтобы текст был для людей, а не для поисковых систем.
2. Слабая оптимизация страницы. Противоположная ошибка хоть и не приводит к санкциям, но делает невозможным выход сайта в топ по конкурентным ключам. Довольно часто, продвигая страницу, оптимизаторы не добавляют ключи в метатеги, заголовки, а иногда точных вхождений нет даже в тексте страницы. И как мы с вами уже увидели на примере конкретных кейсов, одна лишь внутренняя оптимизация страниц может увеличить трафик сайта в разы.
3. Слишком много продвигаемых ключей на страницах. Чтобы сэкономить свои силы и время, некоторые оптимизаторы продвигают главную страницу сразу по всем конкурентным фразам. Примерно так же дело обстоит и с внутренними страницами: вместо того чтобы подготовить для каждого ключа или группы из нескольких ключей отдельную оптимизированную страницу, они создают 2-3 страницы, которые продвигаются по нескольким десяткам ключевых фраз.
В результате заточить страницу под конкретные ключи не получается, что ослабляет позиции сайта. Более того, посадочные страницы слабо отвечают на вопрос посетителя, пришедшего с поисковой системы, так как они содержат слишком много разной информации. Опять же мешает отсутствие заточки под конкретные ключи. Поэтому посетители приходят на страницу, закрывают ее и ухудшают этим поведенческие факторы, что еще ниже опускает сайт в выдаче.
Правильным выходом было бы создание специальных разделов и страниц, которые четко и точно заточены под один или несколько смежных ключей и дают исчерпывающий ответ на вопрос пользователя. Кстати, по словам SEO-консультанта Лены Камской, эта ошибка является самой распространенной среди всех ошибок оптимизаторов.
4. Ошибки структуры сайта (дубли, мусорные страницы и т.д.). Поисковые системы настолько не любят дубли страниц, точные или частичные, что зачастую из-за них снижают позиции сайта в поиске. Дубли обычно плодят CMS сайтов при неправильной настройке: Joomla, Wordpress и многие другие. Главная страница сайта может быть доступна по адресу site.ru, а также site.ru/index.html и site.ru/default.html. Для пользователей это одна и та же страница, а для поисковых систем дубли. Их нужно найти и настроить сайт таким образом, чтобы полностью исключить дубли.
Искать можно через поисковую систему. Для этого ставим галочку поиска по сайту и вставляем в качестве поискового запроса фрагмент текста со страницы в кавычках (кавычки помогают найти точное соответствие). Проверив ряд страниц таким образом, можно понять, создает ли CMS их дубли или нет. Дубли будут видны сразу, когда по уникальному запросу будет отображаться сразу несколько результатов с вашего сайта. Если дубли есть, нужно обратиться к программисту для настройки CMS таким образом, чтобы она не плодила копии страниц.
Кстати, в свое время наш проект Копилансер резко потерял все позиции в Яндексе по основным запросам, и они вылетели из топа в 5-ую сотню выдачи. Причина была проста – ошибка программиста, из-за которой было автоматически создано множество дублей страниц. После устранения этой проблемы позиции вскоре вновь восстановились.
Мусорные страницы – это страницы, которые возникли по технической ошибке, например пустые страницы или страницы с технической информацией, которые не должны отображаться пользователям. От таких страниц нужно избавляться. Чтобы выявить их, можно добавить сайт в Яндекс.Вебмастер и изучить раздел проиндексированных страниц. Из бесплатных инструментов, не требующих регистрации, рекомендуем Линкпад. Там при проверке сайта в разделе «Страницы в индексе» можно увидеть основные страницы и их размер.
Признаком мусорной страницы является ее малый размер. Особенно обратите внимание на страницы размером менее 3 кб, именно они могут быть пустыми или ошибочно созданными. Найдя лишь несколько подобных страниц, остается показать их программисту с тем, чтобы он устранил причины их появления. Отсутствие страницы с ошибкой 404 – некоторые сайты вместо того, чтобы выдать в ответ на запрос несуществующей страницы 404-ую ошибку, возвращают ответ 200 ОК и отображают какое-то содержимое или совершают 302-ой редирект. Это неправильно, так как заставляет поисковые системы считать, что страница существует. Даже из-за такой мелочи ранжирование сайта может ухудшаться.
Поэтому проверьте ответ сайта на запрос к странице, которой точно нет на сервере. Рекомендуем использовать для этого сервис Bertal. Если в ответ на запрос несуществующей страницы на вашем сайте типа site.ru/test404.html, а также несуществующего домена типа test.site.ru сервер не вернет 404-ую ошибку, необходимо обращаться к программисту для устранения проблемы.
Большое количество сквозных динамических блоков на странице – это болезнь интернет-магазинов, когда на странице отображается чуть-чуть текста, касающегося данного товара или товарной категории, и множество информации в динамических блоках: похожие и рекомендуемые товары, последние отзывы и прочее… Иногда содержимого динамических блоков в разы больше, чем основного контента страницы. Продвижение таких страниц – это проблема, потому что происходит растворение основного контента неосновным.
Плюс к этому, динамические блоки на разных страницах могут выдавать примерно одинаковое содержание, а это уже дублирование контента, которое приводит к снижению позиций таких страниц. Если эти блоки формируются на лету при помощи аякса, то есть сначала страница загружается, а потом скрипты подтягивают содержимое блоков, то проблем нет. В этом случае эти блоки вообще не будут проиндексированы (помните разговор о скриптах?).
Но если содержимое блоков есть в HTML-коде, то они будут проиндексированы, а следовательно, нужно работать с ними так, чтобы не создавались дубли контента и не размывалось основное содержимое страниц.
5. Формирование основного контента на лету при помощи javascript и ajax. Эта ошибка, как правило, встречается на самописных сайтах. Ее суть в том, что основной контент формируется после открытия страницы пользователем.
Чем это плохо? Поисковые системы, как правило, не запускают скрипты на сайте. Они видят страницу без тех текстов, которые подгружаются скриптами. И хотя представители Гугла заявляют, что научились хорошо работать с ява-скриптом, наш опыт показывает, что пока это не соответствует действительности. Если основное содержимое подтягивается скриптами, то поисковики будут видеть страницу без основного содержимого. Тогда ни о каком продвижении страницы не может идти и речи. Необходимо, чтобы весь основной контент загружался сразу, а не при помощи скриптов.
6. Исходящие ссылки на плохие сайты – в Советах вебмастеру от Яндекса сказано, что поисковик старается не индексировать или не ранжировать высоко «немодерируемые форумы, доски объявлений, содержащие большое количество ссылочного спама». Такие сайты действительно очень быстро вылетают из индекса из-за спам-ссылок.
В группе риска блоги или другие сайты, где посетители или сам владелец сайта размещает ссылки на плохие сайты.
Ни в коем случае нельзя ставить ссылки на дорвеи (автоматически сгенерированные страницы и сайты, созданные только для сбора поискового трафика и для редиректа его на какие-то другие площадки), фишинговые сайты (сайты, созданные для воровства персональных данных). Нужно избегать ссылок на порносайты, а также любые другие сайты, которые кажутся вам сомнительными.
Если любой пользователь может добавить на сайт ссылку, то позаботьтесь о том, чтобы все ссылки шли с атрибутом rel=nofollow, например Хороший сайт. Этот атрибут запрещает поисковой системе переходить по ссылке. Попросту говоря, она не учитывается поисковиками, хотя у оптимизаторов на этот счет есть обоснованные сомнения. В любом случае ответственность за такую ссылку при помощи rel=nofollow вы с сайта снимаете.
В частности, Гугл рекомендует использовать этот атрибут для ссылок в ненадежном (пользовательском) контенте: «Если вы не можете или не хотите поручиться за содержание страниц, на которые ведут ссылки с вашего сайта (например из комментариев пользователей), следует вставлять в теги таких ссылок rel="nofollow". Это сократит количество спама и поможет исключить непреднамеренную передачу значения PageRank с сайта недобросовестным пользователям».
Итак, не ссылайтесь на плохие сайты либо используйте атрибут rel=nofollow, когда нет возможности проверять сайты.
7. Агрессивная реклама – кто бы мог подумать, что за рекламу на сайте могут быть какие-то санкции! И, тем не менее, это реальность. Яндекс, описывая сайты, которые подлежат исключению или понижению в поиске, в своих рекомендациях упоминает «сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder)».
Аналогичного подхода придерживается и Гугл, поэтому мы настоятельно рекомендуем не использовать рекламу, которая вызывает открытие каких-то дополнительных окон.
Кроме того, лучше забыть о показе на своем сайте шокирующей рекламы и рекламы для взрослых. В блоге Яндекса об этом написано следующее: «К такой рекламе относятся, например, тизеры с фотографиями болезней, изображение частей тела людей с сильно избыточным весом, реклама, в которой используются картинки с явно выраженным эротическим содержанием, кадры из фильмов ужасов и тому подобное… В связи с вышесказанным в Поиске будет постепенно внедряться механизм, который отдает предпочтение страницам, не содержащим шокирующей рекламы…»
Вот еще характерное сообщение от Яндекса на тему рекламы: «Наверняка вы хотя бы раз замечали на сайтах всплывающие окна, похожие на уведомления от социальных сетей, предложения по обновлению ПО или сообщения от "антивирусов" о заражении… Теперь Яндекс умеет определять сайты с подобным контентом, и в ближайшее время их позиции в результатах поиска будут понижены».
Хотите узнать еще один простой способ ухудшить ранжирование сайта? Для этого нужно разместить на нем слишком много рекламы. К примеру, Гугл борется с этим с помощью своего алгоритма Page Layout, накладывая так называемый фильтр Top heavy на сайты, верхняя часть которых переполнена рекламой. Вот что об этом сообщает Мэтт Каттс, ведущий инженер Гугл по борьбе с поисковым спамом: «Мы понимаем, что размещение рекламы в верхней части сайта характерно для многих веб-ресурсов, поскольку именно такие объявления заметны пользователю и являются основным источником дохода для издателей. Вот почему фильтр не будет понижать в ранжировании те сайты, которые публикуют рекламу «в разумных пределах». Основной удар придется на сайты, изобилующие рекламой, где пользователь с трудом находит оригинальный контент. Не пройдет и распространенный прием, когда оригинальный контент, размещенный в видимой верхней части сайта, настойчиво направляет пользователя ниже к огромным блокам рекламных объявлений».
Поэтому нужно относиться к рекламе на своем сайте очень осторожно, избегая назойливой, надоедливой, шокирующей рекламы, а также не допуская избытка даже допустимой рекламы на страницах. Избегая перечисленных выше ошибок и выполняя все рекомендации раздела по поисковой оптимизации, можно добиться потрясающих результатов в продвижении любого сайта. А теперь давайте подытожим и вспомним самые важные моменты, касающиеся внутренней оптимизации.
Категория: seo | Просмотров: 251 | Добавил: seversvs | Рейтинг: 0.0/0
Всего комментариев: 0