СтатьиХостинг

Проблемы с ранжированием сайта и их решение

Сайт бесполезный, по мнению Google и других поисковых систем, если он содержит ворованный или не несущий ничего нового контент. Также ресурс не будет ранжироваться хорошо, если на нем есть вирусы, обнаружить которые помогут специальные ресурсы.

Опытные программисты самостоятельно могут обнаружить в коде сайта чужой код, который прописался без спроса, и могут удалить его самостоятельно без антивирусных программ.

Сайт под фильтром

Нужно проверить, какие фильтры наложены, после чего выполнить работу над ошибками. Причины наложения фильтров: взрывной ссылочный рост, переспам ключей в статьях и прочие накрутки.

Информацию об алгоритме каждого фильтра и способов вывода сайта из-под них можно найти на тематических форумах, где под каждый — созданы отдельные темы с бесконечным скроллингом. Опытные веб-мастера делятся успешным и негативным опытом вывода своих сайтов из-под фильтров.

Понять, что сайт находится под фильтром, можно по следующим признакам:

  • Некоторые или все страницы выпали из индекса;
  • Страницы в индексе, но поисковый трафик упал;
  • ТОПовые страницы сайта скатились дальше 5 страницы Google, не топовые — дальше десятой.

По перечисленным симптомам опытный веб-мастер подскажет, что за фильтр. Реабилитация сайта после фильтров может затянуться от одного апдейта до нескольких. Некоторые фильтры ставят крест на жизни сайта. Есть у Гугл серьезный фильтр, из-под которого невозможно вывести сайт. Под смертельный фильтр попадают сайты с клубничкой, которые не указали поисковику, что материал рассчитан на аудиторию 18+, и многочисленные ГС с синонимайзингом, которые раньше штамповались пачками для ссылочного бизнеса.

Слабая SEO-оптимизация

Для продвижения в поисковике нужна грамотная сео-оптимизации. Текст про вкусную пиццу «4 сыра» пользователь, который ищет «заказать пиццу 4 сыра в Люблино» даже не увидит, если на сайте не будет информации о доставке пиццы вообще и зоне охвата. И называть статью нужно «пицца 4 сыра», а не сокращённо «4 сыра», иначе google не поймёт: речь о пицце или о 4 сортах сыра.

Продвижение сайта, особенно коммерческого, это большой труд, в который входят работы внутри сайта и в многочисленных местах за его пределами. Для профессионала. При грамотной работе первых клиентов из поиска можно получить через 2 месяца.

Читайте также: Эффективная баннерная реклама в интернете.

Проблемный хостинг

Проделанные усилия и вложенные деньги не помогут в продвижении, если база данных сайта расположена на хостинге с низким аптаймом. Частично загруженный сайт, долгое открытие страницы выведут пользователя из себя. Он уйдет. Гугл отреагирует на показатель отказа и при следующей выдаче отдаст первые места другим сайтам.

Переезжать на другой хостинг — трудоёмкая работа. Это болезненная процедура для сайта, при которой летят показатели. Они могут вернуться назад, могут не вернуться, в лучшем случае утратят позиции. Но даже если вернуться, пройдет не мало времени. А если сервер завис в момент посещения робота, Google не сможет проиндексировать сайт. Перед выбором хостинга нужно почитать отзывы от других клиентов. Предпочтение платформе, у которой аптайм более 99 %.

особенность продвижения шаблонных сайтов

Не подходящий домен

Есть домены второго и третьего уровня. Первые приобретают за деньги и выглядя так: site.ru
Вместо «site» подставляется название компании, брендовое имя, собственное имя или фамилия: beeline.ru, tinkoff.ru, https://cityhost.ua. Разным категориям тоже нужно присвоить адрес, поэтому добавляется третий уровень через слэш.

Название категории повторяет адрес, только используются латинские буквы. Это удобно для восприятия и продвижения. Если у категорий есть подкатегории, а в подкатегориях — статьи, то каждый элемент прописывается через слэш, а несколько слов — через дефис.

Некоторые сайты имеют до 6 подуровней. Странички от третьего уровня тяжелее продвигать, поэтому для них используют средние и низкие по частоте ключевые слова. Есть ещё бесплатная категория доменов. Сервис блогер от Google или Лайфжурнал бесплатно дают домен для всех желающих зарегистрировать блог. Выглядят адреса следующим образом: vasheimya.blogger.com

Поисковые системы не любят длинные домены, поэтому продвигать их по высокочастотным и среднечастотных запросам будет тяжело.

Вебмастера тоже ошибаются

Каждый сайт в своей директиве содержит текстовый документ. Называется он robots.txt. Этот файл предназначен для поисковых систем. В нём прописаны команды: что на сайте можно индексировать, а что нельзя. Мастера не заморачиваются написанием текста вручную, а копируют готовые шаблоны из интернет. Файл нужно отредактировать под нужды своего сайта и убрать теги с названием noindex. Если их не убрать, то закрытые разделы индексироваться не будут. Вебмастер может не сразу понять, почему сайт проиндексировался частично.

Публикация была полезной и информативной? Тогда поделитесь ней со своими друзьями в социальных сетях. Если же ищете рейтинг хостингов Украины, рекомендуем ознакомиться с нашей базой проверенных хостингов сайтов.

Тэги

Related Articles

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Back to top button
Close