05 Апреля 2012
Перед покупкой ссылок, а также до внутренней оптимизации, необходимо устранить технические ошибки, присутствующие почти у любого сайта.
• Дублирование текста или даже целых страничек всегда отрицательно сказывается на позиции сайта в поисковой выдаче. С точки зрения поисковых систем нет смысла предоставлять один и тот же контент сайта дважды. Лучше всего избегать дублирования вообще, но если такая возможность отсутствует, тогда необходимо закрывать дублированную страницу от индексации соответствующей прописью в файле robots.txt.
• Если адреса, имеющие вид wml1001.ru/index.html (wml1001.ru/index.htm), wml1001.ru/index.php и тому подобные, соответствуют заголовкам 200 OK, то такие страницы могут попасть под индексацию, создав при этом лишний (-е) дубль (-и) главной страницы. Чтобы избежать подобного, можно использовать 301-й редирект на основной хост.
• Если доступ к вашему ресурсу осуществляется по 2 адресам, к примеру http://wml1001.ru и http://www.wml1001.ru, то это тоже может стать причиной дублирования страницы в индексе. Чтобы этого избежать, нужно один хост делать основным, а второму присвоить постоянный редирект с помощью файла .htaccess.
• Когда какая-либо страница может быть доступной со слешем в конце адреса и без него, то это может привести к ненужному дублированию контента, а это может отрицательно сказаться на продвижении сайта в поисковиках. Для устранения этой проблемы можно использовать серверный редирект путем соответствующей прописи в .htaccess файле.
• Если на сайте есть javascript или flash-ссылки, то они должны дублироваться обычными ссылками. Иначе поисковики по таким ссылкам перейти не смогут, и соответственно не смогут проиндексировать остальную часть сайта.
• Чтобы обеспечить более быструю и качественную индексацию, необходимо дополнить проект картой сайта и установить ссылку на нее в каждой страничке сайта. Установить такую ссылку можно и только на главной странице, но это немного хуже для индексации. Карта сайта должны включать не более 250 ссылок и быть не более 100кб.
• Очень важным является файл robots.txt, который содержит специальные инструкции для всех поисковых роботов. Этот файл должен всегда находиться в корневой директории любого сайта. В этом файле можно указать главный хост, указать путь для карты сайта, служебные и дублированные страницы можно закрыть от индексации, а также решить посредством него многие другие задачи. Всегда надо помнить о том, что файл robots.txt – это стандарт. Даже в том случае, когда вы категорически не желаете что-либо запрещать к индексации, и не хотите указывать путь для карты сайта, или прописывать основной хост, то все равно данный файл необходимо создать. Это не так сложно и может занять совсем немного времени.
Помимо всего вышеперечисленного достойны внимания следующие моменты:
• Наличие каких-нибудь скрытых блоков. Если вы пользуетесь бесплатным шаблоном для сайта, то в нем могут быть несколько скрытых внешних ссылок. Или же текст с ключами, размещенный предыдущим псевдо оптимизатором.
• Идентификаторы сессий в адресах страниц. Эти страницы необходимо закрывать от индексации.
• Текст должен отображаться корректно – для этого нужно указание кодировки на всех страничках сайта.
• От нерабочих и битых ссылок необходимо избавляться тоже.
• Проверять скорость, с которой сайт загружается, а также скорость ответа сервера.
• Проверять правильное отображение сайта в разных браузерах и различных разрешениях дисплея.