• 8-908-125-58-58
  • newsite46@mail.ru

Оптимизация сайта

Технические параметры продвижения сайта
В наших рассылках мы однажды обсуждали такой важный аспект подготовки сайта к продвижению в поисковых системах, как оптимизационная HTML-верстка. Однако, правильное форматирование контента – это далеко не все, что можно сделать оптимизируя внутреннее SEO-сайта. Перед запуском закупки ссылок очень важно убедиться, что сайт по всем техническим параметрам соответствует строгим требованиям и предпочтениям поисковых систем

Основной хостинг и настройки сервера
Как правило, обычные корпоративные сайты, сайты-визитки и некрупные интернет-магазины размещают на виртуальных хостинге: это значит, что один сервер, расположенный в дата-центре провайдера хостинга могут находиться сразу несколько сайтов. Если посещаемость сайта невелика, то он работает великолепно, оперативно реагируя на запросы посетителей или роботов поисковых систем. Обычно, точная информация о показателях посещаемости хранится у хостера или демонстрируется в результатах нагрузочного тестирования. Если же предел посещаемости сервера, вынужденного обслуживать порой до нескольких десятков сайтов, превышен, сайт закономерно начинает «тормозить», а то и вовсе прекращает выдавать какие-либо результаты. Такая ситуация более чем неблагоприятна, и лучше всего предотвратить ее, чем бороться с последствиями. Да, заблаговременный «переезд» на особый, выделенный сервер обойдется дороже, но затраты с лихвой окупятся хорошей работой сайта, который будет выдерживать гораздо большую нагрузку.
Если возник вопрос о выборе хостинг-провайдера, стоит обратить внимание на такие данные о нем, как: срок деятельности на данном рынке, открытость информации о дата-центре и другими признаками, говорящими о надежности. Да, от аварий или форс-мажоров не застрахован никто, но одно дело, если они бывают раз в несколько лет – другое, если раз в несколько месяцев. Заметим, что сайт в любой момент можно перенести на другой хостинг, это довольно просто и описание этого процесса можно прочесть в файле поддержки хостера. Правда сделать это можно, только если сайт еще работает, в противном случае нужно сначала устранить неполадки.
Как настроить .htacces
Файл с таким именем обычно располагается в корневом каталоге сайта и содержит в себе настройки веб-сервера Apache. С помощью этого файла можно задать такие параметры как:
- простое перенаправление или редирект и сложное перенаправление – mod_rewrite, которое заключается в преобразовании URL по любым правилам;
- определение индексных страниц – процесс, позволяющий серверу «понимать» какую страницу нужно загрузить, если пользователь вводит в адресную строку только доменное имя, а не полный путь к файлу, к примеру, index.html;
- определение страниц указывающих на ошибку. Без этой функции, посетитель, случайно набравший адрес удаленной или несуществующей страницы увидит на экране непонятный код, автоматически сгенерированный сервером. Чтобы этого избежать, можно создать специальную страницу для ошибки 404, которая будет соответствовать дизайну сайта, объяснять посетителю возможные причины и ошибки и предлагать ссылку, которая приведет пользователя в нужный ему раздел сайта или на главную страницу. Конечно, в идеале, ошибочных страниц не должно быть вовсе, но необходимость в странице 404 при этом не отпадает;
- управление кодировкой. Этот пункт очень важен. С его помощью определяется формат кодировки текста всего сайта, чтобы браузер посетителя правильно ее считывал. Если эта функция отсутствует, посетитель рискует вместо связного текста обнаружить набор маловразумительных символов, что не слишком его обрадует;
-управление доступом. Данная функция помогает закрыть доступ ко всему сайту или определенным его разделам с помощью пароля или полностью, создать ограничение входа по IP и тому подобное;
-настройки PHP. Определяет главные параметры обработки сервером языка PHP.
Параметр .htaccess позволяет настроить сервер таким образом, чтобы сайт можно было отобразить, как с префиксом www, так и без оного. Для этого необходимо настроить редирект с кодом 301 на предпочитаемую версию адреса – в зависимости о того, в каком состоянии находится текущий индекс поисковой системы по умолчанию. Как правило, это Яндекс. То есть, если в индексе поисковой системы уже есть сайт с URL, в котором содержится префикс www, то редирект настраивается на них и наоборот. Настраивать этот параметр лучше всего при запуске сайта, в противном случае придется довольно долго ждать завершения процесса переиндексации всех его страниц, если в индекс попали оба варианта адреса. Настройка этого файла вообще решает очень много проблем с подобными «дублями».
Настройки Robots.txt
Об этом файле мы так же говорили в нашем блоге. Немного дополним эту информацию:
- необходимо в обязательном порядке закрывать от индексации логи сервера, эта информация предназначена только для служебного использования;
- так же необходимо закрывать результаты внутреннего поиска на сайте, так как они являются обычным источником дубликатов страниц;
- правило Clean-param помогает запретить поисковым системам индексировать страницы, содержащие различные модификаторы URL, идентификаторы сессий и прочую информацию, которую система генерирует для управления контентом (CMS). Это помогает предотвратить индексацию дублей. Запретить можно и индексацию форумов, гостевых книг и других подобных разделов. Такая серьезная борьба с дублями необходима для того, чтобы облегчить продвижение сайта, которое при наличии дублей сильно затрудняется;- закрывать нужно и страницы, появляющиеся при некорректной обработке запросов обращенных к базе данных сайта;
- дубли главной страницы тоже необходимо закрыть от индексации, даже если на них стоит редирект при помощи функции .htaccess
Суммируя эти сведения можно сказать, что запретить необходимо все страницы, не содержащие значимый для посетителя контент, предотвращая при этом индексацию дублей.
Карта сайта и функция sitemap.xml
Карта сайта – это страница, содержащая список ссылок ведущих на все страницы сайта. Как правило, она генерируется системой автоматически. Однако, считать, что такая страница помогает пользователям ориентироваться на сайте, не стоит, если только она специальным образом не отформатирована. В качестве примера может служить карта сайта Livejournal.com. Тем не менее, этот раздел очень полезен для индексации материалов поисковыми системами. Если она на сайте имеется, то поисковому роботу достаточно всего двух переходов по ссылкам для того, чтобы найти нужную страницу. Файл sitemap.xml – это более технически продвинутый вариант карты сайта. Он не просто автоматически генерируется, но и сам обновляется, а так же позволяет настроить для каждой страницы приоритет индексации. Таким образом, сайт сообщает поисковой системе, какие из его страниц самые важные и обновляются чаще других.
Антивирусная защита
Сейчас существует очень много вирусов, внедряющих вредоносные исполняемые коды на различные страницы сайтов. Современные поисковые системы оснащены специальными технологиями, которые при индексации определяют вирус и не только не позволяют пользователям переходить на эти страницы через список результатов поиска, но и понижают их в списке, что затрудняет их продвижение. В Яндексе для этого применяют технологию Sophos. Чтобы такая ситуация не возникала, нужно обязательно обновлять ПО сайта вовремя. Это касается, в первую очередь, CMS. Так же обязательно использовать самые надежные пароли для доступа по FTP и к панели управления. Также настоятельно рекомендуется заходить в систему управления сайтом и в систему FTP только с тех компьютеров, которые оснащены хорошими антивирусами, содержащими самую актуальную базу вредоносных программ.