О переносе сайта на другой домен и важности мелочей в виде Robots.txt
26 Фев 2014

О переносе сайта на другой домен и важности мелочей в виде Robots.txt

Перенос сайта на другой хостинг или домен уже ни у кого не вызывает особых трудностей. Особенно если вы просто решили сменить хостинг, то перенести файлы с одного места в другое не составит труда.

Более сложная операция — это смена домена, но это уже давно не верх сложности в IT технологиях. И все же бывают мелкие ошибки, которые для бизнеса могут создать трудности и нанести серьезный финансовый ущерб. Об одной из таких мелочей я расскажу в этой статье, чтобы вам не пришлось столкнутся с этим на своей практике.

Я занимаюсь сейчас продвижением нескольких интернет магазинов и один из них решил сменить доменную зону с региональной по области на доменную зону второго уровня. Сайт — большой интернет магазин, у которого в индексе около 100 000 страниц в индексе гугла. Основной трафик сайта — это НЧ, иногда СЧ запросы, потому что сайт относительно молодой и тематика — электронная и бытовая техника, то есть достаточно конкурентная.

Перенос прошел достаточно гладко. Все редиректы были сделаны почти вовремя. Маленькие проблемы вызвало то, что у старого сайта домен был с WWW, а новый начал индексироваться без них. Но немного поколдовав над редиректами, удалось настроить правильное перенаправление урлов со старых на новые.

Все шло своим чередом, страницы нового сайта входили в индекс Гугл, а старые выпадали из него. По Яндексу такой движухи не наблюдалось. Но так как старые страницы долго сидели в индексе Яндекса, то я решил, что все дело в медленной работе этой поисковой машины. К тому же перенос клиент задумал сам, а нас уже поставил перед фактом в понедельник утром,  что теперь сайт у нас будет другой.

Все работы по программной части выполняются на стороне клиента и его программисты не удостоились сделать редиректы и настроить зеркала сайта. Поэтому мы неделю отлавливали ошибки и я напрочь забыл про файл Robots.xtx. Для меня само собой разумеющееся прописать в нем путь к карте сайта правильный хост. Но спустя полтора месяца старые страницы выпали из индекса, а новые так и не вошли в него. Я начал искать проблему и быстро ее нашел, в файле robots.txt  был указан старый домен. Клиент быстренько исправил эту проблему и сайт начал индексироваться.

Все дело в том, что гугл как обычно не обращал особого внимания на записи в роботс и индексировал все, что видел. А яндекс расценивал новый домен как не основное зеркало и просто не брал страницы в индекс. Поэтому советую обращать внимание на все мелочи и лишний раз перепроверять. А главное заранее предупреждайте своего оптимизатора, о таких вещах как перенос сайта, смена домена и о всех других изменениях на сайте, типа удаление или даже добавление страниц. Потому что даже самые опытные профессионалы своего дела впопыхах могут забыть о важных деталях.

Теперь клиент перекладывает вину за плохую индексацию сайта на нас, но все так же продолжает игнорировать рекомендации, которые я ему даю. У нас нет доступов к его сайту, только аналитика, но те же записи в robots.txt вносились несколько дней. И возникает вопрос, о каком результате от продвижения сайта можно говорить? Если вы обращаетесь к специалисту за помощью, будь то продвижение сайта или его создание, нужно обязательно делать, что вам советуют.

Подписаться на новые статьи!

Leave a Reply