Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Лучший этап перезапуска: Robots.txt, Логин, Noindex или что?

    1. Проверьте все!
    2. Обзор редиректов
    3. Пять способов заблокировать сайт
    4. В сравнении
    5. вывод

    5 апреля 2017 г. | из Маркус Хёвенер в SEO

    Промежуточный сервер необходим для повторного запуска проекта, поэтому вы можете проверить все перед началом работы нового сайта. Но что именно нужно учитывать, так что этап z. Например, не индексируется Google?

    Если вы хотите обновить свой веб-сайт, вам обычно нужно создать «промежуточный сервер» («stage»). Таким образом, вы можете получить доступ к сайту и смотреть, как она появляется. Ошибки исправляются, контент добавляется - вплоть до релиза и, следовательно, запуска в эксплуатацию. Как правило, Stage доступен через собственный URL, часто на своем сервере. Поддомены, такие как neu.unternehmen.de или kunde.agentur.de, подходят.

    Прежде всего, важен этап, так что все требования SEO для нового сайта могут быть проверены до его запуска - и до того, как какие-либо ошибки могут привести к повреждению.

    Проверьте все!

    Важно, чтобы на сцене все было так же, как позже на реальном сайте. так:

    • Файл robots.txt должен содержать инструкцию для управления сканером.
    • Метатег роботов должен быть заполнен правильно, чтобы Например, исключить определенные страницы из индексации.
    • Для всех измененных URL-адресов должно быть 301 перенаправление.
    • Канонические теги должны присутствовать правильно (и, конечно же, указывать на саму сцену).
    • Для международных сайтов должны присутствовать теги hreflang.
    • Разметка (schema.org ...) должна быть реализована на страницах.
    • XML и, если это необходимо, карты сайта новостей должны быть доступны для этапа.
    • ...

    Таким образом, если все реализовано на сцене, отдельные аспекты могут быть оптимально изучены перед началом работы. Например, с помощью следующих инструментов:

    • Консоль поиска Google (особенно функция «Получить как Google» для проверки правильности отображения страницы)
    • Screaming Frog SEO Spider (сканирует весь сайт, чтобы найти проблемы, такие как пустые заголовки страниц, нерелевантные параметры URL ...)
    • Инструмент тестирования структурированных данных Google (проверка разметки)
    • Инструменты для проверки тегов hreflang (hreflang.ninja, hreflang.org ...)

    Обзор редиректов

    Прежде всего, тестирование перенаправлений URL-адресов чрезвычайно важно, в противном случае запуск в эксплуатацию угрожает массовым трафиком и потерями рейтинга. Таким образом, все перенаправления URL должны существовать на этапе, что также важно для запуска. (Подробнее об этом в следующем поисковом радаре.)

    Чтобы проверить перенаправления, вы можете использовать такие инструменты, как httpstatus.io, которые позволяют вам макс. 100 URL одновременно. Большие количества могут z. B. быть проверен с Screaming Frog SEO Spider.

    Но что именно нужно проверить? Пример:

    Старая страница http://www.website.de/alt/ должна быть доступна после запуска по адресу http://www.website.de/neu/. Затем должно быть перенаправление 301, которое перенаправляет / old / to / new /. Если у вас теперь есть сценарий, подобный stage.website.de, вы должны проверить URL-адрес http://stage.website.de/alt/, который необходимо будет правильно перенаправить на http://stage.website.de/neu/.

    Конечно, нужно не только проверить, действительно ли это редирект 301, но и перенаправить ли он на самую подходящую новую страницу. Перенаправление всех старых URL-адресов на новую домашнюю страницу было бы крайне плохим решением.

    Пять способов заблокировать сайт

    Поэтому очень важно иметь возможность проверить свойства веб-сайта, прежде чем начать работу. Конечно, следует отметить, что, как правило, сцена не должна индексироваться Google, поэтому пользователи не будут нажимать на часто незаконченные страницы в результатах поиска. В любом случае, этап должен быть полностью заблокирован для поисковых систем, часто для сторонних пользователей.

    По сути, существует пять различных способов блокировки сайта:

    1. robots.txt

    Файл robots.txt позволяет указать, что сканеры поисковых систем не имеют права загружать («сканировать») определенные страницы на веб-сайте. Следующие два оператора могут использоваться для блокировки всех страниц для сканирования:

    Пользовательский агент: *

    Disallow: /

    Этот метод, безусловно, самый простой, потому что в текстовый файл нужно записать только две строки. К сожалению, robots.txt запрещает сканирование, но не обязательно индексирует. Робот Googlebot не может загружать страницы и поэтому не имеет информации. Однако в таких случаях Google иногда также создает пустые записи в индексе. Тогда этап теоретически представлен в индексе - хотя очень маловероятно, что кто-то нажмет на такую ​​запись.

    И: Как правило, более поздний сайт также получает файл robots.txt, чтобы заблокировать определенные нерелевантные страницы для поисковых систем. Если вы заблокируете все в двух названных строках в рабочей области, вы не сможете проверить перед началом работы веб-сайта, является ли файл robots.txt также полностью корректным. Конечно, вы можете сделать это наоборот: с помощью Screaming Frog SEO Spider вы можете, например, Например, с версии 7 вы можете сохранить свой собственный файл robots.txt и в любом случае проверить правильность файла. Этот путь немного неловкий.

    2. метатег роботов "noindex"

    Метатег Robots «noindex» гарантирует, что данная страница загружена из Google, но не добавлена ​​в индекс. Эти страницы поэтому не прослеживаются.

    В качестве альтернативы метатегу роботов также можно передавать ту же информацию через заголовок HTTP (см. Https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag?hl=en). , В некоторых случаях эту альтернативу проще реализовать. Но вы должны убедиться, что вы не объединяете эти два параметра друг с другом, поэтому различные инструкции, помещенные в метатег и в заголовок HTTP, потому что это может привести к тому, что «отсутствие индекса» помещается в одном месте, игнорируются.

    По аналогии с robots.txt это также применимо и здесь: если все страницы имеют тег «noindex», вы больше не можете проверять метатеги роботов более позднего веб-сайта, прежде чем начать работу.

    3. HTTP логин

    HTTP-логин (формально правильный: базовая HTTP-аутентификация), вероятно, является самым безопасным и зачастую самым простым способом полностью заблокировать сайт для сторонних пользователей и для поисковых роботов. Поскольку робот Google не знает связанный логин и не будет входить даже со знанием, Google, таким образом, не имеет доступа к соответствующим страницам.

    Логин может быть z. Например, используя файл .htaccess, создайте отдельный файл для входа в систему, а затем поместите коды, подобные приведенным ниже, в файл .htaccess:

    AuthType Basic

    AuthName "Сцена для моего сайта"

    AuthUserFile .htpasswd

    Требуется действительный пользователь

    Недостатком может быть HTTP-вход в систему, если вы хотите использовать много разных инструментов для проверки сцены или отдельных страниц. К сожалению, не все инструменты поддерживают ввод данных для входа. В зависимости от инструмента, вы также можете быть немного обеспокоены раскрытием пользователей и паролей.

    4. Форма входа

    Другой вариант предлагается некоторыми системами управления контентом или магазинами, где вы должны ввести логин на веб-сайте (пример см. Рис. 1). Форма входа в систему является наихудшим выбором, потому что ее поддерживают лишь очень немногие инструменты (см. Таблицу 1).

    Таблицу 1)

    Рисунок 1: Форма входа - худшее решение для перезапуска SEO, потому что только несколько инструментов могут преодолеть форму.

    5. Блокировка IP

    IP-блокировка обычно создается таким образом, что этап может вызываться только с определенных IP-адресов. Как правило, вы затем разблокируете IP-адреса своей компании и участвующих агентств. Это возможно z. Например, через инструкции в файле .htaccess. Кто з. Например, если вы хотите, чтобы сайт был доступен только для IP-адреса 6.7.8.9, вы можете использовать следующий код:

    Заказать отказать, разрешить

    Отрицать все

    Разрешить с 6.7.8.9

    Удовлетворить любого

    Но с блокировкой IP вы также исключаете все инструменты. Конечно, вы можете разблокировать IP-адреса или блоки - но вы должны знать это в первую очередь. В частности, у Google разные адреса для разных инструментов. Поэтому, если вы хотите получить доступ к IP-сайту с помощью различных инструментов, у вас обычно много работы.

    В сравнении

    В таблице 1 сравниваются пять методов, представленных для запрета веб-сайта для поисковых систем и / или пользователей. Конечно, метод, который вы выберете, зависит в первую очередь от возможностей сайта, а затем от инструментов, которые вы хотите использовать.

    Любой, кто хочет, чтобы веб-сайт был доступен и доступен сторонним пользователям, должен выбрать логин (предпочтительно: HTTP-логин) или даже блокировку IP. Если достаточно, чтобы веб-сайт не появлялся в результатах поиска, использование «noindex», безусловно, является лучшим выбором.

    Какой метод используется?Какой инструмент используется?robots.txtметатег robots «noindex»HTTP-форма входа всистемулогинIP-адрес Блокировкапоиска Google (особенно «Получить как Google»)

    - да - - (да)
    (IP-адрес сканера Google должен быть разблокирован) Screaming Frog SEO Spider да
    (Опция "Игнорировать robots.txt" должна быть установлена) да
    (Опция «Respect noindex» должна быть отключена) да
    (Должна быть установлена ​​опция «Запрос аутентификации») да
    (из версии 7 возможно: «Аутентификация> На основе форм») (да)
    (IP-адрес компьютера должен быть включен) Инструмент тестирования Google для структурированных данных да да - - (да)
    (Google Crawler IP должен быть разблокирован) httpstatus.io да да да - (да)
    (IP-адрес сервиса должен быть включен) Инструменты для тестирования тегов hreflang (особенно: hreflang.ninja, hreflang.org ...) да да - - (да)
    (IP-адрес сервиса должен быть разблокирован)

    Таблица 1: Какой инструмент может работать с какими методами блокировки?

    вывод

    Какое из пяти решений используется, зависит от конкретного случая. Тем не менее, компании должны подумать об этом заранее, а затем, в суматохе незадолго до начала эксплуатации, не удивительно, что они не понимают, что невозможно использовать конкретный инструмент или проверить определенное свойство. Во многих случаях решение «noindex» - это просто ответ - в качестве альтернативы, HTTP-логин, чтобы постоянно отключать не только поисковые системы, но и иностранных пользователей.

    Кстати: эта статья из Выпуск 64 нашего журнала сучерадар , Если вы еще не знаете издание, вы можете увидеть эти и все предыдущие выпуски в поиск радиолокационного архив скачать бесплатно.

    Следующие две вкладки изменяют содержимое ниже. Следующие две вкладки изменяют содержимое ниже

    Маркус Хёвенер является основателем и руководителем специализированного агентства онлайн-маркетинга в области SEO и SEA. Bloofusion , Как управляющий партнер Bloofusion Germany, он отвечает за всю деятельность в Германии, Австрии и Швейцарии. Маркус Хёвенер - автор книги ( Международный SEO ) Автор многих статей и исследований по SEO и SEA и редактор журнала. поиск радар ,

    В свободное время у Маркуса четверо детей, он любит играть на пианино (особенно джаз) и слушает длинные автомобильные поездки ». Три знака вопроса ».

    Например, не индексируется Google?
    Но что именно нужно проверить?
    Com/webmasters/control-crawl-index/docs/robots_meta_tag?
    Какой метод используется?
    Какой инструмент используется?

     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»