Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Крик Frog SEO Павук Мега керівництво для аналізу вашого Інтернету!

    1. Що таке "Screaming Frog" і як ви можете мені допомогти?
    2. Чи може "Screaming Frog" проаналізувати кожну з URL-адрес сайту незалежно від того, наскільки велика вона ?
    3. Давай на неї!
    4. Крик Frog SEO павук на іспанській мові: найбільш повний керівництво гусеничного і On-Page аналіз
    5. ► Початкові міркування перед використанням інструмента
    6. Перші кроки з криком жаба SEO павук
    7. У цьому пункті "Додатково" ви знайдете різні варіанти:
    8. ● Огляд
    9. ● Структура сайту
    10. ● Час відгуку
    11. ● API
    12. Як провести «просте повзання» з кричащою жабою?
    13. ► Сканування повного веб-сайту
    14. �� Як виключити та включити сторінки для сканування?
    15. ● Виключення
    16. ● Включення
    17. ► Як виконувати конкретні результати?
    18. �� Як змінити «користувальницький агент» або сканувати через проксі?
    19. ► Як створити sitemap.xml з кричущим жабом SEO Spider?
    20. Як ми можемо збільшити пам'ять Screaming Frog на комп'ютері Mac?
    21. Крик Frog SEO Spider також допомагає оптимізувати вміст
    22. ► Внутрішній
    23. ► Зовнішній
    24. ► Протокол
    25. ► Коди відповіді
    26. ► URI
    27. ► Заголовки
    28. ► Зображення
    29. ► Директиви
    30. ► Hreflang
    31. ► API
    32. Внутрішні посилання
    33. Зображення
    34. Зовнішні посилання
    35. Коди відповідей
    36. Директиви
    37. Звіти
    38. ► Індивідуальний пошук
    39. ● Як дізнатися, чи працює код Analytics на всіх сторінках?
    40. ● Витягніть певну інформацію (наприклад, SKU)
    41. Останні сумніви і висновки про інструмент
    42. Які особливості Screaming Frog SEO Spider ви найбільш корисні для вашого проекту?

    Чи можете ви уявити собі інструмент, який може автоматично аналізувати тисячі URL-адрес

    Чи можете ви уявити собі інструмент, який може автоматично аналізувати тисячі URL-адрес? "Screaming Frog SEO Spider" може зробити це і багато іншого, як ми покажемо вам у цьому супер-керівництві.

    Для тих з нас, хто працює над покращенням SEO з різних проектів середнього або великого масштабу, дуже важливо детально знати всі фрагменти на сторінці веб-сайту.

    Саме тут, що наявність настільного програмного забезпечення настільки потужним, як цей, є великою допомогою в нашому повсякденному житті.

    Але, перш ніж побачити, що Screaming Frog може зробити для вас і, перш за все, щоб полегшити ваші майбутні дії по позиціонуванню, прийшов час показати вам найточніше визначення цього інструменту:

    Меню тематичного змісту

    Що таке "Screaming Frog" і як ви можете мені допомогти?

    Інструмент Screaming Frog - це настільне програмне забезпечення, доступне для Mac, Windows і Linux. Це павук (або павук SEO), який буде відповідати за відстеження всіх URL-адрес веб-сайту, посилання за посиланням і вміст за змістом, щоб створити звіт або повну карту зі станом здоров'я на цій сторінці.

    Пізніше ви побачите всі способи використання, які можуть бути надані цій платформі, але тепер я пропоную деякі:

    • Знайте H1, що ви відсутні в різних сторінках.
    • Перегляньте, чи не вистачає мета-заголовків і метаописів.
    • Виявляти перенаправлення 3XX, помилки 4XX і т.д.
    • Проаналізуйте код PHP, CSS, HTML і JavaScript.
    • Повний сканування сайту.
    • Знати глибину свого веб-сайту тощо.

    І багато іншого, коротше кажучи, "кричача жаба" створить повний звіт, за допомогою якого ви зможете проаналізувати свій сайт з точки зору SEO, а потім прийняти рішення.

    100% невимушений ... чи не так?

    Однак за допомогою цього інструменту ми можемо досягти цього і багато чого іншого.

    Чи може "Screaming Frog" проаналізувати кожну з URL-адрес сайту незалежно від того, наскільки велика вона ?

    Саме це є одним з великих переваг цього програмного забезпечення, оскільки, хоча проект, який ми хочемо проаналізувати, має сотні або навіть тисячі URL-адрес, ви можете зробити це без проблем.

    Крім того, всі ці дані можна витягти до електронної таблиці Excel , щоб працювати з ними на вашому пристрої, навіть якщо у вас немає підключення до Інтернету в будь-який момент часу.

    Все це буде сказано Фран Мурільо (професор курсу SEO на Webescuela), який у цьому 122-му гостьовий пост зробить повний огляд як керівництво або крок за кроком керівництво для цього потужного програмного забезпечення для веб-аналізу.

    Давай на неї!

    Давай на неї

    Крик Frog SEO павук на іспанській мові: найбільш повний керівництво гусеничного і On-Page аналіз

    Якщо ми говоримо про SEO, ми не можемо залишити осторонь інструменти, які роблять наш день у день, і, звичайно, якщо ми зробимо список найбільш корисних, він повинен з'явитися без сумніву.

    Ось чому в сьогоднішньому посту я спробую зробити повний і глибокий пост про нього і спробувати зробити його цікавим для всіх, хто має зацікавленість у SEO On-Page будьте обережні

    Залишайтеся до кінця і домінуйте в жабі!

    ► Початкові міркування перед використанням інструмента

    Якщо вступ до використання інструменту переконав вас, настав час його одержати.

    Для цього потрібно вибрати один з двох варіантів:

    Якщо у вас є сумніви щодо відмінностей між обома версіями, я рекомендую вам перейти це посилання , так що ви можете завантажити версію, яка вам найбільше підходить.

    Перші кроки з криком жаба SEO павук

    Після перегляду попереднього відео-підручника , я припускаю, що ви вже зробили з новою ліцензією, і я впевнений, що ви вже з нетерпінням чекаєте дати йому постріл, однак, перш ніж почати з цього, ми збираємося зробити ряд змін.

    З одного боку, давайте подивимося більш детально, як працює інтерфейс цієї програми, просто відкрийте її (в даний час я використовую останню версію 9.2): \ t

    2): \ t

    Як ви бачите, це чистий і дуже інтуїтивно зрозумілий інтерфейс, у ньому ви можете побачити головне меню і ряд вкладок нижче. Він також має бічну панель праворуч і, нарешті, поле вводу нашої URL-адреси.

    Легко, чи не так?

    У всякому разі, ви вже знаєте інтерфейс інструменту, тепер давайте підемо в його конфігурацію.

    Перш ніж виконати сканування , перейдемо до "конфігурації" у верхньому меню:

    У розділі "Основні" ви можете вибрати, що ви хочете, щоб crawly кричала жаба.

    Це не обов'язково, що ви берете абсолютно все, насправді, щоб прискорити аналіз дуже великих веб-сайтів я рекомендую вам видалити зображення, Javascript і CSS.

    Тут ви також можете вибрати, чи хочете ви слідувати за посиланнями nofollow , проаналізувати канонічні, субдомени та інші цікаві фактори, які ми розглянемо в цій статті.

    У межах є не багато щоб побачити, дійсно єдиний я використав являє собою " Границю Обмеження Crawl ". За допомогою нього можна вказати максимальну глибину, в якій ви будете шукати.

    Якщо, наприклад, ви помістіть номер 3, інструмент буде сканувати лише до розділів, які знаходяться на 3 кліки від домашньої сторінки.

    Якщо, наприклад, ви помістіть номер 3, інструмент буде сканувати лише до розділів, які знаходяться на 3 кліки від домашньої сторінки

    У цьому пункті "Додатково" ви знайдете різні варіанти:

    • Що таке куки? Добре, якщо сайт, який ви збираєтеся проаналізувати, потребує прийняття файлів cookie, вам доведеться його позначити.
    • Поважайте noindex, canonical і next / prev - це параметри, які дозволять зробити ваш звіт не включеним до цих параметрів (наприклад, він не буде включати сторінки в noindex).
    • Інші різноманітні конфігурації.

    Коротше кажучи, тут ви можете вибрати варіанти за своїм смаком, виходячи з того, що вам потрібно завжди.

    Нарешті, ми маємо " Налаштування " та " Візуалізація ". У цьому випадку в першому ми можемо вказати такі речі, як пікселі цілей та інші аспекти. Вам доведеться лише використовувати його, якщо він не обслуговує те, що за замовчуванням.

    У випадку "Rendering", в принципі, я завжди використовую конфігурацію, яка поставляється за замовчуванням, оскільки вона найкраще працює, за винятком дуже ізольованих випадків.

    Звичайно, ви помітили, що праворуч ви маєте невеликий випадаючий список з додатковими опціями, може здатися, що він трохи розставлений, але також дає цікаві дані.

    Звичайно, ви помітили, що праворуч ви маєте невеликий випадаючий список з додатковими опціями, може здатися, що він трохи розставлений, але також дає цікаві дані

    ● Огляд

    У розділі "Огляд" ви можете побачити загальний підсумок всього, що проаналізовано інструментом "Кричаща жаба".

    Тобто, він служить для виявлення помилок "обведення" .

    ● Структура сайту

    У розділі структури сайту ви побачите невеликий план, який допоможе вам побачити глибину вашого сайту дуже візуально.

    У цьому випадку це мій блог » Робота виконана Це невелика веб-сторінка, але якщо ви розмістите трохи більшу електронну комерцію, ви побачите, що глибина набагато більша.

    ● Час відгуку

    Ви вже знаєте, наскільки важливим є час завантаження у всьому, що пов'язано з SEO, і навіть з користувачем, тому зручно знати швидкість завантаження всіх ваших сторінок.

    Правда полягає в тому, що з Screaming Frog SEO Spider у вас це дуже просто, оскільки в цій вкладці ви побачите дуже візуальну графіку, яка допоможе вам оцінити навантаження всього вашого веб-сайту.

    ● API

    У цьому розділі ви можете побачити API, які ви розмістили у верхньому меню. Пам'ятайте, що у вас є Analytics, Ahrefs, Moz і багато іншого.

    Особисто я не використовую їх у всіх аналізах, але це завжди добре, тому що вони надають набагато більше додаткової інформації.

    »Вас також можуть зацікавити: Що таке REST API WordPress і як його застосувати у своїх цифрових проектах?

    У нижній частині інструмента можна знайти меню, подібне до наведеного нижче знімку вікна:

    У нижній частині інструмента можна знайти меню, подібне до наведеного нижче знімку вікна:

    При аналізі веб-сторінки дуже корисно, як ви можете використовувати її:

    • Інформація про URL : тут ви можете побачити багато інформації, наприклад, статус, URI, тип перенаправлення, вага тощо.
    • Inlinks : ви побачите внутрішні посилання, їх джерело, їх призначення, якірний текст, і ви будете знати, чи є вони наступними або не слідувати.
    • Outlinks : як у inlinks ви побачите їх джерело, призначення, якірний текст і слідувати або не слідувати.
    • Інформація про зображення : ви дізнаєтеся джерело, посилання вкладеного файлу та альтернативний текст.
    • SERP Snippet : зразок того, як ця сторінка виглядає в SERP Google.

    Коротше кажучи, це підменю дуже корисно для ретельного аналізу кожного URL.

    Як провести «просте повзання» з кричащою жабою?

    Інструмент полегшив повне сканування сайту.

    Це надзвичайно інтуїтивно, але це не заважає їй бути корисним. Тому в наступних пунктах ми побачимо дані, які можна отримати з цього програмного забезпечення.

    ► Сканування повного веб-сайту

    У цьому випадку ми хочемо зробити аналіз повного сайту, щоб отримати його, ми введемо URL-адресу в поле, яке ми бачимо в захопленні.

    Крім того, оскільки я хочу, щоб сканування тривало якомога менше, я видалив CSS, Javascript та інші опції, які на даний момент не цікавлять мене.

    Крім того, оскільки я хочу, щоб сканування тривало якомога менше, я видалив CSS, Javascript та інші опції, які на даний момент не цікавлять мене

    Важливо також сказати, що я видалив зовнішні посилання і що додав опцію " сканувати всі субдомени ", щоб інструмент міг також відстежувати їх.

    Через кілька хвилин, які були довгими, у мене з'явився результат аналізу мого блогу:

    За допомогою цього інструменту ви вже зробили свій перший аналіз. Як ви можете бачити, Screaming Frog вже відповідає за сканування всього мого веб-сайту, знаходячи різні URL, які він має.

    �� Як виключити та включити сторінки для сканування?

    Ця функціональність Screaming Frog, безсумнівно, дуже цікава, вона може допомогти вам скоротити час аналізу та оптимізувати дані набагато більш чітким способом.

    Давайте подивимося, як це можна зробити самостійно, за допомогою регулярних виразів:

    ● Виключення

    Можливо, функціональність "жаби", яку я використовую найбільше, є виключенням, оскільки ми говорили, що вона працює регулярними виразами.

    Щоб налаштувати виключення, потрібно перейти до розділу " Конфігурація> Виключити ", і вам буде стягнуто плату за таким розділом:

    Щоб налаштувати виключення, потрібно перейти до розділу  Конфігурація> Виключити , і вам буде стягнуто плату за таким розділом:

    У ній вам доведеться розміщувати свої вирази. Тут є кілька прикладів того, що можна виключити (взяті з вашої власної сторінки):

    • Параметри : якщо, наприклад, ви не бажаєте включати такі параметри, як ціна, нумерація сторінок та інші, ви можете зробити це так: * Ціна.
    • Категорії : сканування категорій також можна видаляти так: http://example.com/.*/brand.*

    Цей тип виключень можна виконати за вашим бажанням, дотримуючись інструкції з регулярних виразів. Тут у вас є більше прикладів.

    ● Включення

    Це дуже корисно для вказівки платформі, які URL-адреси ми хочемо проаналізувати, загалом може бути добре проаналізувати лише одну область Інтернету.

    Тим не менш, він має недолік, який є логічним, і полягає в тому, що щоб знайти сторінки з регулярним виразом, потрібно розпочати сканування сторінкою, яка пов'язує її.

    ► Як виконувати конкретні результати?

    Ця проблема може статися, пам'ятайте, що Крикнуча Жаба SEO Павук є сканером, але можливо, що, наприклад, ви просто хочете отримати канонічні, цілі або будь-які інші дані з деяких конкретних сторінок.

    У цьому випадку ви можете скопіювати їх у txt або безпосередньо вставити, оскільки інструмент виконує свою роботу. Це дуже просто, потрібно просто перейти в режим " Режим " у верхньому меню і змінити опцію списку.

    Це дуже просто, потрібно просто перейти в режим  Режим  у верхньому меню і змінити опцію списку

    Ви побачите щось подібне до попереднього захоплення, вибравши селектор завантаження, у якому можна вибрати:

    1. Додайте з документа.
    2. Вставте список.
    3. Введіть їх вручну.
    4. Завантажте їх із файлу Sitemap.

    Ви вибираєте, який з них вибрати, але ви бачите, що це дуже просто, так?

    �� Як змінити «користувальницький агент» або сканувати через проксі?

    Можливо, що з тієї чи іншої причини потрібно змінити користувача-агент .

    Головним чином це може бути тому, що мережа заблокувала сканер крикувальної жаби, який приходить за замовчуванням.

    Головним чином це може бути тому, що мережа заблокувала сканер крикувальної жаби, який приходить за замовчуванням

    У цьому випадку можна вибрати Googlebot, Googlebot для мобільних пристроїв та інші параметри, які ви бачите під час захоплення; потрібно лише перейти до " конфігурації> user-agent " і вибрати те, що вам найбільше підходить.

    ► Як створити sitemap.xml з кричущим жабом SEO Spider?

    Файл Sitemap служить для вказівки Google, на яких сторінках вона повинна проходити, тому наявність добре оптимізованої карти сайту є надзвичайно важливим.

    Щоб створити його, потрібно перейти до головного меню в розділі Sitemaps і натиснути кнопку Створити мапу сайту:

    Щоб створити його, потрібно перейти до головного меню в розділі Sitemaps і натиснути кнопку Створити мапу сайту:

    Дотримуйтесь кроків, які з'являються в різних вкладках, і Screaming Frog створить карту сайту, готову до завантаження на ваш сайт.

    PS: У випадку, якщо ви вже створили і ви просто хочете перевірити, що він працює добре, ви повинні тільки зберегти його і завантажити його в режимі списку.

    Як ми можемо збільшити пам'ять Screaming Frog на комп'ютері Mac?

    Хоча це правда, що Screaming Frog не є інструментом, спеціально створеним для сканування величезних сайтів, правда в тому, що ця робота велика.

    Однак, залежно від конфігурації комп'ютера, ви не можете скористатися всіма вашими "chicha" .

    За замовчуванням Screaming Frog використовує 512 МБ , і що для досить великого сайту дуже мало, так як користувач Mac, все, що вам потрібно зробити, це перейти в "Термінал" (ви можете зробити це в пошуку) і написати наступний рядок:

    за замовчуванням напишіть uk.co.screamingfrog.seo.spider Пам'ять XX

    У XX ви повинні помістити пам'ять, яку ви хочете виділити, наприклад 2g (2 гігабайти) або 2048m (2 мегабайта).

    Крик Frog SEO Spider також допомагає оптимізувати вміст

    Як ви бачили, що інструмент Screaming Frog є дуже необхідним в будь-якій стратегії позиціонування в Інтернеті, давайте подивимося тепер, як ми можемо оптимізувати свій вміст, дотримуючись його рекомендацій.

    Просто подивіться на основну панель інструменту, є багато стовпців, які служать для показу даних. Далі ми побачимо всі ті, що мають відношення до вмісту:

    ► Внутрішній

    Це головна вкладка і збирає більшу частину інформації, яку надає нам цей інструмент.

    1. Код статусу : це допоможе вам дізнатися, якщо сторінка OK (200), вона перенаправлена ​​(3XX), якщо вона дає помилку (4XX) ...
    2. Назва та опис : ви побачите заголовки та описи разом з їх довжиною та їхніми пікселями.
    3. Заголовки : це також означає, що використовуються H1 та H2, а також їх довжина.
    4. Мета-роботи : ви побачите, чи є ваші мета-роботи noindex, nofollow і т.д.
    5. Canonical : ви можете бачити, де канонічна точка простого погляду, а також у бічній панелі розповідає вам відсоток URL-адрес без канонічного.
    6. Розмір : вага сторінки в байтах.
    7. Співвідношення слова / текст : кількість слів і коефіцієнт тексту.
    8. Глибина сканування : вона допомагає побачити глибину кожної сторінки.
    9. Inlinks : ви побачите кількість внутрішніх посилань, також єдині в наступному стовпці.
    10. Посилання : ви побачите вихідні посилання на інші внутрішні сторінки.
    11. Зовнішні посилання : в цьому випадку можна побачити зовнішні посилання , до інших сторінок інших.
    12. Хеш : це кодування, яке використовується для ідентифікації сторінки і відрізняє її від інших.
    13. Час відгуку : як видно з його назви, ви побачите час, необхідний для відповіді на кожну сторінку.

    Маючи це на увазі, ви вже знаєте, як аналізувати багато речей на вашому сайті.

    Якщо потрібно експортувати якийсь документ, ви можете зробити це простим способом, як у кнопці експорту у верхньому лівому куті, так і в меню.

    Ми побачимо далі в розділі звітів.

    ► Зовнішній

    Ця точка майже така ж, як попередня, але в зворотному напрямку. Замість того, щоб говорити про URL і внутрішні посилання, ви побачите інформацію від зовнішніх.

    Особисто я використовую цю функцію для вилучення зовнішніх посилань, які дають перенаправлення або помилку, я не люблю погано пов'язувати зовнішні домени, тому саме тому я маю це на увазі.

    Після того, як я знайду посилання для хворих, я змінюю їх вручну і готовий, до іншого завдання.

    ► Протокол

    Тут ви можете побачити сторінки з http і https, ця точка особливо корисна, якщо ви внесли зміни до SSL. Просто, правда?

    ► Коди відповіді

    Коди відповідей - це відомі номери 3xx, 4xx та інші. З цим пунктом ви маєте це легко, все що є не 200 має щось незвичайне, таким чином ви повинні поглянути та перегляньте причину чому це виглядає так.

    Априорі нормально мати кілька 3хх або 4хх, просто проаналізувати результати і шукати рішення.

    Ніяких неприємностей!

    ► URI

    Точка URI цікава, хоча правда в тому, що якщо ви використовуєте WordPress , ви повинні мати більшість очок правильно. На наведеному нижче знімку вікна можна побачити випадки, які можна надати:

    Як ви можете бачити, ви можете перевірити, чи має урі якісь дивні символи, якщо він має низькі бари, великі літери, дублікати, URL-адреси з параметрами і, нарешті, URL-адреси з більш ніж 115 символами.

    Це деталі, які необхідно перевірити, щоб переконатися, що вони хороші, і завдяки Screaming Frog ви можете зробити це з першого погляду.

    На цьому етапі ви можете побачити декілька характеристик ваших назв і описів.

    Заголовки та описи порожні, дубльовані, занадто довгі, надто короткі і так далі. Завдяки цьому ви можете зробити помилки навалом і вирішити їх швидко і легко.

    ► Заголовки

    Ви також можете отримати хороші деталі заголовків H1 і H2, при цьому ви отримаєте наступну інформацію:

    Порожні, повторювані, довгі та кілька заголовків. У випадку Н2 ця множинна точка не є проблемою. Насправді це позитивно, тому не хвилюйтеся.

    ► Зображення

    Зображення є однією з головних помилок більшості веб-майстрів, з одного боку у нас є вага, який, якщо не оптимізований, може зробити ваш сайт "повільніше, ніж кінь поганого хлопця".

    З іншого боку, оптимізація фотографій, фактор, через який проходять багато людей.

    З іншого боку, оптимізація фотографій, фактор, через який проходять багато людей

    З його допомогою можна бачити зображення вагою більше 100 кб, ті, які не мають альтернативного тексту і, нарешті, ті, які містять занадто довгий альт.

    Цей звіт є важливим, тому що, як я вже сказав, зображення у великій кількості забуті в SEO багатьох веб-сайтів.

    »Вас також можуть зацікавити: Як зменшити розмір або стиснути фотографії без втрати якості зображення?

    ► Директиви

    На цьому етапі можна також отримати дуже важливу інформацію для оптимізації вашого веб-сайту:

    З одного боку, ви побачите канонічне , щось дуже важливе в SEO. Зручно, що ви переглядаєте це, хоча в цьому випадку, якщо у вас WordPress, ви також можете бути спокійніше.

    Решта директив наступні / попередні, noindex і nofollow. Ця вкладка надає релевантну інформацію про ці моменти, які можна використовувати для покращення сторінки "На".

    ► Hreflang

    Hreflang використовується для позначення Google на різних мовах , в цьому випадку Screaming Frog також допоможе вам побачити, чи на вашому сайті все правильно розміщено.

    ► API

    Якщо ви введете API різних інструментів, з якими асоціюється Screaming Frog, ви можете отримати більш просунуті дані.

    Можливі платформи:

    Я рекомендую вам спробувати розмістити їх, принаймні, щоб зробити тест один раз і мати повні дані.

    Побачити дані в інструменті чудово, але якщо це правда, що перед клієнтом, то потрібно генерувати прості і більш наочні звіти, за допомогою яких можна переконати вас приймати найкращі рішення.

    Ось чому я не міг пропустити невелику точку, де ви говорите про вилучення звітів, у цьому випадку, спочатку для inlinks:

    Внутрішні посилання

    На цьому етапі можна завантажити кілька звіту:

    1. Посилання на сторінку.
    2. Посилання зі сторінки.
    3. Якірний текст внутрішніх посилань.

    Це буде так само просто, як ви йдете в верхнє меню, "об'ємний експорт" і оберіть один з перших трьох варіантів. Ви завантажите файл Excel у форматі "csv", і ви можете керувати ним безпосередньо в програмі.

    Зображення

    Перед тим, як ми сказали, що зображення мають велике значення, тому ви можете експортувати цей тип звітів одним клацанням миші.

    1. Зображення без alt.
    2. Зображення з більш ніж 100kb.
    3. Всі зображення

    Це дуже корисно, коли ваш клієнт запитує вам щось подібне:

    Що я можу покращити на сторінці "На сторінці" свого веб-сайту, щоб зробити його швидше?

    Завдяки цій платформі, ви отримаєте все в кліках ... і "інша річ метелика".

    Зовнішні посилання

    У Screaming Frog є також місце для зовнішніх посилань, ви можете експортувати документ з усіма посиланнями на інші домени, тому поділіть їх кодом відповіді або чим завгодно.

    Хоча цей аналіз може бути зроблений безпосередньо в інструменті, може бути цікаво експортувати його до електронної таблиці, особливо якщо говорити про великий веб-сайт.

    Коди відповідей

    Знання кодів відповіді дуже важливе в SEO, тому іншим ключовим використанням Screaming Frog є це. Серед звітів, які ви можете отримати, є такі:

    1. Заблоковано файлом Robots.txt
    2. Немає відповіді
    3. 200OK
    4. Перенаправлення 3XX.
    5. Перенаправлення Javascript або metarefresh.
    6. Помилка 4XX.
    7. Помилка сервера 5XX.

    Директиви

    Директиви, які ми бачили раніше, найбільш актуальними для мене, є канонічними, але ви можете витягти будь-які з тих, які ми бачили в попередньому захопленні.

    Звіти

    Ще одним пунктом меню, що дуже важливо, є розділ звітів, в якому можна завантажити багато додаткових даних.

    1. Резюме сканування.
    2. Канонічні помилки.
    3. Перенаправлення ланцюгів.
    4. Помилки prev / next.
    5. Hreflang
    6. Небезпечний вміст

    Як бачите, можна експортувати багато речей.

    Тепер ми детально побачимо, як можна використовувати спеціальні фільтри.

    Безсумнівно, це дві дуже цікаві особливості, крім того, що пояснюють, що таке "Користувальницький пошук та користувальницьке вилучення", я покладу кілька прикладів, які роз'яснять вас набагато більше, але спочатку ми побачимо, з чого складається кожен випадок.

    Гей! Я майже забув, їх можна знайти у верхньому меню в розділі "Конфігурація> Користувальницькі" .

    ► Індивідуальний пошук

    Який пошарпаний переклад я позначив. Eh? У всякому разі, жарти в сторону, ця функція дозволить вам знайти майже все, що в вихідному коді веб-сторінки.

    На відміну від пошуку, у цьому випадку це дозволить вам витягти дані для вас. Очевидно, для того, щоб сторінка працювала, ви повинні дати код 200, оскільки в іншому випадку ви не зможете його прочитати.

    Якщо ви, як і я, ви не дуже технічні, ви можете не зрозуміти цього, але я скажу вам, що формати, які ви читаєте, такі:

    1. XPath, включаючи атрибути.
    2. Шлях CSS і додатково атрибути.
    3. Регулярні вирази

    Не переходячи далі, давайте на практиці побачимо, як ми можемо використовувати цей тип пошуків і вилучень:

    ● Як дізнатися, чи працює код Analytics на всіх сторінках?

    Вимірювання є дуже важливою частиною SEO і для того, щоб переконатися, що ви все добре вимірюєте, бажано знати, чи всі сторінки мають код Analytics або Tag Manager.

    Це можна легко перевірити за допомогою пошуку:

    Це можна легко перевірити за допомогою пошуку:

    Ви поміщаєте код Analytics і "Не містить" і повторно виконуєте сканування. Там ви побачите інформацію про те, чи вона розміщена на всіх сторінках чи ні.

    ● Витягніть певну інформацію (наприклад, SKU)

    Якщо ви хочете отримати конкретні дані з вашого блогу або вашої електронної комерції, наприклад, SKU продуктів, ви можете зробити це дуже легко.

    Перше, що потрібно зробити, це перейти на сторінку з SKU, клацнути правою кнопкою миші та вибрати "inspect item". Там в інспекційній консолі знову клацніть праворуч і ви будете "копіювати> копіювати xpath".

    Тепер, коли у вас є, ви повернетеся до " Screaming Frog> Configuration> Custom> Extraction ", і з'явиться щось подібне:

    Тепер, коли у вас є, ви повернетеся до  Screaming Frog> Configuration> Custom> Extraction , і з'явиться щось подібне:

    Скопіюйте дані xpath у другий стовпець і оберіть xpath у параметрах. Готовий, поверніться до сканування, і ви готові:

    Готовий, поверніться до сканування, і ви готові:

    Всі дані з'являться в головній консолі. Легко, чи не так?

    Коротше кажучи, ми вже бачили два варіанти користувальницького вилучення і пошуку Screaming Frog, я впевнений, ви можете подумати про те, що ви можете зробити з цими функціями.

    Дайте його кокосу!

    Останні сумніви і висновки про інструмент

    Я сподіваюся, що ця стаття допомогла вам краще зрозуміти, як можна використовувати Screaming Frog для поліпшення SEO всього вашого веб-сайту.

    Бачачи цей мегапідручник, в моїй голові все стало зрозумілішим, і я сподіваюся, що і в вас теж, бо правда в тому, що я все залишив тут.

    Однак, можливо, у вас виникли сумніви, тому я з задоволенням відповім вам за допомогою коментарів, і якщо вам сподобається, я також подякую вам за ваш коментар!

    У всякому разі, перш ніж попрощатися, пам'ятайте, що Screaming Frog - відмінний інструмент, який може допомогти вам зробити багато чого.

    Тепер від вас залежить, чи використовувати його і дати їй нові можливості на основі того, що обговорювалося сьогодні.

    Які особливості Screaming Frog SEO Spider ви найбільш корисні для вашого проекту?

    Зображення ( Ракета ) власність Freepik.

    Велике спасибі за те, що ковтали всю посаду, яка часом була досить щільною.

    Що таке "Screaming Frog" і як ви можете мені допомогти?
    Чи може "Screaming Frog" проаналізувати кожну з URL-адрес сайту незалежно від того, наскільки велика вона ?
    ?� Як змінити «користувальницький агент» або сканувати через проксі?
    Xml з кричущим жабом SEO Spider?
    Як ми можемо збільшити пам'ять Screaming Frog на комп'ютері Mac?
    Чи можете ви уявити собі інструмент, який може автоматично аналізувати тисячі URL-адрес?
    И не так?
    Чи може "Screaming Frog" проаналізувати кожну з URL-адрес сайту незалежно від того, наскільки велика вона ?
    Як провести «просте повзання» з кричащою жабою?
    ?� Як виключити та включити сторінки для сканування?

     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»