Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Действительно простые пользовательские извлечения для повышения эффективности электронной коммерции в SEO

    1. Основы
    2. Использование XPath
    3. Тонкие категории
    4. Проверка уровня запасов товара
    5. Дублированный контент
    6. Реализация GA
    7. Количество отзывов / Оценка по отзывам

    Важно: в этом руководстве мы приведем несколько примеров обхода отдельных страниц. Пожалуйста, НЕ КРАЙТЕ ВСЕ САЙТЫ, если у вас нет разрешения от владельца сайта.

    Для любого технического SEO-проекта необходимы инструменты сканирования. Это просто лучший способ собрать большие объемы данных о вашем сайте и определить ключевые проблемы и возможности, и они значительно облегчают нашу работу.

    Наши любимые инструменты для сканирования DeepCrawl , для глубины анализа и интуитивно понятного интерфейса, и Кричащая лягушка , за его скорость и простоту использования. Оба тезиса включают в себя специальные инструменты для извлечения, которые могут предоставить широкий спектр потрясающих идей для вашего сайта. Это особенно полезно для крупных сайтов электронной коммерции, на которых мы сосредоточимся здесь, где ручные проверки не всегда осуществимы.

    В этой статье мы хотим поделиться некоторыми из наших любимых пользовательских извлечений с простыми руководствами о том, как сделать их с небольшим количеством знаний HTML.

    Хотя это руководство предназначено для начинающих, мы надеемся, что найдется что-то, что могут убрать все оптимизаторы.

    Основы

    Давайте начнем с абсолютных основ, спросив: «Что такое пользовательское извлечение?»

    Не волнуйтесь, это не имеет никакого отношения к дантисту. Вместо того, чтобы описать это, давайте дадим вам краткий курс о том, как его использовать.

    В верхней части этой страницы отображается приблизительное время чтения . Если вы хотите сканировать сайт и сортировать статьи по времени их чтения, вы можете это сделать. В Google Chrome щелкните правой кнопкой мыши время чтения и нажмите «Проверить». Вы увидите код для текста, как показано ниже:

    <span class = ”readTime” title = ”8 минут чтения”> </ span>

    Важно: в этом руководстве мы приведем несколько примеров обхода отдельных страниц

    Для запуска в Deepcrawl перейдите к «Настройки> Дополнительно> Извлечение» в отчете веб-сайта. Нажмите «New Extraction» и добавьте « <span class =» readingTime »title =» (. *?) »> </ Span> ' в настройках, как в примере ниже:

    ) »> </ Span> ' в настройках, как в примере ниже:

    (. *?) - это то, что делает эту работу; это скажет вашему сканеру найти текст, содержащийся внутри.

    После завершения сканирования перейдите в нижнюю часть боковой панели на странице отчетов и выберите «Извлечение> Пользовательское извлечение> [имя извлечения]», чтобы найти результаты.

    Чтобы выполнить это извлечение в Screaming Frog, перейдите в «Конфигурация -> Пользовательский -> Извлечение», как на скриншоте ниже:

    Чтобы выполнить это извлечение в Screaming Frog, перейдите в «Конфигурация -> Пользовательский -> Извлечение», как на скриншоте ниже:

    Выберите «Regex» в первом выпадающем меню и введите <span class = «readingTime» title = »(. *?)»> </ Span> в поле, как на следующем снимке экрана.

    )»> </ Span> в поле, как на следующем снимке экрана

    Затем просканируйте эту страницу. Давай, сделай это!

    После завершения нажмите на вкладку «Пользовательский» и выберите «Извлечение» из выпадающего меню. Там вы можете увидеть время чтения выбранной страницы.

    Просто как тот! Существует несколько возможных применений этого инструмента: от поиска страниц в блоге, написанных конкретным автором, до назначения определенных ссылок.

    Использование XPath

    Альтернативой использованию фрагментов регулярных выражений в Screaming Frog является копирование XPath элемента HTML. Если щелкнуть правой кнопкой мыши текст в Chrome и нажать «Проверить», появится код. Щелкните правой кнопкой мыши по соответствующему тегу HTML, затем «Копировать -> XPath».

    Щелкните правой кнопкой мыши по соответствующему тегу HTML, затем «Копировать -> XPath»

    Затем вставьте в поле Custom Extraction в Screaming Frog, выбрав «Xpath» из выпадающего меню:

    Основным преимуществом использования XPath является то, что копируемый элемент не обязательно должен быть уникальным. Например, если вы хотите скопировать <div>, но у него нет класса, он все равно будет работать. Недостатком является то, что иногда XPath может варьироваться от страницы к странице, даже если он является частью шаблона.

    Поскольку это руководство предназначено для начинающих, остальные примеры используют в основном примеры регулярных выражений. Тем не менее, не стесняйтесь поиграть с XPath, поскольку он может быть намного более мощным, если все сделано правильно.

    Тонкие категории

    Одной из больших проблем для сайтов электронной коммерции является отслеживание тонких или пустых категорий. Если на вашем веб-сайте имеется большое количество категорий, в которых мало продуктов или их нет, поисковые системы могут расценивать это как признак плохого взаимодействия с пользователем.

    Слишком много этих страниц может привести к ухудшению рейтинга в поисковых системах и уровня конверсии. Использование простого пользовательского извлечения может помочь контролировать эти страницы, чтобы обеспечить здоровую архитектуру веб-сайта, которая приносит пользу пользователю.

    Посмотрите на этот пример от Tesco. Страница отображает количество товаров в категории в левом верхнем углу, как на скриншоте ниже:

    Страница отображает количество товаров в категории в левом верхнем углу, как на скриншоте ниже:

    Примечание. Это часто встречается на многих сайтах электронной коммерции. Если у вас это не отображается, стоит обратиться к вашим веб-разработчикам.

    Вы можете легко узнать, сколько товаров в каждой категории, создав пользовательское извлечение для этого элемента.

    Для этого примера требуется регулярное выражение <div class = ”filter-productCount”> (. *?) </ Div>, которое можно получить с помощью метода, описанного ранее, на основе кода на скриншоте ниже:

    ) </ Div>, которое можно получить с помощью метода, описанного ранее, на основе кода на скриншоте ниже:

    Сканирование с использованием этого извлечения поможет вам определить, сколько продуктов входит в каждую категорию, что позволит вам проверить вашу общую архитектуру и решить, нужно ли удалять какие-либо страницы. Поскольку тонкие страницы могут негативно повлиять на производительность SEO, возможно, стоит удалить категории, содержащие мало продуктов или вообще не содержащие их.

    В качестве альтернативы, категории, содержащие большое количество продуктов, могут предоставить возможность расширить веб-сайт, создать новые подкатегории и повысить общую органическую видимость.

    Проверка уровня запасов товара

    Жизненно важно, чтобы пользователи могли покупать продукты, которые они видят, чтобы они не пытались найти такой же продукт в другом месте. Хотя для веб-сайта совершенно не хватает определенного продукта, необходимо быть осторожным, чтобы он не захватил сайт.

    Для этого примера пример состояния запаса показан на снимке экрана ниже:

    Будьте осторожны, некоторые веб-сайты будут использовать другой код HTML в зависимости от того, есть ли товар в наличии. В этом примере нам нужно будет одновременно запустить 2 отдельных извлечения с использованием следующих запросов регулярных выражений:

    В этом примере нам нужно будет одновременно запустить 2 отдельных извлечения с использованием следующих запросов регулярных выражений:

    <p class = ”доступность отсутствует”> <span> (. *?) </ span> </ p>

    <p class = ”наличие на складе”> <span> (. *?) </ span> </ p>

    Используя оба извлечения вместе, вы получите список всех продуктов, которые есть в наличии или нет в наличии. Слишком много товаров, отсутствующих на складе, могут сигнализировать о некачественном сайте и могут негативно сказаться на вовлеченности пользователей и поисковом рейтинге. Если большой процент товаров отсутствует на складе, может возникнуть необходимость удалить любые товары, которые вряд ли вернутся на сайт.

    Дублированный контент

    Одной из распространенных проблем на веб-сайтах электронной коммерции является дублирование описаний продуктов на нескольких страницах. Это действительно распространено, когда есть несколько похожих продуктов, доступных в разных размерах, стилях или цветах. Этого следует избегать, но это может быть трудно отслеживать на крупных сайтах.

    DeepCrawl имеет встроенную функцию, которая может найти дубликат контента для вас. Однако, если вы хотите получить результаты для определенной области страницы (например, описания продукта) или проверить наличие близких совпадений, рекомендуется выборочное извлечение определенной области текста.

    Для этого примера я использовал страницу продукта из Pottery Barn ниже:

    Для этого примера я использовал страницу продукта из Pottery Barn ниже:

    Мы хотим проверить выделенный текст на предмет дублирования на сайте. Используя Inspect Element, мы знаем, что текст содержится в следующем коде:

    Используя Inspect Element, мы знаем, что текст содержится в следующем коде:

    Поэтому мы хотим запустить пользовательское извлечение для следующего регулярного выражения:

    <div class = ”accordion-tab-copy”> (. *?) </ div>

    После завершения используйте Excel, чтобы найти дубликаты или используйте нечеткий поиск найти близкие совпадения. Если значительное количество продуктов использует дублированный или шаблонный контент, стоит проверить их эффективность поиска, чтобы определить, не мешают ли они.

    Если вы найдете множество продуктов с одинаковыми или похожими описаниями, скорее всего, они выиграют от объединения в меньшее количество настраиваемых продуктов. Они позволяют пользователю выбирать свой размер или цвет на одной странице, а не переходить между страницами разных продуктов.

    Реализация GA

    Если вы используете Google Analytics (доступны другие инструменты отслеживания), крайне важно, чтобы код отслеживания присутствовал на каждой странице. К счастью, есть ДЕЙСТВИТЕЛЬНО простой фрагмент кода регулярного выражения, который вы можете использовать для проверки этого:

    (UA- [0-9] + - [0-9] +)

    Если вы используете DeepCrawl, это на самом деле один из предустановленных параметров, который делает его еще проще.

    Если вы используете DeepCrawl, это на самом деле один из предустановленных параметров, который делает его еще проще

    Кроме того, тот же код будет работать в Screaming Frog. Если есть какие-либо страницы с отсутствующим кодом отслеживания, в отчете будет отображаться пустая строка. Очень просто.

    Количество отзывов / Оценка по отзывам

    Отзывы - это отличный способ повысить коэффициент конверсии или рейтинг кликов, если ваши структурированные данные настроены правильно. Если у вас есть большое количество отзывов на сайте, выборочное извлечение может быть эффективным способом поиска областей сайта, в которых количество обзоров низкое или плохое. После того, как список проблемных продуктов будет определен, можно разработать стратегию, чтобы побудить клиентов оставлять положительные отзывы в более важных областях.

    Большинство веб-сайтов отображают свои оценки по-разному, поэтому поиграйте с вашим сайтом и посмотрите, как лучше всего реализовать ваш код регулярного выражения.

    Для этого примера обзор отображается на веб-сайте, как показано ниже:

    Для этого примера обзор отображается на веб-сайте, как показано ниже:

    В этом фрагменте, используя элемент inspect, мы узнали, что количество обзоров содержится в <p class = ”rating-links”> (. *?) </ P> . Оценочный балл генерируется с использованием <div class = ”rating” style = ”width: 93%”>, где 93% - это средний балл, который затем преобразуется в звездный рейтинг. Поэтому мы можем использовать регулярное выражение <div class = ”rating” style = ”width: (. *?)”>, Чтобы получить среднюю оценку отзыва для каждого продукта.

    Это всего лишь несколько способов, которыми мы используем пользовательские извлечения в We Influence, но вы можете с ними сделать невероятную сумму, чтобы улучшить SEO и эффективность конверсии вашего сайта. Если у вас есть свои идеи для пользовательских извлечений или вам нужна помощь в их настройке, то дайте нам знать ,


     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»