- Що таке пошукові алгоритми?
- Загальні принципи роботи пошукових систем
- Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?
- Алгоритми роботи Google: огляд останніх апдейтів
- панда Google
- Корисна стаття по темі: Створити Robots.txt - просто, як 2х2 .
- пінгвін Google
- Колібрі Google
- Алгоритми роботи Yandex: огляд останніх апдейтів
- Палех Yandex
- Може зацікавити стаття: Які бувають ключові слова і як їх гармонійно вписати до статті?
- Баден-Баден Yandex
- Корольов Yandex
- Відмінності в роботі алгоритмів Google і Yandex
- Читайте також: Купівля вічних посилань: 4 кроки від хаосу до порядку .
- Корисна стаття по темі: Чек-лист для перевірки тексту на «профпридатність»: вичитка, редагування,...
Усім читачам блогу привіт, рада нашої нової зустрічі! Відразу уявімо ситуацію: ви проводите SEO-оптимізацію сайту або пишіть продають тексти, а може ваш сайт потрапив під фільтри Google і Yandex? Все це нерозривно пов'язано з алгоритмами роботи Google і Яндекс. Зрозуміти суть мислення пошукових машин - вірний шлях до того, щоб ваш сайт, стаття перенеслися в ТОП-видачі та уникли фільтрації пошукових систем.
Тому сьогодні пропоную зупинитися саме на цій актуальній темі і дізнатися:
- Що таке пошукові алгоритми?
- Загальні принципи роботи пошукових машин.
- Алгоритми роботи Google: огляд останніх апдейтів.
- Алгоритми роботи Yandex: огляд останніх апдейтів.
- Відмінності в роботі алгоритмів Google і Yandex.
- Поради: що потрібно змінити на своєму сайті в 2018 році?
Давайте приступати до вивчення? Мені на підготовку статті знадобилося 28 годин і 15 авторитетних джерел, у вас завдання набагато простіше - прочитати матеріал (8 хв), можна додати його в закладки (1 сек) і користуватися (необмежену кількість часу).
Що таке пошукові алгоритми?
За традицією починаємо з теорії, в кінці, як водиться, практичні поради від Textum як оптимізувати свій сайт під реалії 2018 г. Але не будемо забігати вперед, йдемо по порядку:
Пошуковий алгоритм дозволяє пошуковим системам у відповідь на запит користувачів видавати релевантні (відповідні) запиту результати.
Уявляєте, який був би хаос в інтернеті, якби даної системи просто не було? Ви пишіть запит купити спідницю, а вам видає портал з автодеталями.
Сьогодні це здається смішною і нереальною ситуацією. Робота пошукового алгоритму будується на аналізі безлічі факторів для оцінки цінності веб-ресурсів та їх вмісту для користувачів. З огляду на все це, роботи-пошуковики ранжируют сайти в ТОП-видачі та розподіляють сторінки на 1,2,3 ... .или останніх місцях.
Думаю, ні для кого не секрет, що алгоритми роботи пошукових систем, наприклад Google або Yandex, піддаються вивченню і це можна використовувати в своїх інтересах, наприклад, для пошукової SEO-оптимізації сайтів. Але тут все не так просто. Пошукові машини діють в інтересах користувачів, прагнуть видати на їх запити дійсно цінні матеріалу, а не сайти-пустушки з великою кількістю ключів і 0% корисної інформації. Для цього алгоритми Google, Yandex регулярно оновлюються.
Давайте спочатку розглянемо загальні принципи роботи пошукових систем, а потім вже перейдемо до алгоритмам 2-х найбільш популярних систем - Google і Yandex.
Загальні принципи роботи пошукових систем
Звичайно ж, кожен пошуковик як окрема марка авто має свої нюанси, наприклад, в машинах це стосується потужності двигуна або різниці в ходових якостях. Але є і загальні елементи, починаючи від банального - 4 колеса, закінчуючи загальними принципами управління транспортом.
Пошукові системи інтернету також мають схожі принципи роботи:
- Збір даних. Як тільки з'являється новий ресурс (про що стає відомо ботам за допомогою зовнішніх посилань, додавання сайту в аддурілку та іншого) робот відразу ж завітає в гості на сторінку. Він збирає інформацію про текстовому і візуальному контенті.
- Індексація. Сайт чи не з'явиться в пошуковій видачі, поки для сторінки не буде складено зворотний (інвертований) файл індексу. Він призначений для того, щоб по ньому швидко проводити пошук і складається зі списку слів з тексту. Після цього сайт можна буде знайти за ключовими словами на його сторінках.
- Пошук інформації. Після того як надійшов запит від користувача, наприклад, купити книгу, роботи знаходять все сторінки, які підходять під цей запит. Документи, в яких ключі найбільш підходять під запити, потрапляють в видачу Google, Yandex і т.д.
- Ранжування. Тут вже починається найцікавіше. Боротьба за місце під сонцем, тобто мета будь-якої SEO-оптимізації сайту потрапити на першу сторінку видачі. Тут має значення безліч чинників, основні з яких: вага сторінки, авторитетність домену, відповідність тексту запитам і експертність матеріалу.
Пошукові алгоритми аналізують частоту використання і розташування в тексті ключових запитів на окремій сторінці сайту. Звертають увагу на тег title.
Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?
Т. е. Якщо сторінка має таку назву, значить і матеріал повинен бути по цій темі. Також береться до уваги наявність ключів на початку сторінки (назва, H1), першому абзаці тексту.
Крім контенту веб-сторінки, оцінюються зовнішні чинники. Наприклад, поведінка користувачів. Якщо відвідувачі не перебувають тривалий час на ресурсі, при переході на нього відразу ж закривають сторінку, то боти розцінюють портал як нецікавий для інтернет-спільноти та засовують його подалі від ТОП-видачі.
Від загальних принципів роботи пора переходити до більш конкретної інформації.
Алгоритми роботи Google: огляд останніх апдейтів
Незважаючи на милі назви (типу Панди або Пінгвіна) алгоритми сучасної роботи Google дуже суворі до сайтів. Порушення або невідповідність вимогам пошукових систем призводять мінімум до зниження сторінки в рядку видачі, максимум - потрапляння під фільтр певного алгоритму і виключення сайту з видачі.
Але не лякайтеся заздалегідь, просто давайте озброїмося знаннями про роботу пошукових алгоритмів Google.
панда Google
Був запущений майже 7 років тому і з цього часу оновлюється щомісяця. Алгоритм Google під назвою Panda створений для виявлення і боротьби зі сторінками, на яких знаходиться неунікальний, спамний, наповнений великою кількістю ключів контент. Подібні веб-ресурси істотно знижують свої позиції в рейтингу ранжирування Google.
Основне завдання Панди - підвищення якості сайту.
За що карає сайти Panda:
- наявність плагіату (неунікальний даних) на сторінках;
- створення дублюючої інформації на різних сторінках одного сайту;
- наповнення сайту, переспамленное ключовими запитами;
- недостатній контент, наприклад, уривки тексту;
- автоматично сгенерированное зміст.
Останнє стосується контенту, створеного за допомогою спеціальних програм. Такі сторінки містять незв'язних текст, але з ключами для пошуку.
Що потрібно зробити, щоб не потрапити в немилість Панди:
- Перевірити унікальність змісту сайту. Перед розміщенням статей на сторінці логічно визначити унікальність матеріалу (навіть, якщо ви самостійно пишіть його, виходячи з особистого досвіду). Як це зробити читайте тут: Як перевірити унікальність тексту: огляд кращих програм .
- Перевірити сайт на наявність сторінок-дублів. В першу чергу варто звертати увагу на сторінки з однаковим тегом title і заголовком H1 - потенційні кандидати, в яких може бути дублююча інформація. Такі сторінки потрібно усунути або закрити їх від роботів-пошуковиків. Ідеальний помічник в цьому Robots.txt.
Корисна стаття по темі: Створити Robots.txt - просто, як 2х2 .
Оптимізатори повинні орієнтуватися, в першу чергу, на зручність інтерфейсу сайту (в тому числі його мобільній версії) для відвідувачів. Ніяких хитромудрих переходів по категоріям, «ні» кількості реклами, головна цінність - якість, а не кількість.
Самий останній апдейт Google Panda дуже суворий до недобросовісно виконаної оптимізації. Якщо сайт потрапив під фільтр Панди, залишається тільки впроваджувати всі недоробки і чекати поки апдейт завершиться, а потім близько року, поки запуститься нове оновлення.
пінгвін Google
Довгий час в ранжируванні сайтів Google орієнтувався на кількість посилань. Алгоритм Penguin створили в 2012 році, щоб виявляти веб-ресурси з неприродною посилальної масою. Наприклад, оптимізатори вдаються до послуг посилальних бірж, де існує велика ймовірність потрапити не на авторитетний сайт-донор, а на сателіт.
Google не любить таких умільців, за допомогою алгоритму Пінгвін фільтрує орендовані посилання.
Penguin накладає санкції в разі виявлення:
- покупних посилань;
- посилань, які ведуть з спамних веб-порталів;
- посилань, які ведуть з сателітів;
- неприродних анкоров посилань;
- посилань, які ведуть з сайтів, не придатних під тематику реципієнта.
Щоб не потрапити під пильне око Пінгвіна, потрібно періодично відслідковувати посилання на продукцію профіль. 2-3 спамние посилання, звичайно ж, не приведуть до санкцій, але раптове отримання сотень неприродних посилань - привід привернути увагу алгоритму Google Пінгвін.
Колібрі Google
З 2013 року користувачі Google у відповідь на свої запити стали отримувати не просто сайти з ключовими словами, а результати, які підходять за змістом до запиту.
Мета алгоритму Колібрі - надати релевантні результати, ґрунтуючись на смисловий складової пошукового запиту.
Завдяки цьому алгоритму, Google покращив розуміння синонімів і розділяє зміст веб-сторінки за тематикою. Тепер в результатах пошуку можна побачити сайти, на яких немає прямого запиту користувача, зате є його синоніми.
Колібрі гостро реагує на Переспа конкретного ключового запиту, за яким ви хочете просувати сайт, якщо в тексті не використані задають тематику сторінки слова. Ви дуже хочете потрапити в ТОП Google саме за запитом «купити плаття»? Обережно! З алгоритмом Колібрі, якщо переборщити з ключами, можна досягти прямо протилежного ефекту.
Кілька порад як уникнути зіткнення з Колібрі:
- урізноманітнити текстове наповнення сторінок;
- структурувати контент за допомогою заголовків H1-H6;
- використовувати велику кількість синонімів;
- використовувати розбавлене входження ключів.
Також не забуваємо про читабельність тексту. Якщо він був написаний в стилі робота для пошукових систем з величезною кількістю кострубато вписаних ключів, готуйтеся, Колібрі скоро прилетить і до вас.
Це були 3 основних алгоритму Google, під фільтри яких найчастіше потрапляють сайти.
Пропоную ознайомитися з ще декількома алгоритмами:
- Google's Pirate Update. Алгоритм бореться з сайтами, на яких виставлено піратський контент. Найчастіше це стосується ресурсів з музикою, фільмами, книгами, які безкоштовно доступні для перегляду та скачування. Сайти, на які регулярно надходять скарги за піратське зміст, істотно знижуються в ранжируванні.
- Голуб і Опосум. Надають релевантні результати локального пошуку, тобто тепер показ відповідей в Google на запити залежить від місцезнаходження користувачів. Алгоритм Голуб дозволяє за запитом, наприклад, «ресторан» отримати видачу по закладам, які знаходяться саме в вашому місті, ігноруючи розкручені ресурси з іншої місцевості.
- Mobile Friendly Update. Сайти, оптимізовані під мобільні версії, тепер більш високо ранжуються в результатах мобільного пошуку Google. Користувачам тепер не потрібно, наприклад, масштабувати текст, на веб-ресурсах все передбачено для перегляду з мобільних девайсів.
- Rank Brain. Являє собою систему машинного навчання, яка за поведінкою відвідувачів веб-порталу визначає наскільки зміст сторінки було корисно користувачам. Алгоритм Google самонавчається і з часом надає максимально корисні результати.
- Фред. Даний алгоритм Google відфільтровує сайти, які рясніють безліччю різних видів реклами, сторінки з величезною кількістю вихідних посилань. Фред, як і інші алгоритми Google, бореться з роботизованими текстами, які нецікаві і не корисні відвідувачам сайту.
Друзі, думаю, ви вже помітили, що Google стоїть на сторожі експертного, корисного контенту, сайтів, які зручні для відвідувачів. А що ж Yandex? Що чекати власникам сайтів від цього пошуковика? Читайте далі!
Алгоритми роботи Yandex: огляд останніх апдейтів
Yandex також не стоїть на місці і з моменту свого заснування ввів в роботу, змінив і оновив. Увага! 21 алгоритм. Були задіяні і антиспам-фільтри, і системи, що визначають релевантність викладеного на сайті матеріалу. На відміну від Google, який присвоює своїм алгоритмам назви з фауни, Yandex віддає перевагу більш строгий name - назви міст.
Давайте докладніше зупинимося на останніх алгоритмах ранжирування Яндекс.
Палех Yandex
Алгоритм дозволяє Yandex краще розуміти те, про що його запитують користувачі. Завдяки Палеха пошуковик знаходить веб-сторінки, зміст яких за змістом відповідає запитам, а не просто за наявністю ключових слів.
Може зацікавити стаття: Які бувають ключові слова і як їх гармонійно вписати до статті?
Як працює алгоритм Яндекс? У Yandex є графік частотного розподілу запитів, який представлений у вигляді казкової Жар-птиці. Найчастіші запити - це дзьоб пташки, СЧ - тулуб, НЧ - утворюють довгий хвіст пернатої.
Один з нових алгоритмів Яндекса Палех дозволяє краще відповідати на складні запити користувачів з категорії довгого хвоста. Щоб найбільш точно відповісти на такий запит як:
фільм про людину, який вирощував картоплю на іншій планеті
Розробники залучили нейронні мережі. Це один з видів машинного навчання, тобто алгоритм Yandex не просто надає релевантні відповіді на запити, а й вчиться в процесі роботи.
Основна мета алгоритму Палех - підвищення якості пошуку для рідкісних запитів і запитів, заданих природною мовою.
Таким чином, для просування в Yandex можна використовувати не тільки короткі і конкретні ключі типу: замовити книгу, а й розгорнуті запити: де найкраще недорого замовити книгу?
Баден-Баден Yandex
Гучний в 2017 році алгоритм Яндекса під назвою Баден-Баден бореться з переоптімізірованние текстами.
Основна мета алгоритму Yandex - надавати користувачам корисні, смислові тексти без переспама.
У зоні ризику тепер сайти, у яких:
- низькосортний, нецікавий контент;
- сторінки, на яких величезна кількість ключів;
- тексти з неественним входженням ключових слів.
Приклад такого сайту:
Цікаво вам читати такі тексти? Я думаю ні. Якщо зміст не несе смислового навантаження, то такий сайт - кандидат №1, щоб потрапити під санкції алгоритму Баден-Баден Yandex. Це означає, що переоптімізірованние сторінки втратять свої позиції або взагалі покинуть зону видачі Яндекс.
Що робити, щоб не опинитися на задвірках пошукової видачі:
- прибрати спамние тексти;
- розміщувати на сторінках читабельний матеріал або взагалі нічого не писати;
- контент повинен відповідати на питання відвідувачів, бути їм корисний.
Як приклад приведу одну з робіт команди Textum:
Різниця з першим прикладом очевидна - відвідувачі сайту навіть не помічають ключі, просто читають статтю про особливості та переваги футболок Adidas. Хочете успішно просувати сайт в Yandex? Забудьте про ТЗ, в яких на 1000 ЗБП вказана необхідність вписати 20 ключів.
Корольов Yandex
Це один з останніх алгоритмів Яндекса. Це ще більш вдосконалена система, яка вміє шукати відповіді не тільки по ключам, а й за змістом (як і Палех). Yandex впевнено розвивається і йде від машинного навчання пошукових алгоритмів до розуміння сенсу запиту. Алгоритм також побудований на основі нейронних мереж.
Алгоритм Корольов від Yandex вчиться визначати:
- авторські тексти;
- експертні матеріали;
- сайти з корисним для користувачів вмістом.
Перші місця в ТОП-видачі Yandex віддає сайтам з цікавими статтями, показує користувачам контент, релевантний не по словесному, а за смисловим змістом.
Крім заголовка і тексту сторінки, Корольов також враховує запити, за якими на певний сайт приходили відвідувачі. Вся інформація для навчання алгоритму збирається з пошукової статистики Yandex.
Крім того, Корольов розуміє, що зображено на картинці і відповідає на запити користувачів не тільки посиланнями на текст, а й відповідними зображеннями. Відмінність цього алгоритму від Палех в тому, що Палех аналізує тільки заголовки сторінок, Корольов - заголовки + зміст + картинки.
На даний момент Корольов - найновіший алгоритм пошуку Яндекс, в 2018 він продовжує самообучаться, надаючи користувачам найбільш релевантні сайти, незалежно від складності запиту.
Відмінності в роботі алгоритмів Google і Yandex
Що ж, друзі, півдорозі пройдено і з основами роботи 2-х пошукових машин ми з вами ознайомилися. Думаю, не зайвим буде порівняти між собою особливості пошукових алгоритмів Яндекса і Гугла. Адже найчастіше роботи по просуванню сайтів проводяться під обидві пошукові машини одночасно. Це допомагає залучити на веб-ресурс більше відвідувачів, збільшити обсяги продажів.
ПАРАМЕТРИ
YANDEX
кількість ключів
Чи не вітає статті з великим числом прямих входжень ключів. Оптимальна щільність входження ключових слів - 1,5-3%.
унікальність контенту
Обидва пошукача за унікальні тексти при шинглів рівному 3-4 словами.
Розмір тексту
Добре ставляться до оптимізованим текстів обсягом від 6-10 ЗБП.
Мета-теги сторінок
Велика кількість ключів в прямому входження краще не вживати, при цьому словоформи можна і потрібно використовувати.
Погано відноситься до частого повторення ключів, всілякі словоформи вважає за повторення.
посилання
Обидва пошуковика не схвалюють використання однакових анкорів в посиланнях і борються з неприродною посилальної масою.
ранжування
Швидко реагує на оптимізацію, видача може помінятися кілька разів в день.
Видача змінюється найчастіше під час апдейтів.
Якщо ви хочете оптимізувати веб-ресурс або написати статтю, яка в однаковій мірі сподобається Google і Yandex, дотримуйтеся золотої середини: помірно вживайте ключі в тексті, title і description, застосовуйте розбавлені анкор, не варто скорочувати, але і не сильно розтягуйте тексти.
Читайте також: Купівля вічних посилань: 4 кроки від хаосу до порядку .
5 порад: що потрібно змінити на сайті в 2018 році?
Ось і прийшов час практичних рекомендацій від Textum.
Які роботи потрібно провести в 2018 році для оптимізації сайту:
- Попрацювати з проблемними сторінками. Сюди відносяться низькоякісні Лендінзі, розділи веб-порталу, перенасичені рекламою, сторінки з дублюючим вмістом або мінімальною кількістю тексту (до 400 слів). Також потрібно постаратися позбутися від сторінок (з 4 рівнями укладення), дістатися до яких користувачеві потрібно 4 і більше разів клікнувши (починаючи з головної сторінки).
- Писати об'ємні матеріали. Чи не цілі дисертації, звичайно. Наприклад, текст на 10 000 ЗБП буде дивно виглядати в розділі з карткою товарів, але сторінка з кількістю слів до 400 може викликати підвищений інтерес алгоритмів Google і Yandex.
- Зробити сайт легше. Якщо на вашому ресурсі величезна кількість сторінок, на яких складно знайти потрібну інформацію - шанс потрапити під нагляд алгоритмів пошукових систем Yandex або Google. Заблокувати непотрібні сторінки можна за допомогою Robots.txt, також варто видалити або комбінувати між собою схожі сторінки.
- Поліпшити внутрішню перелинковку. Варто додати додаткову навігацію на сторінці, наприклад, по цікавим статтям. Від циклічних посилань краще позбутися раз і назавжди, їх однаковою мірою не любить Google і Yandex.
- Редагувати контент. Google і Yandex стали дуже вимогливими читачами і малоінформативне контент не пропустити в ТОП-видачі. Тому перед розміщенням статей на сайті потрібно ще раз запитати себе: «Чи корисний матеріал для користувачів, чи знайдуть вони в ньому відповіді на свої питання?»
Корисна стаття по темі: Чек-лист для перевірки тексту на «профпридатність»: вичитка, редагування, форматування (частина II) .
Також обов'язково наповнювати сайт відео, фото, не тільки продають, а й інформаційними ключами, наприклад, яку спідницю підібрати до блузці або як вибрати матрац. При цьому потрібно прописувати до картинок alt, а до статей мета-теги з релевантними ключами. І, звичайно ж, не забувайте про мобільну версію веб-порталу.
Що можна сказати в кінці? Пошукова оптимізація сайтів - справа добра. Але переборщити з переоптімізацію, значить потрапити під дію алгоритмів Google і Yandex. Тому враховуйте всі описані вище рекомендації, читайте останні новини з апгрейду пошукових систем, пишіть і наповнюйте ресурси цікавими, корисними статтями, як це робить команда Textum.
У вас є, що додати до матеріалу? Хочете поділитися особистим досвідом або ви знаєте ще нерозкриті секрети алгоритмів роботи пошукових систем Google і Яндекс? Чекаю від вас коментарі тут або на сторінках групи Textum в Facebook і Instagram.
Друзі, пропонуйте теми, які вам цікаві, ми обов'язково розглянемо їх в наступних статтях нашого блогу!
До нової зустрічі!
Що таке пошукові алгоритми?Відразу уявімо ситуацію: ви проводите SEO-оптимізацію сайту або пишіть продають тексти, а може ваш сайт потрапив під фільтри Google і Yandex?
Поради: що потрібно змінити на своєму сайті в 2018 році?
Давайте приступати до вивчення?
Що таке пошукові алгоритми?
Уявляєте, який був би хаос в інтернеті, якби даної системи просто не було?
Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?
Ви дуже хочете потрапити в ТОП Google саме за запитом «купити плаття»?
А що ж Yandex?
Що чекати власникам сайтів від цього пошуковика?