Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Популярное
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Алгоритми Google і Yandex: що це і як працює?

    1. Що таке пошукові алгоритми?
    2. Загальні принципи роботи пошукових систем
    3. Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?
    4. Алгоритми роботи Google: огляд останніх апдейтів
    5. панда Google
    6. Корисна стаття по темі: Створити Robots.txt - просто, як 2х2 .
    7. пінгвін Google
    8. Колібрі Google
    9. Алгоритми роботи Yandex: огляд останніх апдейтів
    10. Палех Yandex
    11. Може зацікавити стаття: Які бувають ключові слова і як їх гармонійно вписати до статті?
    12. Баден-Баден Yandex
    13. Корольов Yandex
    14. Відмінності в роботі алгоритмів Google і Yandex
    15. Читайте також: Купівля вічних посилань: 4 кроки від хаосу до порядку .
    16. Корисна стаття по темі: Чек-лист для перевірки тексту на «профпридатність»: вичитка, редагування,...

    Усім читачам блогу привіт, рада нашої нової зустрічі! Відразу уявімо ситуацію: ви проводите SEO-оптимізацію сайту або пишіть продають тексти, а може ваш сайт потрапив під фільтри Google і Yandex? Все це нерозривно пов'язано з алгоритмами роботи Google і Яндекс. Зрозуміти суть мислення пошукових машин - вірний шлях до того, щоб ваш сайт, стаття перенеслися в ТОП-видачі та уникли фільтрації пошукових систем.

    Тому сьогодні пропоную зупинитися саме на цій актуальній темі і дізнатися:

    1. Що таке пошукові алгоритми?
    2. Загальні принципи роботи пошукових машин.
    3. Алгоритми роботи Google: огляд останніх апдейтів.
    4. Алгоритми роботи Yandex: огляд останніх апдейтів.
    5. Відмінності в роботі алгоритмів Google і Yandex.
    6. Поради: що потрібно змінити на своєму сайті в 2018 році?

    Давайте приступати до вивчення? Мені на підготовку статті знадобилося 28 годин і 15 авторитетних джерел, у вас завдання набагато простіше - прочитати матеріал (8 хв), можна додати його в закладки (1 сек) і користуватися (необмежену кількість часу).

    Що таке пошукові алгоритми?

    За традицією починаємо з теорії, в кінці, як водиться, практичні поради від Textum як оптимізувати свій сайт під реалії 2018 г. Але не будемо забігати вперед, йдемо по порядку:

    Пошуковий алгоритм дозволяє пошуковим системам у відповідь на запит користувачів видавати релевантні (відповідні) запиту результати.

    Уявляєте, який був би хаос в інтернеті, якби даної системи просто не було? Ви пишіть запит купити спідницю, а вам видає портал з автодеталями.

    Сьогодні це здається смішною і нереальною ситуацією. Робота пошукового алгоритму будується на аналізі безлічі факторів для оцінки цінності веб-ресурсів та їх вмісту для користувачів. З огляду на все це, роботи-пошуковики ранжируют сайти в ТОП-видачі та розподіляють сторінки на 1,2,3 ... .или останніх місцях.

    Думаю, ні для кого не секрет, що алгоритми роботи пошукових систем, наприклад Google або Yandex, піддаються вивченню і це можна використовувати в своїх інтересах, наприклад, для пошукової SEO-оптимізації сайтів. Але тут все не так просто. Пошукові машини діють в інтересах користувачів, прагнуть видати на їх запити дійсно цінні матеріалу, а не сайти-пустушки з великою кількістю ключів і 0% корисної інформації. Для цього алгоритми Google, Yandex регулярно оновлюються.

    Давайте спочатку розглянемо загальні принципи роботи пошукових систем, а потім вже перейдемо до алгоритмам 2-х найбільш популярних систем - Google і Yandex.

    Загальні принципи роботи пошукових систем

    Звичайно ж, кожен пошуковик як окрема марка авто має свої нюанси, наприклад, в машинах це стосується потужності двигуна або різниці в ходових якостях. Але є і загальні елементи, починаючи від банального - 4 колеса, закінчуючи загальними принципами управління транспортом.

    Пошукові системи інтернету також мають схожі принципи роботи:

    1. Збір даних. Як тільки з'являється новий ресурс (про що стає відомо ботам за допомогою зовнішніх посилань, додавання сайту в аддурілку та іншого) робот відразу ж завітає в гості на сторінку. Він збирає інформацію про текстовому і візуальному контенті.
    2. Індексація. Сайт чи не з'явиться в пошуковій видачі, поки для сторінки не буде складено зворотний (інвертований) файл індексу. Він призначений для того, щоб по ньому швидко проводити пошук і складається зі списку слів з тексту. Після цього сайт можна буде знайти за ключовими словами на його сторінках.
    3. Пошук інформації. Після того як надійшов запит від користувача, наприклад, купити книгу, роботи знаходять все сторінки, які підходять під цей запит. Документи, в яких ключі найбільш підходять під запити, потрапляють в видачу Google, Yandex і т.д.
    4. Ранжування. Тут вже починається найцікавіше. Боротьба за місце під сонцем, тобто мета будь-якої SEO-оптимізації сайту потрапити на першу сторінку видачі. Тут має значення безліч чинників, основні з яких: вага сторінки, авторитетність домену, відповідність тексту запитам і експертність матеріалу.

    Пошукові алгоритми аналізують частоту використання і розташування в тексті ключових запитів на окремій сторінці сайту. Звертають увагу на тег title.

    Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?

    Т. е. Якщо сторінка має таку назву, значить і матеріал повинен бути по цій темі. Також береться до уваги наявність ключів на початку сторінки (назва, H1), першому абзаці тексту.

    Крім контенту веб-сторінки, оцінюються зовнішні чинники. Наприклад, поведінка користувачів. Якщо відвідувачі не перебувають тривалий час на ресурсі, при переході на нього відразу ж закривають сторінку, то боти розцінюють портал як нецікавий для інтернет-спільноти та засовують його подалі від ТОП-видачі.

    Від загальних принципів роботи пора переходити до більш конкретної інформації.

    Алгоритми роботи Google: огляд останніх апдейтів

    Незважаючи на милі назви (типу Панди або Пінгвіна) алгоритми сучасної роботи Google дуже суворі до сайтів. Порушення або невідповідність вимогам пошукових систем призводять мінімум до зниження сторінки в рядку видачі, максимум - потрапляння під фільтр певного алгоритму і виключення сайту з видачі.

    Але не лякайтеся заздалегідь, просто давайте озброїмося знаннями про роботу пошукових алгоритмів Google.

    панда Google

    Був запущений майже 7 років тому і з цього часу оновлюється щомісяця. Алгоритм Google під назвою Panda створений для виявлення і боротьби зі сторінками, на яких знаходиться неунікальний, спамний, наповнений великою кількістю ключів контент. Подібні веб-ресурси істотно знижують свої позиції в рейтингу ранжирування Google.

    Основне завдання Панди - підвищення якості сайту.

    За що карає сайти Panda:

    • наявність плагіату (неунікальний даних) на сторінках;
    • створення дублюючої інформації на різних сторінках одного сайту;
    • наповнення сайту, переспамленное ключовими запитами;
    • недостатній контент, наприклад, уривки тексту;
    • автоматично сгенерированное зміст.

    Останнє стосується контенту, створеного за допомогою спеціальних програм. Такі сторінки містять незв'язних текст, але з ключами для пошуку.

    Що потрібно зробити, щоб не потрапити в немилість Панди:

    1. Перевірити унікальність змісту сайту. Перед розміщенням статей на сторінці логічно визначити унікальність матеріалу (навіть, якщо ви самостійно пишіть його, виходячи з особистого досвіду). Як це зробити читайте тут: Як перевірити унікальність тексту: огляд кращих програм .
    2. Перевірити сайт на наявність сторінок-дублів. В першу чергу варто звертати увагу на сторінки з однаковим тегом title і заголовком H1 - потенційні кандидати, в яких може бути дублююча інформація. Такі сторінки потрібно усунути або закрити їх від роботів-пошуковиків. Ідеальний помічник в цьому Robots.txt.

    Корисна стаття по темі: Створити Robots.txt - просто, як 2х2 .

    Оптимізатори повинні орієнтуватися, в першу чергу, на зручність інтерфейсу сайту (в тому числі його мобільній версії) для відвідувачів. Ніяких хитромудрих переходів по категоріям, «ні» кількості реклами, головна цінність - якість, а не кількість.

    Самий останній апдейт Google Panda дуже суворий до недобросовісно виконаної оптимізації. Якщо сайт потрапив під фільтр Панди, залишається тільки впроваджувати всі недоробки і чекати поки апдейт завершиться, а потім близько року, поки запуститься нове оновлення.

    пінгвін Google

    Довгий час в ранжируванні сайтів Google орієнтувався на кількість посилань. Алгоритм Penguin створили в 2012 році, щоб виявляти веб-ресурси з неприродною посилальної масою. Наприклад, оптимізатори вдаються до послуг посилальних бірж, де існує велика ймовірність потрапити не на авторитетний сайт-донор, а на сателіт.

    Google не любить таких умільців, за допомогою алгоритму Пінгвін фільтрує орендовані посилання.

    Penguin накладає санкції в разі виявлення:

    • покупних посилань;
    • посилань, які ведуть з спамних веб-порталів;
    • посилань, які ведуть з сателітів;
    • неприродних анкоров посилань;
    • посилань, які ведуть з сайтів, не придатних під тематику реципієнта.

    Щоб не потрапити під пильне око Пінгвіна, потрібно періодично відслідковувати посилання на продукцію профіль. 2-3 спамние посилання, звичайно ж, не приведуть до санкцій, але раптове отримання сотень неприродних посилань - привід привернути увагу алгоритму Google Пінгвін.

    Колібрі Google

    З 2013 року користувачі Google у відповідь на свої запити стали отримувати не просто сайти з ключовими словами, а результати, які підходять за змістом до запиту.

    Мета алгоритму Колібрі - надати релевантні результати, ґрунтуючись на смисловий складової пошукового запиту.

    Завдяки цьому алгоритму, Google покращив розуміння синонімів і розділяє зміст веб-сторінки за тематикою. Тепер в результатах пошуку можна побачити сайти, на яких немає прямого запиту користувача, зате є його синоніми.

    Колібрі гостро реагує на Переспа конкретного ключового запиту, за яким ви хочете просувати сайт, якщо в тексті не використані задають тематику сторінки слова. Ви дуже хочете потрапити в ТОП Google саме за запитом «купити плаття»? Обережно! З алгоритмом Колібрі, якщо переборщити з ключами, можна досягти прямо протилежного ефекту.

    Кілька порад як уникнути зіткнення з Колібрі:

    • урізноманітнити текстове наповнення сторінок;
    • структурувати контент за допомогою заголовків H1-H6;
    • використовувати велику кількість синонімів;
    • використовувати розбавлене входження ключів.

    Також не забуваємо про читабельність тексту. Якщо він був написаний в стилі робота для пошукових систем з величезною кількістю кострубато вписаних ключів, готуйтеся, Колібрі скоро прилетить і до вас.

    Це були 3 основних алгоритму Google, під фільтри яких найчастіше потрапляють сайти.

    Пропоную ознайомитися з ще декількома алгоритмами:

    1. Google's Pirate Update. Алгоритм бореться з сайтами, на яких виставлено піратський контент. Найчастіше це стосується ресурсів з музикою, фільмами, книгами, які безкоштовно доступні для перегляду та скачування. Сайти, на які регулярно надходять скарги за піратське зміст, істотно знижуються в ранжируванні.
    2. Голуб і Опосум. Надають релевантні результати локального пошуку, тобто тепер показ відповідей в Google на запити залежить від місцезнаходження користувачів. Алгоритм Голуб дозволяє за запитом, наприклад, «ресторан» отримати видачу по закладам, які знаходяться саме в вашому місті, ігноруючи розкручені ресурси з іншої місцевості.
    3. Mobile Friendly Update. Сайти, оптимізовані під мобільні версії, тепер більш високо ранжуються в результатах мобільного пошуку Google. Користувачам тепер не потрібно, наприклад, масштабувати текст, на веб-ресурсах все передбачено для перегляду з мобільних девайсів.
    4. Rank Brain. Являє собою систему машинного навчання, яка за поведінкою відвідувачів веб-порталу визначає наскільки зміст сторінки було корисно користувачам. Алгоритм Google самонавчається і з часом надає максимально корисні результати.
    5. Фред. Даний алгоритм Google відфільтровує сайти, які рясніють безліччю різних видів реклами, сторінки з величезною кількістю вихідних посилань. Фред, як і інші алгоритми Google, бореться з роботизованими текстами, які нецікаві і не корисні відвідувачам сайту.

    Друзі, думаю, ви вже помітили, що Google стоїть на сторожі експертного, корисного контенту, сайтів, які зручні для відвідувачів. А що ж Yandex? Що чекати власникам сайтів від цього пошуковика? Читайте далі!

    Алгоритми роботи Yandex: огляд останніх апдейтів

    Yandex також не стоїть на місці і з моменту свого заснування ввів в роботу, змінив і оновив. Увага! 21 алгоритм. Були задіяні і антиспам-фільтри, і системи, що визначають релевантність викладеного на сайті матеріалу. На відміну від Google, який присвоює своїм алгоритмам назви з фауни, Yandex віддає перевагу більш строгий name - назви міст.

    Давайте докладніше зупинимося на останніх алгоритмах ранжирування Яндекс.

    Палех Yandex

    Алгоритм дозволяє Yandex краще розуміти те, про що його запитують користувачі. Завдяки Палеха пошуковик знаходить веб-сторінки, зміст яких за змістом відповідає запитам, а не просто за наявністю ключових слів.

    Може зацікавити стаття: Які бувають ключові слова і як їх гармонійно вписати до статті?

    Як працює алгоритм Яндекс? У Yandex є графік частотного розподілу запитів, який представлений у вигляді казкової Жар-птиці. Найчастіші запити - це дзьоб пташки, СЧ - тулуб, НЧ - утворюють довгий хвіст пернатої.

    Один з нових алгоритмів Яндекса Палех дозволяє краще відповідати на складні запити користувачів з категорії довгого хвоста. Щоб найбільш точно відповісти на такий запит як:

    фільм про людину, який вирощував картоплю на іншій планеті

    Розробники залучили нейронні мережі. Це один з видів машинного навчання, тобто алгоритм Yandex не просто надає релевантні відповіді на запити, а й вчиться в процесі роботи.

    Основна мета алгоритму Палех - підвищення якості пошуку для рідкісних запитів і запитів, заданих природною мовою.

    Таким чином, для просування в Yandex можна використовувати не тільки короткі і конкретні ключі типу: замовити книгу, а й розгорнуті запити: де найкраще недорого замовити книгу?

    Баден-Баден Yandex

    Гучний в 2017 році алгоритм Яндекса під назвою Баден-Баден бореться з переоптімізірованние текстами.

    Основна мета алгоритму Yandex - надавати користувачам корисні, смислові тексти без переспама.

    У зоні ризику тепер сайти, у яких:

    • низькосортний, нецікавий контент;
    • сторінки, на яких величезна кількість ключів;
    • тексти з неественним входженням ключових слів.

    Приклад такого сайту:

    Цікаво вам читати такі тексти? Я думаю ні. Якщо зміст не несе смислового навантаження, то такий сайт - кандидат №1, щоб потрапити під санкції алгоритму Баден-Баден Yandex. Це означає, що переоптімізірованние сторінки втратять свої позиції або взагалі покинуть зону видачі Яндекс.

    Що робити, щоб не опинитися на задвірках пошукової видачі:

    • прибрати спамние тексти;
    • розміщувати на сторінках читабельний матеріал або взагалі нічого не писати;
    • контент повинен відповідати на питання відвідувачів, бути їм корисний.

    Як приклад приведу одну з робіт команди Textum:

    Різниця з першим прикладом очевидна - відвідувачі сайту навіть не помічають ключі, просто читають статтю про особливості та переваги футболок Adidas. Хочете успішно просувати сайт в Yandex? Забудьте про ТЗ, в яких на 1000 ЗБП вказана необхідність вписати 20 ключів.

    Корольов Yandex

    Це один з останніх алгоритмів Яндекса. Це ще більш вдосконалена система, яка вміє шукати відповіді не тільки по ключам, а й за змістом (як і Палех). Yandex впевнено розвивається і йде від машинного навчання пошукових алгоритмів до розуміння сенсу запиту. Алгоритм також побудований на основі нейронних мереж.

    Алгоритм Корольов від Yandex вчиться визначати:

    • авторські тексти;
    • експертні матеріали;
    • сайти з корисним для користувачів вмістом.

    Перші місця в ТОП-видачі Yandex віддає сайтам з цікавими статтями, показує користувачам контент, релевантний не по словесному, а за смисловим змістом.

    Крім заголовка і тексту сторінки, Корольов також враховує запити, за якими на певний сайт приходили відвідувачі. Вся інформація для навчання алгоритму збирається з пошукової статистики Yandex.

    Крім того, Корольов розуміє, що зображено на картинці і відповідає на запити користувачів не тільки посиланнями на текст, а й відповідними зображеннями. Відмінність цього алгоритму від Палех в тому, що Палех аналізує тільки заголовки сторінок, Корольов - заголовки + зміст + картинки.

    На даний момент Корольов - найновіший алгоритм пошуку Яндекс, в 2018 він продовжує самообучаться, надаючи користувачам найбільш релевантні сайти, незалежно від складності запиту.

    Відмінності в роботі алгоритмів Google і Yandex

    Що ж, друзі, півдорозі пройдено і з основами роботи 2-х пошукових машин ми з вами ознайомилися. Думаю, не зайвим буде порівняти між собою особливості пошукових алгоритмів Яндекса і Гугла. Адже найчастіше роботи по просуванню сайтів проводяться під обидві пошукові машини одночасно. Це допомагає залучити на веб-ресурс більше відвідувачів, збільшити обсяги продажів.

    ПАРАМЕТРИ

    GOOGLE

    YANDEX

    кількість ключів

    Чи не вітає статті з великим числом прямих входжень ключів. Оптимальна щільність входження ключових слів - 1,5-3%.

    унікальність контенту

    Обидва пошукача за унікальні тексти при шинглів рівному 3-4 словами.

    Розмір тексту

    Добре ставляться до оптимізованим текстів обсягом від 6-10 ЗБП.

    Мета-теги сторінок

    Велика кількість ключів в прямому входження краще не вживати, при цьому словоформи можна і потрібно використовувати.

    Погано відноситься до частого повторення ключів, всілякі словоформи вважає за повторення.

    посилання

    Обидва пошуковика не схвалюють використання однакових анкорів в посиланнях і борються з неприродною посилальної масою.

    ранжування

    Швидко реагує на оптимізацію, видача може помінятися кілька разів в день.

    Видача змінюється найчастіше під час апдейтів.

    Якщо ви хочете оптимізувати веб-ресурс або написати статтю, яка в однаковій мірі сподобається Google і Yandex, дотримуйтеся золотої середини: помірно вживайте ключі в тексті, title і description, застосовуйте розбавлені анкор, не варто скорочувати, але і не сильно розтягуйте тексти.

    Читайте також: Купівля вічних посилань: 4 кроки від хаосу до порядку .

    5 порад: що потрібно змінити на сайті в 2018 році?

    Ось і прийшов час практичних рекомендацій від Textum.

    Які роботи потрібно провести в 2018 році для оптимізації сайту:

    1. Попрацювати з проблемними сторінками. Сюди відносяться низькоякісні Лендінзі, розділи веб-порталу, перенасичені рекламою, сторінки з дублюючим вмістом або мінімальною кількістю тексту (до 400 слів). Також потрібно постаратися позбутися від сторінок (з 4 рівнями укладення), дістатися до яких користувачеві потрібно 4 і більше разів клікнувши (починаючи з головної сторінки).
    2. Писати об'ємні матеріали. Чи не цілі дисертації, звичайно. Наприклад, текст на 10 000 ЗБП буде дивно виглядати в розділі з карткою товарів, але сторінка з кількістю слів до 400 може викликати підвищений інтерес алгоритмів Google і Yandex.
    3. Зробити сайт легше. Якщо на вашому ресурсі величезна кількість сторінок, на яких складно знайти потрібну інформацію - шанс потрапити під нагляд алгоритмів пошукових систем Yandex або Google. Заблокувати непотрібні сторінки можна за допомогою Robots.txt, також варто видалити або комбінувати між собою схожі сторінки.
    4. Поліпшити внутрішню перелинковку. Варто додати додаткову навігацію на сторінці, наприклад, по цікавим статтям. Від циклічних посилань краще позбутися раз і назавжди, їх однаковою мірою не любить Google і Yandex.
    5. Редагувати контент. Google і Yandex стали дуже вимогливими читачами і малоінформативне контент не пропустити в ТОП-видачі. Тому перед розміщенням статей на сайті потрібно ще раз запитати себе: «Чи корисний матеріал для користувачів, чи знайдуть вони в ньому відповіді на свої питання?»

    Корисна стаття по темі: Чек-лист для перевірки тексту на «профпридатність»: вичитка, редагування, форматування (частина II) .

    Також обов'язково наповнювати сайт відео, фото, не тільки продають, а й інформаційними ключами, наприклад, яку спідницю підібрати до блузці або як вибрати матрац. При цьому потрібно прописувати до картинок alt, а до статей мета-теги з релевантними ключами. І, звичайно ж, не забувайте про мобільну версію веб-порталу.

    Що можна сказати в кінці? Пошукова оптимізація сайтів - справа добра. Але переборщити з переоптімізацію, значить потрапити під дію алгоритмів Google і Yandex. Тому враховуйте всі описані вище рекомендації, читайте останні новини з апгрейду пошукових систем, пишіть і наповнюйте ресурси цікавими, корисними статтями, як це робить команда Textum.

    У вас є, що додати до матеріалу? Хочете поділитися особистим досвідом або ви знаєте ще нерозкриті секрети алгоритмів роботи пошукових систем Google і Яндекс? Чекаю від вас коментарі тут або на сторінках групи Textum в Facebook і Instagram.

    Друзі, пропонуйте теми, які вам цікаві, ми обов'язково розглянемо їх в наступних статтях нашого блогу!

    До нової зустрічі!

    Що таке пошукові алгоритми?
    Відразу уявімо ситуацію: ви проводите SEO-оптимізацію сайту або пишіть продають тексти, а може ваш сайт потрапив під фільтри Google і Yandex?
    Поради: що потрібно змінити на своєму сайті в 2018 році?
    Давайте приступати до вивчення?
    Що таке пошукові алгоритми?
    Уявляєте, який був би хаос в інтернеті, якби даної системи просто не було?
    Що це і навіщо потрібно описано в статті: Мета-теги (title, description, keywords): як правильно прописати?
    Ви дуже хочете потрапити в ТОП Google саме за запитом «купити плаття»?
    А що ж Yandex?
    Що чекати власникам сайтів від цього пошуковика?

     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»