З 7 квітня по 13 травня проходив черговий навчальний курс від ТопЕксперт.РФ - Повний курс SEO - 150 годин. Це був 4-й потік, що відрізняється від попередніх тим, що включав в себе не тільки очне, але і дистанційне навчання, а також можливість віддаленої захисту дипломів.
Читати першу частину огляду «Інформаційний пошук»
Курс вели визнані експерти і аналітики, які мають великий практичний досвід і видатні досягнення в області пошукового просування і інформаційного пошуку - Андрій Калінін (Mail.ru), Михайло Сливинський (Wikimart.ru), Олексій Чекушіна (Wikimart.ru), Станіслав Поломарь (Web -IT) і Леонід Гроховский, керівник навчального центру ТопЕксперт.РФ. Слухачами курсу були початківці і досвідчені оптимізатори, які бажають придбати або значно підвищити свою кваліфікацію.
Основною частиною курсу були лекції з пошукової оптимізації та аналітиці, які читали Михайло Сливинський, Олексій Чекушіна і Станіслав Поломарь.
Не дивлячись на те, що більша частина студентів була присутня на лекціях віддалено, Олексій і Станіслав змогли змусити всіх з неослабною увагою слухати свої лекції і приймати живу участь в обговоренні, не відволікаючись ні на які сторонні речі (типу холодильника або телефонних дзвінків). Пояснюючи і демонструючи на прикладах прийоми SEO, викладачі встигали давати інформацію, стежити за загальним обговоренням матеріалу в чаті і відповідати на питання не тільки студентів в аудиторії, а й тих, хто слухав лекцію через вебінар. А Михайло Сливинський так і зовсім читав свій курс практично без перерв на каву і перерв на обід, з повного схвалення студентів, які були раді затриматися ще на дві години довше належного часу, аби почути ще щось цікаве і корисне з області SEO- аналітики.
Пропонуємо вашій увазі огляд лекцій цих фахівців.
Олексій Чекушіна почав свій курс SEO з визначення цілей пошукових систем. За його словами, основне завдання ПС - відповідати на запитання користувачів. Основним заробітком пошукових систем є контекстна реклама, а основним показником - якість пошуку.
Які ж метрики якості пошуку? це:
- Точність - безліч знайдених документів, віднесене до загального безлічі документів;
- Повнота - відношення кількості знайдених документів до загальної кількості релевантних документів;
- F-міра - одночасне використання точності і повноти.
Метрики ж, які міряють якість алгоритмів - це DCG, NDCG і pfound. І студенти навчилися розраховувати pfound, ось за цією формулою:
Далі були розглянуті основні групи чинників ранжирування, які для зручності, були розсортовані по значущості.
1. Поведінкові чинники. Одні з найсильніших - пари «запит-документ», а також фактор останнього кліка і відсутність переформулювання запиту.
2. Довідкові. PR - це ймовірність, числова величина, що характеризує важливість сторінки. Чим більше посилань на сторінку, тим вона стає важливіше. Крім того, вага сторінки А визначається вагою, переданим сторінкою В. PR - це метод обчислення ваги сторінки шляхом підрахунку важливості посилань на неї.
Основні проблеми PR: тривале обчислення, необхідність перерахунку при щонайменшій зміні, погана опірність спаму, «висять вузли».
тИЦ - відомий приклад доменного PR. PR не враховує тематичність ресурсу, тому тИЦ можна легко наростити нетематичними посиланнями.
З практичної частини лекції студенти дізналися, з яких донорів краще купувати посилання, через який час вони починають передавати вагу, як правильно їх закривати від індексації, а також як можна визначити спамность сторінки блогу і трастових того чи іншого сайту.
Олексій також розповів, що PR може бути і зворотним (інверсним), тому обов'язково треба теж посилатися на ресурси з високим PR.
3. Текстові. Це те, що призводить на сайт трафік. В першу чергу, це семантика, відповідно до якої наповнюються сторінки сайту, які потім індексуються пошуковим роботом, визначальним їх релевантність для користувача запитів, і лише в другу чергу - ранжування. Сайт, нерелевантні запитам по яким він добре ранжируется, довго на хороших позиціях не протримається.
Серед інструментів отримання семантики Олексій назвав:
• Первинне придумування
• Підказки з Яндекс.Директ
• Статистика ключових слів
- Yandex.Wordstat
- Adwords
- Rambler Adstat
• Пошукові підказки
• Лічильники
- власний
- чужі
• Neiron
• Передбачення семантики
4. сайтовий. Це URL-фактори і http-коди. Доменні зони можуть ранжуватися неоднаково. ФРІХОСТ можуть отримувати, як бонуси, так і песимізація для сайтів на них. Важливість входження ключового слова в домен і в URL.
Далі своє введення в SEO-науку представив Станіслав Поломарь.
Станіслав глибоко переконаний, що SEO - це допомога ПС і обман цих самих ПС.
Допомога пошуковим системам полягає в тому, що полегшується індексація ресурсу (настроюються коди відповіді, складається sitemap, заповнюється файл robots), позначається регіональність, оптимізується подача і розмітка змісту (структура, навігація, теги), використовуються мікроформати і розширені сніппети.
Обман же ПС полягає в накрутці різних факторів. Це - виділення факторів впливу, розуміння ефективності та допустимості впливу, облік пов'язаності факторів, а також поточний стан ПС.
Станіслав також розібрав чинники ранжирування, детально зупинившись на кожній групі. На додаток до того, що вже говорив Олексій Чекушіна, студенти дізналися, що таке BM25, кворум, тезаурус і переформулювання, що посилальні чинники бувають статичними (не залежними від запиту) і динамічними, що таке TF * IDF, граф кліків і BrowseRank.
Також Станіслав чудово розповів про антиспам пошукових систем - з чим саме борються пошукові системи, за допомогою яких інструментів, які санкції накладають на ресурси, де виявлені ознаки спаму, і на який термін. Ну і, природно, перерахував всі ознаки, за якими пошукова машина визначає той чи інший контекст як спамний.
Що ж робити оптимізатора в боротьбі проти антиспаму пошукових систем?
- Враховувати рекомендації ПС
- Грати за правилами
- Використовуючи розуміння антиспаму, шукати максимально ефективний компроміс
Далі Станіслав перейшов до найцікавішої частини лекції, в якій торкнувся оптимізації посилальних факторів і пояснив студентам, що можна накрутити, і що і як потрібно при цьому вважати. Наприклад, так:
Наступна лекція Олексія Чекушіна була присвячена індексування сайту і взаємодії з пошуковими роботами.
За словами Олексія, краулер не біжить шукати по інтернету відповіді на поставлені запитання, а здійснює пошук по вже проіндексованої базі. Краулінга здійснюється головним пошуковим роботом і бистророботом Оранж. Від бистроробота видача йде без кешу, там може бути тільки назва і description. Інформацію про те, які сторінки потрібно скраулівать, бот отримує через Яндекс.Бар і Метрику.
Коли у основного бота не вистачає краулінгового ресурсу (бюджету) підключається бистроробот, який швидко запихає в індекс хоча б title і description, щоб по них можна було знайти цей документ.
Джерела даних для краулінга:
- Уже обійдені сторінки
- гіперпосилання
- звичайні
- З новин (rss)
- З блогів (rss)
- текстові посилання
- Посилання з пошти
- XML Sitemap
- браузерні бари
- системи статистики
- Addurl
У Яндекса є бот під назвою «дятел», він пробиває доступність сторінок, також як і робот AdSense. Якщо раптом на сторінку були внесені якісь глобальні зміни, то це все дуже швидко проиндексируется, якщо на сторінку ходять користувачі, що використовують Яндекс.Бар.
Прюнінг - алгоритм, який на первинному етапі відсіває документи, які не відповідають запиту.
Ще одним джерелом посилань для пошукового робота є Яндекс.Маркет. Також пошуковик дуже легко може брати посилання з пошти.
Як можна впливати на краулінга і індексацію? Можна заборонити індексацію сторінок через robots.txt і директиву disallow. Використовувати 301-й і 302-й редіректи (останній не передає Посилальне). Ще можна прописати rel = canonical проти дублікатів.
X-Robots-Tag прописується в http-заголовку і має ті ж параметри, що і noindex. Також, в Яндекс.Вебмастере можна заборонити брати сніпети або взагалі видалити ту чи іншу сторінку.
Крім заборонного впливу, є ще вплив рекомендаційний - довідкова структура, HTML Sitemap, XML Sitemap.
Файл Robots.txt - це текстовий файл, що знаходиться в кореневій директорії сайту, в якому прописуються спеціальні інструкції (директиви) для пошукових роботів. Ці інструкції можуть забороняти до індексації деякі розділи або сторінки на сайті, вказувати на правильне «віддзеркалювання» домену, рекомендувати пошуковому роботу дотримуватися певний часовий інтервал між скачуванням документів з сервера і т.д.
Директиви діляться на обов'язкові та рекомендовані (allow і disallow - обов'язкові, host - рекомендована). Вони виконуються не тільки ботами пошукових систем, але і деякими іншими (Solomono). Необхідно пам'ятати, що існує різниця в синтаксисі для пошукових систем.
Олексій Чекушіна: «Чому ПС не може забити на robots.txt? Релігія не дозволяє ».
XML-sitemap - це те місце, куди потрібно додавати урли тих сторінок, які не в індексі. Потрібно пробити індексацію свого сайту через будь-який парсер позицій, і якщо якихось сторінок немає в індексі - додати їх в XML-sitemap.
Після цього пішов невеликий практикум, під час якого студенти навчилися перевіряти індексацію сторінок сайту, а також шукати дублікати через видачу пошукових систем.
Чим небезпечні дублікати сторінок? Тим, що вони розпорошують краулінговий бюджет, з'являється можливість вибору неосновного документа як найбільш ймовірного і навіть неіндексірованія основного документа. Дублікати шукаються порівнянням індексів ПС, потім виділяються причини їх появи, які безжально усуваються, а самі дублі закриваються за допомогою rel = canonical.
Далі Олексій прочитав дуже цікаву і корисну лекцію про перелинковке. Адже як оптимізувати сайт? Всі знають, що потрібно написати текстів, закупити посилань і зробити грамотну перелинковку. Так ось студенти з цієї лекції дійсно дізналися, що таке «грамотна перелінковка».
За словами Олексія, перелінковка вирішує відразу кілька завдань:
Нюанси цих завдань полягають в тому, що пошуковик не повинен бачити навігаційні посилання (хлібні крихти, посилання зі вкладених сторінок на головну), деякі seo-посилання повинні бути доступні тільки одному пошуковику, а користувач не повинен бачити seo-посилань взагалі.
Черговий практикум від Олексія Чекушіна був присвячений тому, як можна заховати seo-посилання від користувача, що саме потрібно ховати і як. Студенти повинні були завчити напам'ять, що текст - це властивість сторінки донора, з якої варто посилання, а анкор - це властивість акцептора; тому можна закрити текст посилання, не закриваючи анкор, і навпаки.
Коли студенти навчилися закривати посилання за допомогою noindex, nofollow, а також простого і складного j-скрипта, Олексій перейшов до розповіді про розміщення внутрішніх посилань:
1. Статичні блоки - прості в реалізації, добре підходять для задач ранжирування, вимагають первинного розподілу по сторінках.
2. Динамічні блоки - також прості в реалізації, особливо гарні для вирішення задачі оптимізації під Google, а крім того, не вимагають необхідності первинно задавати розподіл.
3. Простановка під бота - складна в реалізації, дозволяє швидко індексувати нові посилання обраним пошукачем, добре підходить для задач ранжирування.
Докладному розбору завдань ранжирування та індексації, анкорний ранжирування і ранжирування PR Олексій присвятив другу частину своєї лекції. Під час якої, в рамках практикуму, студенти вчилися підраховувати PR і становили ідеальний анкор-лист.
Одну з найбільш вражаючих лекцій прочитав студентам Михайло Сливинський. Він розповів про аналітику пошукового просування, заразивши бажанням аналізувати навіть тих, хто геть заперечував користь будь-якого аналізу в SEO.
Михайло почав з того, що спробував зруйнувати деякі з найпопулярніших seo-ілюзій. Одна з них звучить так: «Був би сайт, а покупці знайдуться», насправді інформаційні технології все більше стають просто фактором виробництва або ресурсом, необхідним для збереження конкурентоспроможності, але недостатнім для отримання переваги. Сам по собі сайт нікому нічого не дає, це точно.
Точно також Михайло спростував твердження, що від пошуку якось можна приховати низьку цінність сайту, що SEO - абсолютно універсальний інструмент, що хороша оцінка асесора гарантує хороші позиції, що контекст і SEO - взаємозамінні, тільки SEO дешевше і т.д.
За словами Михайла, багато інтернет-підприємці сьогодні буквально заплуталися в трьох соснах:
А сучасні реалії SEO такі, що на одній чаші ваг знаходяться терміни і керованість (і той і інший параметр контролюється слабо з боку замовника), а на іншій - порівняльна дешевизна і відсутність альтернативи. І друге завжди переважує.
Як же побудувати ефективну SEO? За словами Михайла, семантика, посилання, контент, вимоги ПС - це тільки верхівка айсберга, а базуватися все це повинно на аналітиці та автоматизації процесів.
SEO-аналітика - це підвищення ефективності процесів, пошук ефективних методів просування, саппорт оптимізаторів.
Особливу увагу Михайло приділив аналізу конкурентів. Студенти дізналися, як правильно провести контрольний, поведінковий, структурний і технічний аналіз сайту конкурента. За цим принципом Михайло радить аналізувати сайти, які мають високі позиції в ПС, щоб збагачуватися ідеями і вчитися їх правильному технічному виконанню. Також, аналіз конкурентів часто добре допомагає побачити свої помилки, зрозуміти, в чому вони полягають і як їх краще виправити.
Чи потрібно SEO пошуковим системам? Михайло вважає, що ПС ділять SEO-методи на допустимі, неприпустимі і рекомендовані пошуком.
Рекомендовані - це sitemap, регіональність і robots.txt. Допустимі - це посилання, контент і ЧПУ, наприклад. А неприпустимі - це дорвеи, клоакинг і накрутки.
Про те, як оцінити ефективність SEO, які існують SEO-моделі, метрики і KPI пошукового просування, Михайло з'ясовував, підключивши до розмови студентів. Ініціювавши жарку дискусію, під час якої народилося чимало вартісних ідей і висновків, він досить посміхнувся і сказав, що курс спеціально був зроблений так, щоб навчити студентів думати, а не просто бути пасивними споживачами знань.
Знання, не вживані на практиці, є скоріше злом, ніж добром, - про це не втомлювався повторювати і Леонід Гроховский під час практичних занять. На засвоєння нового матеріалу та виконання домашнього завдання у студентів були рівно добу, під час яких вони практично не спали (бо після вечірніх вебінарскіх занять обговорення плавно перетікав в скайп, де більш досвідчені в SEO допомагали розібрати якісь складнощі новачкам), не їли і не працювали - тільки оптимізували. Навчання на курсі для кожного перетворилося на свого роду квест, який будь-що-будь треба було пройти.
Про те, як проходила підготовка до диплому, складання іспиту та захист, а також чим закінчився цей грандіозний квест під назвою «Повний курс SEO за 150 годин» читайте в нашому наступному огляді.
Які ж метрики якості пошуку?Що ж робити оптимізатора в боротьбі проти антиспаму пошукових систем?
Як можна впливати на краулінга і індексацію?
Txt?
Чим небезпечні дублікати сторінок?
Адже як оптимізувати сайт?
Як же побудувати ефективну SEO?
Чи потрібно SEO пошуковим системам?