- Основні зарубіжні пошукові системи, їх частка на ринку Левова частка всього світового пошуку доводиться...
- Yahoo! Search
- Google Search
- Ставлення до контенту сайту
- Ставлення до зовнішніх посиланнях на сайт
- Боротьба з пошуковим спамом
- Що таке «пісочниця», або Google Sandbox
- Yahoo Search
- Ставлення до контенту сайту
- Ставлення до зовнішніх посиланнях на сайт
- Боротьба з пошуковим спамом
- Microsoft Live
- Ставлення до контенту сайту
- Ставлення до зовнішніх посиланнях на сайт
- Боротьба з пошуковим спамом
Основні зарубіжні пошукові системи, їх частка на ринку
Левова частка всього світового пошуку доводиться на такі пошукові системи : Google Search, Yahoo! Search і Microsoft Live Search. Ці три американські компанії конкурують між собою в боротьбі за головний приз, тобто користувачів, які прийшли за допомогою в Інтернет.
Щоб оцінити частки присутності цих та інших компаній було б непогано, якби пошукові системи самі давали докладні звіти про свою роботу у вільний доступ, однак це малоймовірно, тому що подібна інформація є комерційною таємницею.
Але все-таки існують компанії, які як раз і займаються збором статистики з подібних питань. Найбільш авторитетною в цьому плані є компанія NetRatings, Inc. Саме вона постійно інформує Інтернет-спільнота про результати своїх досліджень в областях інтернет-комерції, маркетингу, онлайн реклами і пошукових технологій.
За даними останнього опублікованого звіту про обсяги пошукових запитів за грудень 2006 року, на американському ринку ми можемо спостерігати таку ситуацію рис.1.
Мал. 1
Судячи з цією статистикою, зараз більше 80% американського ринку пошуку ділять між собою ті самі три компанії, про які ми говорили раніше.
Google Search
На сьогоднішній день компанія Google Inc. володіє найпопулярнішою пошуковою системою, Google має одну з найбільших баз проіндексованих документів. Движок пошукової системи розробили ще в 1997 році Сергій Брін і Ларрі Пейдж, випускники Стенфордського університету. Вони ж одними з перших застосували для алгоритмів визначення релевантності сторінок технологію PageRank, яка ґрунтується на авторитетності документа, в залежності від зовнішніх посилань на нього.
Спочатку компанія Google позиціонувала себе тільки на ринку пошуку. Зараз же вона має безліч напрямків і різних інтернет-сервісів, серед яких розробка програмного забезпечення, безкоштовна поштова система, власна система електронних платежів та інші.
Yahoo! Search
Спочатку, з 1995 року, портал Yahoo! існував виключно як каталог сайтів. Згодом Yahoo! обростала все новими і новими сервісами і міні-проектами, а десь з 2000 року стала використовувати пошуковий движок сторонньої компанії Inktomi. Трохи пізніше вибір припав на пошуковий движок Google. Саме його і використовувала компанія Yahoo! до 2004 року. А в 2004 році була представлена власна пошукова система, і від послуг Google довелося відмовитися.
Що дивно, в 2002 році президент компанії Yahoo Террі Семел (Terry Semel) вів переговори про покупку Google Inc, якій було запропоновано $ 3 млрд., Але власники хотіли за свою компанію $ 5 млрд. На той час ця сума для Yahoo була просто астрономічною, так як довелося б задіяти всі свої резерви.
Через 2 роки компанія Google вийшла на біржу і її ринкова капіталізація перевищила $ 150 млрд. Зараз Google займає 2 місце серед IT-компаній в світі за ринковою капіталізацією. На першому місці знаходиться компанія Microsoft.
MSN / Windows Live Search
З огляду на те, що компанія Microsoft - світовий лідер серед компаній за ринковою капіталізацією, і те, що більше 2/3 комп'ютерів в світі працюють під її операційною системою, було б наївно думати, що Microsoft не побореться за ринок пошукових технологій. Так і є, компанія давно хотіла розробити свій пошуковий движок і зараз він у неї вже є. Нехай він не такий популярний, як Google, але передумови для розвитку і поліпшення якості пошуку у нього є. А саме якість пошуку привертає до себе як користувачів, так і потенційних рекламодавців.
Особливості просування сайтів в пошукових системах Google, Yahoo, Live. Розбір алгоритмів боротьби з пошуковим спамом, пісочниця Google, Supplemental Results, бонуси і фільтри, міфи і реальність
Основні принципи ранжирування документів у популярних пошукових систем практично однакові. Але деякі нюанси роботи, методи визначення пошукового спаму і ставлення до нього все ж дещо відрізняються.
Розглянемо найбільш цікаві моменти кожної пошукової системи.
Google Search
На сьогоднішній день це найпопулярніша пошукова система. Вона має найбільшу кількість запитів користувачів в місяць. Також вважається, що саме пошук Google зараз володіє самою просунутою системою. Внаслідок такої популярності виникли і дуже високі вимоги до якості пошуку, і їх поки компанія виконує на висоті.
День у день ми чуємо про нові й нові патенти, які Google реєструє в області пошукових технологій. Вебмастера всього світу намагаються розібратися, чи працюють ці патенти вже сьогодні або це питання найближчого майбутнього. Не претендуючи на найповніші знання в цій галузі, можу розповісти вам про найбільш важливих практичних моментах, що виникають при просуванні сайту.
Ставлення до контенту сайту
Ця пошукова система дуже вимоглива до унікальності тексту на вашому сайті. Сучасні алгоритми сьогодні дозволяють визначати унікальність тексту за різними ознаками. Визначити точну копію документа дуже легко. Якщо ви, наприклад, зробили сторінку, яка містить абзаци з інших джерел - будьте впевнені Google про це знає. Інше питання, як він відреагує. Якість пошуку оцінюється в кінцевому підсумку тим, чи знайшов користувач то, що шукав чи ні.
Якщо говорити про дублювання контенту, то це дуже серйозне завдання для будь-якої пошукової системи, правильно визначати це. Якщо ви написали цікаву статтю і розмістили її на різних проектах, то Google при одних і тих же умовах буде видавати вище більш авторитетні, на його думку, ресурси, а не свіжіші або раніше надруковані матеріали. Велику роль тут відіграє PageRank.
До контенту, який напханий ключовими словами, ставлення досить звичайне. На результати пошуку все ці відсотки щільності після якоїсь межі не впливають взагалі, а ось бути розпізнаним як спам документ має всі шанси.
За заявою розробників, Google має кілька кешей для зберігання інформації, які можуть виконувати кілька різні функції один від одного. Наприклад, є так званий новинний кеш. У нього потрапляють часто оновлювані документи або просто свіжі документи на деякий час. Є основний кеш, в якому зберігається інформація про поточний стан веб сторінок. Також, можливо, є кеш, де зберігаються всі зміни документів і історія їх розвитку. Як точно це реалізовано, важко сказати, але інформацію про якійсь кількості змін кожного документа Google зберігає.
Грунтуючись на інформації, яка є у Google, в певні моменти часу в основний пошук підмішуються сайти з новинного індексу з більш високими статичними коефіцієнтами, далі з часом вони або опускаються вниз, або в результаті роботи якихось алгоритмів можуть взагалі зникати.
Також у Google є додатковий індекс, так звані Supplemental Results. Туди, за заявами розробників, можуть потрапляти як нечіткі дублікати сторінок, документи з «поганим» контентом, а також просто сторінки з невисоким значенням PageRank. Далі при ранжируванні документів ці сторінки можуть не брати участь в основному пошуку, але якщо спробувати пошукати по дуже рідкісним запитам такі сторінки, то ми їх зможемо побачити. Судячи з усього, Google просто обнуляє їм якісь параметри, яких не вистачає для основного пошуку.
Що робити, якщо сторінки вашого сайту потрапили в Supplemental Results? Переконайтеся в тому, що кожна окремо взята сторінка має унікальне внутрішнє наповнення, відмінне від інших сторінок цього ж сайту, унікальний контент тегів і META-description. Якщо все це є, то подбайте про зовнішні посилання на ці сторінки. Також потрібно трохи набратися терпіння і почекати. Якщо всі умови виконані, то будьте впевнені, що скоро ваші сторінки з'являться в основному індексі.
Ставлення до зовнішніх посиланнях на сайт
Намагайтеся, щоб абсолютно кожна посилання, що веде на ваш сайт була з унікальним текстом. Існують алгоритми, які фільтрують посилання з однаковим текстом. Для вас це буде означати, що ваша праця не принесе ніякої користі.
Також потрібно зважати на те, що зворотні посилання повинні рости повільно, відповідно до зростання контенту. Це означає, що дуже швидке збільшення кількості посилань на ваш сайт призведе до того, що сайт отримає якийсь штраф і надовго втратить можливість конкурувати з іншими.
Чим довше стоїть посилання з певним ключовим словом, тим більше користі від неї. Часта зміна текстів посилання на одній і тій же сторінці зведе силу цього посилання до мінімуму. Всі ці моменти відображені в патентах Google.
Дуже важливу роль відіграє PageRank сторінки, з якої веде посилання на ваш сайт. Чим він вищий, тим краще. Але варто врахувати, що Google легко визначає тематику як сайтів, що, так і тих, на кого посилаються. І дуже часто буває, що посилання, що веде з сайту з високим PageRank, практично нічого не додає, так як веде на нетематичні ресурс.
Боротьба з пошуковим спамом
Нам потрібно змиритися з тим, що дуже велика частина Інтернету - це інформаційне сміття, або шум. Якщо людина відразу може за зовнішнім виглядом визначити, що це за сайт, то пошукові системи повинні робити це максимально автоматизовано.
Зараз Google легко визначає клоакинг, надмірне використання ключових слів в тексті, виконує простенькі JavaScript-и і шукає редіректи. Також на сьогоднішній день у цієї пошукової системи досить хороший алгоритм визначення дублікатів.
Обчислювальні процеси, що відбуваються всередині цієї складної системи, незалежні і можуть бути розкидані в часі. Я маю на увазі, що так звані викиди даних можуть відбуватися за різними параметрами в різний час. Наприклад, якщо ви поміняли Title на сайті, то побачити, як це вплине на пошук, можна вже через кілька днів, якщо поміняли повністю контент, то повинні дочекатися іншого міні-апдейта. Сила зворотних посилань перераховується, наприклад, раз на місяць. PageRank перераховується постійно. Але на різних датацентрах і при різних умовах викиди даних в основний пошук можуть не збігтися з перерахунком інших параметрів. Пошуковим спамерам не підходять такі варіанти - вони хочуть все і відразу, ось і трапляються за масовість і швидкість на гачки різних алгоритмів. Визначення спаму в Google повністю автоматизовано, модератори намагаються не втручатися в роботу алгоритмів і видаляти сайт руками - це робиться алгоритмічно. У цій боротьбі завжди виграє той, хто не поспішає і послідовно рухається до своєї мети.
Що таке «пісочниця», або Google Sandbox
Мабуть, це самий жаркий момент, який цікавить вебмайстрів усього світу в Google. Внаслідок різних вдосконалень алгоритмів склалася така ситуація, що новому сайту практично неможливо потрапити на першу сторінку пошуку в Google по конкурентних запитах. Є думка, що пошукова система просто не пускає протягом шести місяців нові сайти в видачу по конкурентних запитах. Це трохи не так, і зараз я спробую вам пояснити чому.
Перше, на що потрібно звернути увагу - це на публікації представників цієї пошукової системи. Вони заявляють, що нічого подібного спеціально не розробляли, і все це наслідок різних факторів. Вони не можуть бути однаковими для всіх сайтів, а розраховуються в залежності від ситуації.
Основна ідея цього явища (Sandbox) полягає в тому, що недавно з'явився в мережі сайт не може бути авторитетним і його голос не варто брати до уваги. Для початку люди повинні дізнатися все про нього, проаналізувати, дати свою думку. На все це потрібен час чисто фізично. Також трохи неприродно виглядає сайт, який раптом ні з того ні з сього отримав багато посилань, а його конкуренти немає. Залежно від ситуації Google розраховує порогові значення для кожного сайту, також це явище залежить від пошукового запиту. Поки сайт не задовольняє всім вимогам, його або не можна знайти серед перші 1000 результатів, або він дуже далеко від першої сторінки, якщо загальна кількість всіх релевантних запиту документів невелике.
Далі, ми більш наочно спробуємо розібрати роботу цієї системи, нехай і узагальнено.
Мал. 2 Сформоване думка про Sandbox
Судячи з цього малюнку, багато веб-майстри думають, що це якась дискримінація з боку Google по відношенню до їх новим «чудо-сайтам». Багато обурюються: «Як же так, у мене адже такий цікавий сайт»? Майже все зводиться до якихось санкцій і заборон, але технічну сторону питання ніхто навіть не збирається розглядати. У будь-якому випадку, для більшості «Sandbox» виглядає як чорний ящик. На виході маємо якісь дані, і на вході. Але зв'язати їх в одне ціле, з'ясувавши взаємодію факторів чітко, не вдається. Кожен веб-майстер або фахівець з просування сайтів намагається трактувати цей «чорний ящик» по-своєму. Внаслідок чого з'являється велика кількість фантастичних оповідань і рецептів, щоб побороти це явище. Деякі пишуть на форумах, що "Я розгадав секрет пісочниці, заходите до мене в закритий платний розділ - але не думайте, що я вам буду все розповідати". Це виглядає дуже смішно, враховуючи величезні інтелектуальні та технічні можливості фахівців з Google. Сподіватися на якісь прямолінійні рецепти, які спрацюють для будь-якого випадку, просто нерозумно.
Давайте хоча б спробуємо припустити, що ж може входити в ці грандіозні формули Google, які фактори і якою мірою на що впливають.
Почнемо з тимчасових факторів. Нам відомо, що компанія Google вже зареєструвала кілька патентів на тему ранжирування сайтів, покладаючись на історичні дані про їх розвиток. Тепер для визначення релевантності в алгоритмах можуть використовуватися дата реєстрації домена, дата першої індексації сайту, дати появи зовнішніх посилань і їх динаміка, дати усі зміни у тексті на сайті і інші.
Уважно прочитавши всі ці патенти, можна припустити, що:
- ніж раніше сайт зареєстрований - тим краще;
- ніж раніше перший раз проіндексований - тим краще;
- чим довше стоять зовнішні посилання на сайт, тим більше ваги вони передають;
- якщо зовнішні посилання з'являються природно, не дуже швидко, то це добре;
- якщо сайт часто оновлюється, то це добре;
- якщо сайт різко поміняв свою тематику через якийсь час, то це погано;
- згодом посилюється вплив всіх факторів як внутрішніх, так і зовнішніх.
Оскільки пошукові системи ранжирують сторінки сайтів, то можна припустити, що є якісь фактори, що залежать від самого сайту. Це можуть бути всі ті тимчасові чинники, що ми згадали, а також внутрішній вміст сайту. Можна припустити, що Google веде статистику по всіх сайтах в мережі і знає, який вигляд має середньостатистичний хороший сайт, як він повинен розвиватися, в якій послідовності. Тоді можна сказати, що краще не старатися з оптимізацією контенту сайту на початковому етапі розвитку, не гнатися за щільністю ключових слів і іншим.
Безумовно, що на роботу цього алгоритму впливають зовнішні чинники, стосовно якогось конкретного сайту. Якими ж вони можуть бути? Природно, що мова йде про посилання. Всі зовнішні посилання, текст, яким вони посилаються - все це може впливати на розрахунок того порога в «Sandbox». Враховується як кількість посилань, динаміка їх появи, так і те, з яких сайтів ці посилання стоять, з якими саме ключовими словами. Поява за короткий проміжок часу великої кількості зовнішніх посилань - це погано. Посилання з поганих сайтів - це не плюс. Посилання з однаковим текстом, участь в системах автоматичного обміну і кільцях - це погано. Природні посилання і посилання з авторитетних сайтів - це добре.
Що ж ще може брати участь в алгоритмах цього «Sandbox». Як для мене, так це абсолютно очевидно - це запит, який ви вводите в пошуковій системі. Саме від запиту буде, в більшій мірі, залежатиме те, чи буде ваш сайт брати участь в основній групі сайтів або потрапить під вплив обмежувального алгоритму Sandbox.
Давайте розберемося, якими ж властивостями взагалі має пошуковий запит. Кожен запит має частоту його пошуку в системі. Є запити з великою популярністю, у них ця характеристика більше. А є і запити з маленької частотою набору. Коли відбувається вибірка в індексі з якихось словосполученням, то з'являється певна кількість всіх релевантних документів. З'являється кількість всіх посилань в мережі з цими ключами, і Google відомі всі їх числові характеристики.
Також, знаючи запит, можна дізнатися, чи купують рекламодавці оголошення в Google Adwords чи ні, яка там загальна конкуренція. Маючи таку статистику по частоті, конкуренції, сумам, які витрачаються, Google може зробити угруповання сайтів за принципом: комерційний чи ні. І в залежності від цього автоматично настроєні коефіцієнти, які беруть участь в розрахунках алгоритму «Sandbox».
Представник Google якось повідомлялі про ті, что більш популярним запитам пріділяється более уваги, чем непопулярні в плане контролю якості. Природно, що все це робиться автоматично, тобто на аналіз популярних тематик витрачається більше процесорного часу всіх серверів. За дуже популярним, комерційно привабливим, запитам ми майже не будемо помічати поганих сайтів або дорвеев, тоді як по забороненим в Adwords жанрам чи просто рідко набирається запитам ми можемо побачити до 90% дорвеев на першій сторінці. Все це пов'язано з тим, що більш складні алгоритми вступають в роботу тільки при певних частотах, і немає сенсу витрачати додаткові ресурси на перерахунок всіх параметрів. Там, де це невиправдано, деякі алгоритми не працюють. Адже якість пошуку визначається ніж? Так просто, чи задоволений користувач тим, що йому пропонується за запитом чи ні. Якщо він шукав щось, знайшов і залишився задоволеним, то пошук якісний.
Також у всій цій системі бере участь і сам користувач. Те, з якої країни він подає запит, яким регіональним Google користується, може позначитися на результатах ранжирування. Але цей вплив, зокрема, буде залежати від тих же частотних характеристик пошукового запиту, тільки в контексті сформованих регіональних особливостей.
З огляду на все раніше сказане, можна запропонувати іншу узагальнену схему «Sandbox».
Мал. 3 Узагальнена схема «Sandbox»
Ну ось, коли розглянуто більшість можливих чинників, можна зробити якісь висновки, приміряти на цю схему то, з чим ми стикаємося в реальності, і перевірити чи працюють наші припущення.
Тимчасові характеристики домену однозначно тільки зменшують граничне значення. Але є взаємодія між датою реєстрації домену, датою першої індексації, датами появи зворотних посилань. Якщо просто зареєструвати домен і відкласти його на час, не роблячи сайт і не ставлячи зовнішні посилання, то це мінімально вплине на порогове значення. Більш важливою складовою є дата першої індексації та дати появи, динаміка зростання зовнішніх посилань.
Чим популярніша запит, тим більше коефіцієнти для розрахунку порогового значення. Також враховується комерційна сторона пошукового запиту і тематика.
Внутрішні тематичні характеристики сайту мінімально впливають на процес розрахунку порога, але зайва кількість ключових слів (переоптімізацію сайту) веде до його збільшення.
Зовнішні характеристики сайту можуть як зменшити час перебування під цим фільтром, так і збільшити .. Якщо не виходити за межі «золотої середини» в обидві сторони, то це, як мінімум, не збільшить поріг. Які саме коефіцієнти цієї взаємодії, скільки посилань треба ставити, з якою швидкістю, з яких сайтів і з яким PageRank - все це точно сказати неможливо. Ці параметри розраховуються динамічно під кожен конкретний запит і сайт. Наприклад, не потрібно ставити на новий сайт посилання з таких же нових сайтів, а також не потрібно відразу ставити посилання з PageRank = 8, наприклад.
Залежно від того, який користувач подає запит, в який регіональний Google, результати видачі можуть відрізнятися. Як пояснити, наприклад, те, що для російських запитів цей фільтр або взагалі не спостерігається, або тільки за найбільш конкурентними тематиками? Та дуже просто. Популярність цих запитів в Google не так велика, як ви думаєте. Люди мало користуються цією пошуковою системою, частотні характеристики запитів менше, ніж англомовних, ось і алгоритми трохи м'якше. Все це через конкурентності запитів і не треба думати, що під кожна мова пишуться свої якісь особливі алгоритми. Пошукова система оперує словами, фразами на різних мовах. Для кожної мови є свої особливості, але це мало впливає на чисто технічні завдання - пошук по базі даних і розрахунок всяких математичних формул.
Yahoo Search
Це друга за популярністю пошукова система в світі. Компанія Yahoo має велику передісторію до власного пошукового движка і можливості. Як показує історія, це стабільний представник другого місця. З огляду на те, що компанія займається не тільки пошуком, то бути другим з пошуку і першим в інших областях не так вже й погано.
Ставлення до контенту сайту
За аналогією з Google, дана пошукова система без праці визначає клоакинг, редіректи і напхані ключовими словами сторінки. Невелика відмінність в тому, що збільшення щільності ключових слів веде до збільшення позицій в Yahoo. Межі у цієї пошукової системи десь в 2 рази вище, ніж у Google. Але якщо в Google треба дуже постаратися, щоб сайт повністю за це забанили, то в ситуації з Yahoo розмова буде короткою - бан всього сайту, а в деяких випадках і ip адреси.
Ставлення до дубльованого контенту, природне, - це погано. Але ось реалізація алгоритмів трохи інша. Якщо в Google ви в більшості випадків не зможете за це отримати бан, то в Yahoo - це абсолютно реально, і треба буде ще довести, хто правий. Але самі алгоритми визначення дублікатів виглядають трохи несучасно - дуже багато часу проходить на визначення. Можливо, це пов'язано з сезонними апдейтами Yahoo. Майже всі параметри, такі як вага зворотних посилань і інших чинників перераховуються і викидаються в основний пошук раз в 3 місяці. Текстові, внутрістранічние, фактори оновлюються набагато частіше, але там, де їх вплив не настільки вирішальне, ми не будемо бачити ніяких змін у видачі до сезонного апдейта.
Ще одна невелика особливість - Yahoo враховує вміст мета-тега description. Його важливість дуже маленька, але все ж зараз він враховується. Можливо, в майбутньому цей дефект буде усунено.
Ставлення до зовнішніх посиланнях на сайт
На відміну від Google, Yahoo не так критична до однакових текстів посилань на ваш сайт. Але якщо Google вміє розпізнавати синоніми, відмінки, скорочення, то тут вам потрібно намагатися ставити посилання з точним входженням слів, які є на сайті.
За масовий штучний зростання зворотних посилань, за участь в системах автоматичного обміну посиланнями можна отримати бан. Ви можете також бути виключені з індексу просто за те, що інші сайти порушували ліцензію на пошук, а ви просто на них посилалися, або ваш сайт розміщений на тому ж ip адресу.
Який-небудь ефект від проставляння тих чи інших посилань можна спостерігати не так часто, як хотілося б. Апдейти в Yahoo відбуваються набагато рідше, ніж у інших пошукових систем.
Боротьба з пошуковим спамом
Не можна сказати, що Yahoo не бореться з пошуковим спамом, але якщо порівнювати з Google, то може здатися, що їх спроби не настільки успішні. Знову ж таки, повторюся, можливо, це пов'язано з дуже рідкісними апдейтами. Дуже радує служба підтримки Yahoo. Якщо ви раптом побачите якісь сумнівні сайти у видачі, повідомляєте їм, і дуже оперативно ці сайти пропадають. Так, але ось тільки в Google цих сайтів ви можете ніколи і не побачити - вони, як то кажуть, «гинуть на підльоті».
Microsoft Live
За сучасними мірками - це досить нова пошукова система і у неї ще все попереду, з огляду на те, які можливості має компанія Microsoft.
Серед трійки лідерів пошукових систем Microsoft Live виглядає трохи не готовою до сучасних реалій і вимог до якості пошуку. Згодом, думаю, ця ситуація трохи покращиться.
Ставлення до контенту сайту
Мабуть, в цій пошуковій системі внутрішнє наповнення сайту як ніде більше має вплив на релевантність і позиції у видачі. Тут дуже важлива щільність ключових слів, і чим більше, тим краще. Але є теж певний поріг. З огляду на те, що зараз у Live найчастіші апдейти і ми можемо спостерігати всі зміни тексту і їх вплив на видачу практично щотижня, то говорити про якісь екзотичних алгоритмах поки рано. Тут поки немає таких понять, як новий сайт, старість сайту - всі сайти ранжуються однаково.
Ставлення до зовнішніх посиланнях на сайт
На даний момент рано говорити про якісь усталених алгоритмах в цьому плані у Live. Розробники постійно щось вдосконалюють. Але вже чітко проглядається те, що ніяких фільтрів на однакові посилання і посилання з однакових ip поки немає. Якщо хочете бути високо в Live, просто ставте посилання з текстом, який точно є на сайті в тексті і Title. За рахунок найшвидших апдейтів посилальної бази серед великої трійки пошукових систем ми можемо спостерігати результати своєї праці практично щотижня.
Боротьба з пошуковим спамом
Не можна сказати, що компанія Microsoft не веде розробки в цьому плані. Вони є, навіть є.
Наприклад, вони розробляють свою систему, яка буде шукати пошуковий спам в зовнішніх чинниках. Співробітники дослідницького відділу ретельно аналізують світові тенденції спаму, дивляться, як борються з цією справою інші пошукові системи.
Думаю, в майбутньому всі ці дослідження принесуть свої плоди: пошуковим спамерам буде важче впливати на результати пошуку цієї системи, і, як наслідок, - покращиться якість пошуку.
Що робити, якщо сторінки вашого сайту потрапили в Supplemental Results?Багато обурюються: «Як же так, у мене адже такий цікавий сайт»?
Якими ж вони можуть бути?
Адже якість пошуку визначається ніж?