Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
      Где купить переходник на фотоаппарат

      Я решила попробовать заработать в интернете на фотографиях, и приобрела хороший фотоаппарат. Спустя некоторое время я захотела снимать мелкие объекты, например песчинки песка или капельки воды. Но

      Уборка квартир в москве
      Проф уборка квартир в москве позволяет не беспокоиться о кавардаке, который повстречает Вас либо Вашу вторую половинку. Если Вы закатывали гулкую вечеринку, а на утро остались совершенно одни, то конкретно

      Оклейка авто в Москве
      Наверняка всем автомобилистам знакома ситуация, когда любимый железный конь требует устранения возникшей неисправности, а на СТО говорят, что рабочий день мол заканчивается, а завтра так и, вообще выходной.

    Новости

    Найстрашніші помилки в SEO

    Деякі нижче перераховані помилки є дуже грубими і можуть призводити до санкцій з боку пошукових систем, інші ж - м'якше, але теж не дають вийти сайту в топ по потрібних запитах. У будь-якому випадку кожна з перерахованих помилок може призвести до зниження трафіку в рази. Тому дуже уважно вивчіть цей розділ і бійтеся як вогню допустити ці помилки.

    1. Переспа. Це, мабуть, найсерйозніша з усіх помилок пошукової оптимізації сайту. Деякі оптимізатори намагаються перенаситити сторінки просуваються ключами. Вони додають їх по кілька разів на метатеги, заголовки, а в тексті ключ може зустрічатися у них десятки разів у всіх склонениях, часто напівжирним шрифтом або з підкресленням. Ну і на завершення вони додають на сторінку безліч внутрішніх посилань, вгадайте яких, - з входженням продукту, що просувається ключа. У підсумку, сторінка більше схожа на створену для пошукових систем, ніж для людини.

    Що про це думає Яндекс? Читаємо в блозі Яндекса: «Як ми вже писали, пошук Яндекса віддає перевагу сайтам, які створені для людей і зручні користувачам, і негативно ставиться до спроб підвищення релевантності сторінок за рахунок надмірного вживання в текстах ключових слів (або цілих популярних запитів). Розміщення переоптімізірованние текстів, що не адресовані відвідувачам сайту, відноситься до прийомів «псевдооптімізаціі» і ніяк не покращує якість сайту. Якщо алгоритм визначить, що контент створений для впливу на пошукову систему і підвищення релевантності, позиції цього документа у видачі можуть погіршитися ».

    І це не жарти, пошукові системи дуже жорстко карають сайт за Переспа втратою позицій і випаданням сторінок з індексу.

    Нижче приклад переспамленного тексту з блогу Яндекса:

    «Останнім часом проблема переоптімізірованние текстів особливо актуальна. Переоптімізірованние тексти (які по-англійськи можна назвати over-optimized texts або over-optimized content) або тексти з запитами, часто використовуються для оптимізації сайтів. Переоптімізірованние тексти допомагають помістити на сайт велику кількість ключових слів (ключових слів, цільових запитів), за якими сайт просувається. Тому зараз активно використовується така процедура, як просування переоптімізірованние текстами. Що таке просування переоптімізірованние текстами, запитаєте ви. Якщо ви ніколи раніше не пробували просування переоптімізірованние текстами, ви все одно напевно знаєте, що це таке ».

    Випадків фільтрації сайтів за Переспа чимало. Ось один з недавніх прикладів з форуму Searchengines:

    «Підкажіть, досвідчені товариші. Девелоп сайт, інтернет-магазин аксесуарів. Поки сайт розроблявся (місяці два в індексі був), були позиції по НЧ і йшов трафік. Прямо перед запуском, підключенням мерчанта (Яндекс.Касса, до речі) сайт випав з індексу. На листи в саппорт відповідають стандартно: «Наші алгоритми ... працюйте над сайтом і т.д.». Додав тексти (головна, категорії, пріоритетні бренди), не допомогло, той же відповідь від платонов. Сайт - чистий екомерц, 5000 позицій товарів, свій чекаут і т.д. За порадою відправив сайт на апрув в Яндекс Каталог, отримав відповідь: «За оцінкою редакції сайт переоптімізірованние». Хоча, на мій погляд, все ОК, тайтли людські більш ніж. З стрьомного - тільки динамічна перелинковка на сторінках товару. У ній може бути справа? »

    Досвідчені товариші тут же розібралися, що справа в жорсткому переспаме текстів просуваються ключами. Наприклад, фраза «сонцезахисні окуляри» зустрічалася в коді однієї сторінки 181 раз!

    Наприклад, фраза «сонцезахисні окуляри» зустрічалася в коді однієї сторінки 181 раз

    Переспа ключів в тексті на яку просуває сторінці

    Тому оптимізуйте-оптимізуйте, але не переоптімізіруйте. Кількох повторів просуває фрази в тексті сторінки цілком достатньо. Головне, щоб текст був для людей, а не для пошукових систем.

    1. Слабка оптимізація сторінки. Протилежна помилка хоч і не призводить до санкцій, але робить неможливим вихід сайту в топ за конкурентними ключам. Досить часто, просуваючи сторінку, оптимізатори не додають ключі в метатеги, заголовки, а іноді точних входжень немає навіть в тексті сторінки. І як ми з вами вже побачили на прикладі конкретних кейсів, одна лише внутрішня оптимізація сторінок може збільшити трафік сайту в рази.
    2. Занадто багато просуваються ключів на сторінках. Щоб заощадити свої сили і час, деякі оптимізатори просувають головну сторінку відразу по всьому конкурентним фразам. Приблизно так само справа йде і з внутрішніми сторінками: замість того щоб підготувати для кожного ключа або групи з декількох ключів окрему оптимізовану сторінку, вони створюють 2-3 сторінки, які просуваються по декільком десяткам ключових фраз.

    В результаті заточити сторінку під конкретні ключі не виходить, що послаблює позиції сайту. Більш того, посадочні сторінки слабо відповідають на питання відвідувача, який прийшов з пошукової системи, так як вони містять занадто багато різної інформації. Знову ж заважає відсутність заточування під конкретні ключі. Тому відвідувачі приходять на сторінку, закривають її і погіршують цим поведінкові фактори, що ще нижче опускає сайт у видачі.

    Знову ж правильним виходом було б створення спеціальних розділів і сторінок, які чітко і точно заточені під один або кілька суміжних ключів і дають вичерпну відповідь на питання користувача.

    До речі, за словами SEO-консультанта Олени Камськой, ця помилка є найпоширенішою серед усіх помилок оптимізаторів.

    1. Помилки структури сайту (дублі, сміттєві сторінки і т.д.). Пошукові системи настільки не люблять дублі сторінок, точні або часткові, що часто через них знижують позиції сайту в пошуку. Дублі зазвичай плодять CMSсайтов при неправильному налаштуванні: Joomla, WordPressі багато інших. Головна сторінка сайту може бути доступна за адресою site.ru, а також site.ru/index.html і site.ru/default.html. Для користувачів це одна і та ж сторінка, а для пошукових систем дублі. Їх потрібно знайти і налаштувати сайт таким чином, щоб повністю виключити дублі.

    Шукати можна через пошукову систему. Для цього ставимо галочку пошуку по сайту і вставляємо в якості пошукового запиту фрагмент тексту зі сторінки в лапках (лапки допомагають знайти точну відповідність). Перевіривши ряд сторінок таким чином, можна зрозуміти, чи створює CMS їх дублі чи ні. Дублі буде видно відразу, коли за унікальним запитом буде відображатися відразу кілька результатів з вашого сайту. Якщо дублі є, потрібно звернутися до програміста для настройки CMS таким чином, щоб вона не плодила копії сторінок.

    До речі, свого часу наш тестовий сайт різко втратив всі позиції в Яндексі за основними запитами, і вони вилетіли з топа в 5-у сотню видачі. Причина була проста - помилка програміста, через яку було автоматично створено безліч дублів сторінок. Після усунення цієї проблеми позиції незабаром знову відновилися.

    Сміттєві сторінки - це сторінки, які виникли по технічну помилку, наприклад порожні сторінки або сторінки з технічною інформацією, які не повинні відображатися користувачам. Від таких сторінок потрібно позбавлятися. Щоб виявити їх, можна додати сайт в Яндекс-Вебмайстер і вивчити розділ проіндексованих сторінок. З безкоштовних інструментів, які не потребують реєстрації, рекомендуємо Лінкпад. Там під час перевірки сайту в розділі «Сторінки в індексі» можна побачити основні сторінки і їх розмір.

    Ознакою сміттєвої сторінки є її малий розмір. Особливо зверніть увагу на сторінки розміром менше 3 кб, саме вони можуть бути порожніми або помилково створеними. Знайшовши лише кілька подібних сторінок, залишається показати їх програмісту з тим, щоб він усунув причини їх появи.

    Відсутність сторінки з помилкою 404 - деякі сайти замість того, щоб видати у відповідь на запит неіснуючої сторінки 404-ую помилку, повертають відповідь 200 ОК і відображають якийсь вміст або здійснюють 302-ой редирект. Це неправильно, так як змушує пошукові системи вважати, що сторінка існує. Навіть через таку дрібницю ранжування сайту може погіршуватися.

    Тому перевірте відповідь сайту на запит на сторінку, якої точно немає на сервері. Рекомендуємо використовувати для цього сервіс BertaL Якщо у відповідь на запит неіснуючої сторінки на вашому сайті типу site.ru/test404.html, а також неіснуючого домену типу test.site.ru сервер не поверне 404-ую помилку, необхідно звертатися до програміста для усунення проблеми.

    Велика кількість наскрізних динамічних блоків на сторінці - це хвороба інтернет-магазинів, коли на сторінці відображається трохи тексту, що стосується даного товару або товарної категорії, і безліч інформації в динамічних блоках: схожі і рекомендовані товари, останні відгуки та інше ... Іноді вмісту динамічних блоків в рази більше, ніж основного контенту сторінки. Просування таких сторінок - це проблема, тому що відбувається розчинення основного контенту неосновним.

    Плюс до цього, динамічні блоки на різних сторінках можуть видавати приблизно однаковий зміст, а це вже дублювання контенту, яке призводить до зниження позицій таких сторінок.

    Якщо ці блоки формуються на льоту за допомогою Аякса, тобто спочатку сторінка завантажується, а потім скрипти підтягують вміст блоків, то проблем немає. У цьому випадку ці блоки взагалі не будуть проіндексовані (пам'ятаєте розмову про скрипти?).

    Але якщо вміст блоків є в HTML-коді, то вони будуть проіндексовані, а отже, потрібно працювати з ними так, щоб не створювалися дублі контенту і не розмивалося основний вміст сторінок.

    1. Формування основного контенту на льоту за допомогою javascript і ajax. Ця помилка, як правило, зустрічається
      на самописних сайтах. Її суть в тому, що основний контент формується після відкриття сторінки користувачем.

    Чим це погано? Пошукові системи, як правило, не запускають скрипти на сайті. Вони бачать сторінку без тих текстів, які завантажуються скриптами. І хоча представники Гугла заявляють, що навчилися добре працювати з ява-скрипт, наш досвід показує, що поки це не відповідає дійсності. Якщо основний вміст підтягується скриптами, то пошуковики будуть бачити сторінку без основного вмісту. Тоді ні про яке просування сторінки не може йти й мови. Необхідно, щоб весь основний контент завантажувався відразу, а не за допомогою скриптів.

    1. Вихідні посилання на погані сайти - в Радах вебмайстру від Яндекса сказано, що пошуковик намагається не
      індексувати або НЕ ранжувати високо «немодеровані форуми, дошки оголошень, що містять велику
      кількість посилального спаму ». Такі сайти дійсно дуже швидко вилітають з індексу через спам-посилань.

    У групі ризику блоги або інші сайти, де відвідувачі або сам власник сайту розміщує посилання на погані сайти.

    Ні в якому разі не можна ставити посилання на дорвеи (автоматично згенерували сторінки і сайти, створені тільки для збору пошукового трафіку і для редиректу його на якісь інші майданчики), фішингові сайти (сайти, створені для крадіжки персональних даних). Потрібно уникати посилань на порносайти, а також будь-які інші сайти, які здаються вам сумнівними.

    Якщо будь-який користувач може додати на сайт посилання, то подбайте про те, щоб всі посилання йшли з атрибутом rel = nofollow, наприклад <a href=»site.ru» rel=»nofollow»> Xоpошій сайт </a> Цей атрибут забороняє пошукової системі переходити по посиланню. Попросту кажучи, вона не враховується пошуковими системами, хоча у оптимізаторів на цей рахунок є обґрунтовані сумніви. У будь-якому випадку відповідальність за таке посилання за допомогою rel = "nofollow» ви з сайту знімаєте.

    Зокрема, Гугл рекомендує використовувати цей атрибут для посилань в ненадійному (призначеному для користувача) контенті: «Якщо ви не можете або не хочете поручитися за зміст сторінок, на які ведуть посилання з вашого сайту (наприклад з коментарів користувачів), слід вставляти в теги таких посилань rel =" nofollow " . Це скоротить кількість спаму і допоможе виключити ненавмисну ​​передачу значення PageRank з сайту недобросовісним користувачам ».

    Отже, не посилайтеся на погані сайти або використовуйте атрибут rel = nofollow, коли немає можливості перевіряти сайти.

    1. Агресивна реклама - хто б міг подумати, що за рекламу на сайті можуть бути якісь санкції! І, тим не менш, це реальність. Яндекс, описуючи сайти, які підлягають виключенню або зниження в пошуку, в своїх рекомендаціях згадує «сайти, основним призначенням яких є агресивна демонстрація рекламних матеріалів (в тому числі popup, popunder, clickunder)». Аналогічного підходу дотримується і Гугл, тому ми настійно рекомендуємо не використовувати рекламу, яка викликає відкриття якихось додаткових вікон.

    Крім того, краще забути про показ на своєму сайті шокуючої реклами і реклами для дорослих. У блозі Яндекса про це написано наступне: «До такої реклами відносяться, наприклад, тизери з фотографіями хвороб, зображення частин тіла людей з сильно надлишковою вагою, реклама, в якій використовуються картинки з явно вираженим еротичним змістом, кадри з фільмів жахів тощо ... У зв'язку з вищесказаним в Пошуку буде поступово впроваджуватися механізм, який віддає перевагу сторінкам, що не містить шокуючої реклами ... »

    Ось ще характерне повідомлення від Яндекса на тему реклами: «Напевно ви хоча б раз помічали на сайтах спливаючі вікна, схожі на повідомлення від соціальних мереж, пропозиції по оновленню ПЗ або повідомлення від« антивірусів »про зараження ... Тепер Яндекс вміє визначати сайти з подібним контентом, і найближчим часом їх позиції в результатах пошуку будуть знижені ».

    Хочете дізнатися ще один простий спосіб погіршити ранжирування сайту? Для цього потрібно розмістити на ньому занадто багато реклами. Наприклад, Гугл бореться з цим за допомогою свого алгоритму Page Layout, накладаючи так званий фільтр Top heavy на сайти, верхня частина яких переповнена рекламою. Ось що про це повідомляє Метт Каттс, провідний інженер Гугл по боротьбі з пошуковим спамом: «Ми розуміємо, що розміщення реклами в верхній частині сайту характерно для багатьох веб-ресурсів, оскільки саме такі оголошення помітні користувачеві і є основним джерелом доходу для видавців. Ось чому фільтр не буде знижувати в ранжируванні ті сайти, які публікують рекламу «в розумних межах». Основний удар припаде на сайти, що рясніють рекламою, де користувач досить складно знайти оригінальний контент. Не мине й поширений прийом, коли оригінальний контент, розміщений у видимій верхній частині сайту, наполегливо направляє користувача нижче до величезних блокам рекламних оголошень ».

    Тому потрібно ставитися до реклами на своєму сайті дуже обережно, уникаючи настирливої, набридливої, шокуючої реклами, а також не допускаючи надлишку навіть допустимої реклами на сторінках.

    Уникаючи перерахованих вище помилок і виконуючи всі рекомендації розділу з пошукової оптимізації, можна досягти приголомшливих результатів в просуванні будь-якого сайту. А тепер давайте підсумуємо і згадаємо найважливіші моменти, що стосуються внутрішньої оптимізації підсумки

    Що про це думає Яндекс?
    У ній може бути справа?
    Пам'ятаєте розмову про скрипти?
    Чим це погано?
    Хочете дізнатися ще один простий спосіб погіршити ранжирування сайту?

     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»