Официальный сайт движения «Москва без Лужкова!»
Главная Новости Москвы Наши новости Популярное
  • Новости
  • Популярное
  • Новости
  • ВХОД В ЛИЧНЫЙ КАБИНЕТ
    логин
    пароль
       
    Новости

    Оптимізація флеш сайтів. Симбіоз SEO та графіки

    Думаю, все читали мою недавню публікацію -   Найкрасивіша одяг для сайтів Думаю, все читали мою недавню публікацію - Найкрасивіша одяг для сайтів. 50 найкрасивіших шаблонів на будь-який смак і колір . Там багато симпатичних дизайнів, багато з яких красуються на флеш сайтах. Сьогодні так уже виходить, що всі технічні моменти, які можна реалізувати за допомогою flash, одночасно недоступні сайтам інших форматів. Я маю на увазі звичайні html сайти і т.д.

    Але питання як зробити одночасно красиво, і щоб видимість в пошуку була хороша, поки ще залишається спірним. Спірним тому, що якби все було так просто, і тими методами оптимізації флеш сайтів, про які ще буде говоритися в даній статті, можна було б домогтися гарних позицій по конкурентних запитах, то не виникало б стільки суперечок.

    Реальна картина пошукової видачі

    Вебмастера хочуть, щоб було і красиво, і щоб сайти в пошуку нормально вирулювали, але поки так не зовсім виходить. Доказ моїх слів наведені нижче графіки видимості сайтів в пошукових системах. Беремо конкурентні тематики - «інтернет», «бізнес», «будівництво». Дані я беру з сайту http://www.seorate.ru/ . Отже, ось динаміка видимості сайтів в пошукових системах для тематики «Інтернет»

    У даній тематиці п'ятірка видимих ​​сайтів:

    • Yandex.ru

    • Wikipedia.org

    • Vkontakte.ru

    • Odnoklassniki.ru

    • Galleo.ru

    Так, згоден, тут є Яндекс і Вікіпедія. Вони типу поза конкуренцією. Але якщо дивитися далі за списком, то для цієї ж тематики навіть в десятці сайтів немає жодного сайту на флеш.

    Тепер тематика «Бізнес»

    Тепер тематика «Бізнес»

    Тут те ж саме. Тепер тематика «Будівництво»

    Тепер тематика «Будівництво»

    І в кожній тематиці, я пробігся, навіть в десятці немає жодного флеш сайту. Є гарні дізи тут, в тематиці будівництво, які поєднують «красиво і відвідуваність», як, наприклад, сайт topdom.ru, але знову ж таки кажу, флеш сайтами тут не пахне. І реальність сьогодні така, що сьогодні флеш сайти простіше знайти шляхом вбивання урла сайту в адресний рядок, або шляхом пошуку по картинках в тому ж http://images.yandex.ru/

    Отже, що? Ну, явно справа тут не в тому, що власники флеш сайтів не хочуть, щоб їх ресурси домоглися високих позицій в пошукових системах, а в тому, що вони в силу своїх технічних особливостей туди не можуть потрапити. Вірніше, можуть, але за більш-менш конкурентними запитами в топі їх просто немає Отже, що

    У корпорації Adobe зацікавлені в тому, щоб їх продукт отримував все більше і більше поширення серед користувачів, тому навіть відкрили свого часу спеціальний розділ на своєму сайті, в якому описують всі прийоми пошукової оптимізації flash сайтів.

    Для чого потрібні сайти на flash?

    Взагалі причин, за якими доцільно створювати саме флеш сайт, багато, але як мені бачиться з позиції інтернет-бізнесмена, використання технології флеш підходить для створення промо-сайтів, які рекламують якийсь товар або послугу. Візуально легше сприйняти інформацію на flash сайті, ніж лопатити купу сторінок з великим об'ємом інформації на статичному сайті.

    Ось, мабуть, один величезний аргумент на користь створення сайтів на флеш. Думаю, якісь подальші коментарі зайві. Сенс створення таких ресурсів є. Тому є сенс говорити далі про те, як просувати ресурси, створені за допомогою технології flash.

    Проблема пошукової оптимізації flash сайтів

    Взагалі, найбільша проблема просування таких проектів полягає в тому, що елементи з вмістом SWF є динамічними даними, які завантажуються і відображаються на основі інтерактивності. І це відбувається під час виконання, а не тоді, коли браузер завантажує спочатку HTML і SWF-контент, який якраз і сканують пошуковики.

    Припустимо, що ви заходите на сайт, який використовує SWF-додатки в якості основного інтерфейсу. Так ось, то, що ви бачите в HTML-коді, коли завантажується сторінка, це саме те, що бачить пошуковий робот. Тобто, пошукові роботи сканують вміст html документа, переходять за посиланнями, але вони не мають можливості взаємодіяти з вмістом SWF.

    До речі, приблизно така ж ситуація з Ajax і іншими динамічними платформами. Саме тому багато моїх колег-блогери закрили непотрібну інформацію за допомогою Ajax, і це нормально працює. Тому що будь-які динамічно передані дані є невидимими для пошукових систем.

    В цілому, Яндекс і Google вирішують проблему індексації сайтів на Flash. У Google є спеціальний оператор filetype: SWF, за допомогою якого здійснювати пошук тільки по флеш сайтів

    У Google є спеціальний оператор filetype: SWF, за допомогою якого здійснювати пошук тільки по флеш сайтів

    В даному способі є як плюси, так і мінуси. Але найголовніший мінус такої. Як самі думаєте, багато простих користувачів шукають інформацію в гуглі за допомогою оператора filetype: SWF?

    Як оптимізувати сайти на flash

    Звичайно, я більш ніж упевнений, що як би ви не лізли зі шкіри геть, все одно сайт на флеш не зможе ранжуватися також добре, як і звичайні статичні html сайти або динамічні сайти на php. Але все одно є методи, завдяки яким можна поліпшити видимість сайту на флеш в результатах органічної видачі.

    SWF-вміст в HTML-джерелі

    Сам по собі чистий флеш не може хавати пошуковими системами. Тому вихід у нас один - витягувати SWF-вміст, і поміщати його в HTML-версію файлу. Тобто, ідея така, що ми визначаємо на своєму сайті стратегічно важливі сторінки, і робимо html-версії цих сторінок.

    До речі, це добре ще й з тієї причини, що у користувача може бути просто відключений JavaScript в браузері, або не встановлений Flash Player. І хоча у гугла і Adobe були якісь розробки, що можна було здійснювати пошук в SWF-об'єктах, щоб шукати SWF-файлах, але все одно я вважаю, що ця технологія не прижилася, тому що більшість користувачів використовують стандартний пошук. Тому створення html з вбудованими SWF-файлами для найбільш важливого вмісту виправдовується подвійно.

    Роблять це по-різному. Наприклад, я зустрічав теги <div>. Я, чесно кажучи, не знаю, чи працює даний метод. Але читав на серч, що такий метод не дуже ефективний.

    Є інший метод, який, судячи з відгуків, показує непогані результати в пошуковій системі Google. Це вбудовування об'єктів за допомогою <noscript>. Коли ми викладаємо вміст SWF-файлу (текст, посилання, зображення і т.д.) в html-документ за допомогою тегів <noscript>. І якщо у користувача відключений JavaScript, то інформація, що знаходиться в тегах <noscript> буде відображатися в браузері

    1 2 3 <noscript> <! - alternative SWF content -> </ noscript>

    <Noscript> <! - alternative SWF content -> </ noscript>

    Говорячи простіше, якщо у користувача встановлений Flash, то йому буде показуватися Flash версія сайту. Якщо у нього не буде встановлений Flash, то йому буде показуватися звичайна HTML-версія сайту. А так як пошукові роботи не оснащені Flash, то їм буде показуватися звичайна HTML-версія сайту.

    Тут найважливіше те, що в html-джерело ми можемо включити найважливіше - ключові слова. Кеямі можна напхати заголовок, основний текст, анкор посилань і т.д. Зрозуміло, що потрібно діяти без фанатизму. За цим елементам пошуковик зможе визначити, що це за сторінка, і який на ній контент, про що він.

    Коли ви переглядаєте сайт з відключеним Java Script в браузері, то зможете побачити інформацію, вміщену в тегах <noscript>, тобто, ви зможете побачити дані SWF-файлів тільки у форматі HTML. Ось таким нехитрим чином пошуковий павук сканує сторінку і визначає, що за контент в ній міститься.

    Створення карти сайту в форматі XML

    Після того як ми зробимо HTML-версію сайту, бажано зробити карту сайту, щоб пошукові роботи добре «їли» всі наші сторінки. Нічого складного тут немає. Створюємо звичайний XML-файлик, який завантажуємо в кореневій каталог нашого сайту.

    До речі, тут є багато корисної інформації для пошукового робота:

    <Loc> - наш унікальний URL-адресу

    <Lastmod> - передає інформацію про те, що змінювалося на сторінці в останній раз

    <Changefreq> - за допомогою цього оператора ми передаємо пошуковому роботу, як часто змінюється зміст сторінки

    <Priority> - числове вираження важливості кожної URL-сторінки

    Ну, а в цілому вміст такого файлу виглядає наступним чином:

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 <? Xml version = "1.0" encoding = "UTF-8"?> <Urlset xmlns = "http://www.sitemaps.org/schemas/ sitemap / 0.9 "> <url> <loc> http://www.example.com/ </ loc> <lastmod> 2009-01-01 </ lastmod> <changefreq> monthly </ changefreq> <priority> 0.8 < / priority> </ url> <url> <loc> </ loc> <lastmod> 2009-02-01 </ lastmod> <changefreq> weekly </ changefreq> <priority> 0.3 </ priority> </ url> < / urlset>

    <? Xml version = "1.0" encoding = "UTF-8"?> <Urlset xmlns = "http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc> http: // www .example.com / </ loc> <lastmod> 2009-01-01 </ lastmod> <changefreq> monthly </ changefreq> <priority> 0.8 </ priority> </ url> <url> <loc> </ loc > <lastmod> 2009-02-01 </ lastmod> <changefreq> weekly </ changefreq> <priority> 0.3 </ priority> </ url> </ urlset>

    Більше вдаватися в тему не буду, тому що це дуже велика тема. Повністю можна почитати в супорті гугла . Там, правда, англійською, але якщо закортить, то розберетеся.

    Управління пошуковим роботом через файл robots.txt

    Взагалі, для рунета і зокрема для Яндекса файл роботс.тхт - це хороша штука, за допомогою якої можна вказати, які url-сторінки потрібно індексувати, а які ні. Що стосується Google, то тут хз. Від гугла закриватися не закривай в robots.txt сторінки, він все одно їх індексує. І мало того, він іноді навіть індексує сам файл robots.txt. Про це я теж писав - Ми закриваємо індексацію сторінок в robots від гугла. Але Google індексує сам файл robots .

    Тому я вважаю, що файл robots.txt має сенс використовувати заради пристойності, шляхом заборони індексації непотрібних сторінок. Щоб ресурси пошукача даром не витрачалися, і не витрачався даремно «бюджет сканування», про який я теж вже писав ( Як виправити помилки сканування в Google Webmaster Tools ), В robots.txt все-таки можна прописати сторінки, які небажані для індексування

    1 2 3 4 5 6 User-agent: * Disallow: / cgi-bin Disallow: / java User-agent: roguespider Disallow: /

    User-agent: * Disallow: / cgi-bin Disallow: / java User-agent: roguespider Disallow: /

    висновок

    Зрозуміло, це далеко не всі способи оптимізації сайтів на Flash, які можна використовувати в практиці. Це лише їх мала частина. Але вони, на мій погляд, найбільш ефективні.

    Сьогодні на десерт смакота: Бізнес-секрети: Артемій Лебедєв. Тьома місцями реально давав жару. Це потрібно подивитися. Я місцями з нього реально уссикался Сьогодні на десерт смакота: Бізнес-секрети: Артемій Лебедєв

    Оцініть статтю за 5-бальною шкалою:


    Сподобалася запис? Підпишіться на оновлення поштою:

    Facebook

    Як самі думаєте, багато простих користувачів шукають інформацію в гуглі за допомогою оператора filetype: SWF?
    Encoding = "UTF-8"?
    Encoding = "UTF-8"?

     

    Найди свой район!

    Восточный

    Западный

    Зеленоградский

    Северный

    Северо-Восточный

    Северо-Западный

    Центральный

    Юго-Восточный

    Юго-Западный

    Южный

    Поиск:      


     
    Rambler's Top100
    © 2007 Движение «Москва без Лужкова!»