Оптимізація для пошукових систем: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[перевірена версія][неперевірена версія]
Вилучено вміст Додано вміст
рекламне помилання, оформлення
Moana122 (обговорення | внесок)
м +1 розіл
Рядок 66: Рядок 66:
=== Чорна оптимізація ===
=== Чорна оптимізація ===
До чорної оптимізації відносяться всі методи, які суперечать правилам пошукових систем. Серед них можна виділити наступні: використання дорвеїв (сторінок і ресурсів, створених спеціально для роботів пошукових систем, найчастіше з великою кількістю ключових слів на сторінці), прийом під назвою клоакінг (користувачеві віддається одна сторінка, що легко читається, а пошуковому роботу — інша, оптимізована під які-небудь запити), використання прихованого тексту на сторінках сайту, використання «однопіксельних посилань».
До чорної оптимізації відносяться всі методи, які суперечать правилам пошукових систем. Серед них можна виділити наступні: використання дорвеїв (сторінок і ресурсів, створених спеціально для роботів пошукових систем, найчастіше з великою кількістю ключових слів на сторінці), прийом під назвою клоакінг (користувачеві віддається одна сторінка, що легко читається, а пошуковому роботу — інша, оптимізована під які-небудь запити), використання прихованого тексту на сторінках сайту, використання «однопіксельних посилань».

== Метрики для оптимізації пошукової системи ==

=== Google PageRank ===
[[Google PageRank]] (Google PR) - один з методів, який [[Google]] використовує для визначення релевантності або важливості сторінки. Важливі сторінки отримують більший [[PageRank]] і частіше відображаються у верхній частині результатів пошуку. Google PageRank (PR) - це міра від 0 до 10. Google Pagerank базується на зворотних посиланнях. PageRank працює, підраховуючи кількість та якість посилань на сторінку, щоб визначити приблизну оцінку того, наскільки важливий веб-сайт. Основне припущення полягає в тому, що більш важливі веб-сайти, ймовірно, отримуватимуть більше посилань з інших веб-сайтів. Проте, Google заявляє, що не буде більше оновлень PageRank, тому цей показник стане застарілим [2]. Станом на 15 квітня 2016 року компанія Google офіційно вилучила рейтинг PR з панелі інструментів.[http://snip.ly/vyclb#http://searchengineland.com/google-toolbar-pagerank-officially-goes-dark-247553]

=== Alexa Traffic Rank ===
[[Alexa Internet|Alexa]] Traffic Rank базується на кількості трафіку, зареєстрованого користувачами, які встановили панель інструментів Alexa протягом трьох місяців. Рейтинги на сайті базуються на загальній кількості унікальних відвідувачів та переглядів сторінок. Унікальні відвідувачі визначаються кількістю унікальних користувачів Alexa, які відвідують сайт у певний день. Перегляди сторінок - це загальна кількість запитів URL-адрес користувачів Alexa для сайту.[https://chrome.google.com/webstore/detail/alexa-traffic-rank/cknebhggccemgcnbidipinkifmmegdel?hl=ru]

=== Moz Domain Authority ===
Авторитетність домену (DA), метрика веб-сайту, розроблена компанією Moz, є прогнозним показником для визначення трафіку веб-сайту та рейтингу звичайних пошукових систем. Адміністрація домену базується на різних показниках посилань, таких як кількість пов'язаних кореневих доменів, кількість загальних зворотних зв'язків та відстані зворотних посилань на домашній сторінці веб-сайтів.[https://moz.com/learn/seo/domain-authority]

=== Moz Page Authority ===
У порівнянні з авторитетністю домену, який визначає силу рейтингу всього домену або субдомену, Page Authority визначає силу окремої сторінки . Це оцінка, розроблена Мозом у логарифмічній шкалі на 100 пунктів. На відміну від TrustFlow, влада домену не враховує спам.[https://moz.com/learn/seo/page-authority]


== Див. також ==
== Див. також ==
Рядок 84: Рядок 98:
|website=it-ebooks.info
|website=it-ebooks.info
|title=The Art Of SEO}}
|title=The Art Of SEO}}
* [https://devaka.ru/articles/stat-busters 15 лучших инструментов для анализа сайтов] ''devaka.ru. {{ref-ru}}''


{{Internet-stub}}
{{Internet-stub}}

Версія за 12:12, 28 лютого 2018

Пошукова оптимізація сайту або ж SEO (англ. search engine optimization) — процес коригування HTML-коду, текстового наповнення (контенту), структури сайту, контроль зовнішніх чинників для відповідності вимогам алгоритму пошукових систем, з метою підняття позиції сайту в результатах пошуку в цих системах за певними запитами користувачів. Чим вище позиція сайту в результатах пошуку, тим більша ймовірність, що відвідувач перейде на нього з пошукових систем, оскільки люди зазвичай йдуть за першими посиланнями.

Основні напрямки роботи

Пошукова система враховує такі параметри сайту при обчисленні його релевантності:

  • частота ключових слів: складні алгоритми сучасних пошукачів дозволяють проводити семантичний аналіз тексту, щоб відсіяти пошуковий спам, коли ключове слово зустрічається дуже часто (більше 7-8 відсотків від всього вмісту) або дуже рідко (1-3 %) на сторінці. Оптимальна щільність ключових слів: 5-7 % від текстового вмісту веб-сторінки, при цьому ключові слова (фрази) повинні зустрічатися в тексті як мінімум 3-4 рази;
  • індекс цитування сайту, або кількість веб-ресурсів, що посилаються на даний сайт; багатьма пошукачами не враховуються взаємні посилання (один на одного), також важливо, щоб посилання були з сайтів схожої тематики, що і розкручуваний (оптимізовуваний) сайт.

Відповідно, всі чинники, що впливають на положення сайту у видачі пошукової системи, можна розбити на зовнішні і внутрішні. Робота по оптимізації включає роботу:

  • з внутрішніми чинниками які знаходяться під контролем власника веб-сайту) — приведення тексту і розмітки сторінок у відповідність з вибраними запитами, поліпшення якості і кількості тексту на сайті, стилістичне оформлення тексту (заголовки, жирний шрифт), поліпшення структури і навігації, використання внутрішніх посилань;
  • зовнішніми чинниками — обмін посиланнями, реєстрація в каталогах та інші заходи для підвищення і стимулювання кількості і частоти посилання на ресурс.

Пошукова оптимізація може послужити постійним джерелом збільшення кількості відвідувачів (90 % користувачів знаходять нові сайти через пошукові системи; 55 % онлайн покупок і замовлень здійснюються на сайтах, знайдених через пошукові системи). Високий рівень довіри до пошукових систем дозволяє отримати великий відсоток конвертації відвідувачів в покупців, а вартість залучення одного відвідувача мінімальна.

Люди, які потрапляють на сайт через пошукові системи це цілеспрямовані користувачі мережі, які вже сформували свої інтереси і шукають саме той товар (послугу), який Ви пропонуєте; саме тому пошукова оптимізація є джерелом найякісніших відвідувачів для Вашого сайту. Роботи з позиціонування сайту в пошукових системах — це один з найважливіших заходів щодо залучення цільової аудиторії. До найпопулярніших українських і світових пошукових систем належать Google, Яндекс, Yahoo, Особа, що проводить роботу по оптимізації веб-сайтів, називається оптимізатором (SEO-Manager).

Чинники, що впливають на видачу

Основними чинниками, які впливають на видачу в результатах пошукових систем є:

  • внутрішня оптимізація сторінки;
  • технічна оптимізація сайту (використовувана CMS, чистота коду, швидкість завантаження сайту, мобільна версія тощо);
  • якісні зовнішні посилання на сайт;
  • вік сайту;
  • наявність ключових слів в адресі сайту
  • Соціальні сигнали;
  • Поведінковий фактор.

До факторів, що знижують рейтинг сайту, належать:

  • НЕунікальний контент (статті, новини тощо);
  • технології, які пошукові машини розглядають як спам;
  • надлишкове число зовнішніх посилань, або посилання на неякісні сайти;
  • фрейми;
  • накрутки поведінкових факторів;

Історія

З появою і розвитком пошукових систем (пошуковиків) в середині 1990-х з'явилася і оптимізація. Перші SEO-технології передбачали коригування внутрішнього наповнення (контенту) та мета-тегів. Внаслідок цього високі місця у пошуку стали отримувати сайти, котрі не містили корисного змістового навантаження, а лише популярні пошукові запити.[1] У той час пошуковики надавали великого значення тексту на сторінці та іншим внутрішнім чинникам, якими власники сайтів могли легко маніпулювати. Це призвело до того, що у видачі багатьох пошуковиків перші декілька сторінок зайняли так звані «сайти-смітники», що різко знизило якість роботи пошуковиків і спричинило занепад багатьох із них. З появою технології PageRank більшої уваги стали приділяти зовнішнім чинникам, що допомогло Google вийти в лідери пошуку у світовому масштабі, ускладнивши оптимізацію за допомогою одного лише тексту на сайті.

Проте оптимізація розвивається разом з пошуковиками, і в сучасних результатах пошуку можна бачити все більше і більше комерційних сайтів з штучно роздутою популярністю, особливо за комерційно привабливими запитами. Одіозними прикладами таких запитів, за якими навіть іноді проводяться змагання оптимізаторів, є, наприклад: «створення сайтів» в УАнеті, або «создание сайтов» в РУнеті тощо. Зараз стало актуальним проводити конкурси з просування на провідні позиції популярності запитів, яких не існує у дійсності (тобто створених спеціально для змагання), тим самим даючи всім рівні умови.

Релевантність та ранжування

Пошукові системи ранжують сайти в пошуковій видачі по певному коефіцієнту релевантності ключовому запиту. Якщо власник сайту, розмістивши ту чи іншу інформацію не забезпечив контент потрібним рівнем релевантності темі, тоді така сторінка на думку пошукової системи не заслуговує бути в ТОП пошукової видачі. Є більш як 200 факторів ранжування, які використовуються SEO-оптимізаторами для просування сайтів. Складаючи мозаїку з тих самих 200-т факторів, можна отримати високоякісний сайт, який буде відповідати вимогам пошуковимх систем.[джерело?]

Методи оптимізації

Методи оптимізації можна розділити на три класи, проте останні події у світі пошукових систем дають зрозуміти, що це розділення вельми умовне — будь-яка маніпуляція певними параметрами сайту може бути розцінена пошуковиком як украй небажаний вплив на його результати. Так, будь-яка спроба маніпулювання пошуковими результатами прямо заборонена в ліцензії на використання пошукової системи « Яндекс». «Білі» оптимізатори і маркетологи користуються рекомендаціями Яндекса по створенню "хороших " сайтів . Таким чином вони просувають сайт, не порушуючи правил пошукових систем .

Методи зовнішньої пошукової оптимізації:

  • Реєстрація в самостійних каталогах. Вона може здійснюватися вручну або за допомогою спеціальних ресурсів;
  • Реєстрація в каталогах пошукових систем, таких як Top-100, DMOZ (AOL), Апорт, Yahoo тощо;
  • Обмін посиланнями. Існують декілька способів обміну — прямий, взаємний, односторонній (покупка посилань);
  • Розміщення статей;
  • Соціальні мережі;
  • Прес-релізи;
  • Активна діяльність на тематичних блогах;
  • Розмішення новин на сайтах-новинниках, таких як BuzzFeed, Reddit тощо;
  • Створення та ведення блогів.

Біла оптимізація

Біла оптимізація — оптимізаторська робота над ресурсом без застосування офіційно заборонених кожною пошуковою системою методів розкручування ресурсу — без впливу на пошукові алгоритми сайтів. Вона включає в себе роботу над самим сайтом, тобто над його внутрішньою навігацією і вмістом, і роботу з зовнішнім середовищем сайту, тобто просуванням цього сайту шляхом оглядів, прес-релізів, реєстрації в соціальних закладках, партнерських програм тощо із зазначенням посилань на сайт. Слід зазначити, що навіть якщо який-небудь метод оптимізації не є офіційно забороненим, це не означає, що його можна застосовувати.

Сіра оптимізація

До сірої пошукової оптимізації можна віднести додавання великої кількості ключових слів в текст сторінки, часто з втратою прочитності для людини, наприклад: «Масло масляне, тому що в ньому є похідні від масла масляні жири». Проте в деяких випадках при використанні сірої оптимізації допускається помилка під назвою переоптимізація, що призводить до переходу з сірої оптимізації в чорну. По суті, оптимізація полягає спочатку в підборі ключових запитів для конкретної веб-сторінки, визначенні розміру цільового "SEO-тексту " і необхідної частоти ключових слів у ньому, а потім у формулюванні пропозицій і фраз, які містять кількаразове повторення ключових запитів певну кількість разів у різних відмінках, однині та множині, а також різних формах дієслів. Ці параметри можуть потім коригуватися за результатами видачі пошукових систем. При цьому завдання SEO-копірайтера — написати оригінальний текст таким чином, щоб подібна оптимізація була якомога менш помітна «живому» читачеві (і зокрема асесору пошукової системи). У випадку неправильно поставленого технічного завдання, копірайтер може випадково переоптимізувати статтю. Пошукові системи побачивши таку — видалять з індексу ще до того, як вона попаде на очі асесору. Широко застосовується також включення ключового запиту в HTML-теги title, h1, атрибут meta keywords. Інший приклад сірої оптимізації — дорвей без редіректу, коли при потраплянні на дорвей не відбувається автоматичного перенаправлення на сайт, який просувають. Сіра оптимізація відрізняється від чорної тим, що вона офіційно не заборонена, але її використання все одно може бути розцінене як неприродне завищення популярності сайту. Деякі пошукові системи, наприклад, Google, можуть тимчасово або назавжди заблокувати такий сайт. Тобто, остаточне рішення про те, чи є методи просування законними чи ні, приймає фахівець — модератор пошукової системи, а не програма.

Чорна оптимізація

До чорної оптимізації відносяться всі методи, які суперечать правилам пошукових систем. Серед них можна виділити наступні: використання дорвеїв (сторінок і ресурсів, створених спеціально для роботів пошукових систем, найчастіше з великою кількістю ключових слів на сторінці), прийом під назвою клоакінг (користувачеві віддається одна сторінка, що легко читається, а пошуковому роботу — інша, оптимізована під які-небудь запити), використання прихованого тексту на сторінках сайту, використання «однопіксельних посилань».

Метрики для оптимізації пошукової системи

Google PageRank

Google PageRank (Google PR) - один з методів, який Google використовує для визначення релевантності або важливості сторінки. Важливі сторінки отримують більший PageRank і частіше відображаються у верхній частині результатів пошуку. Google PageRank (PR) - це міра від 0 до 10. Google Pagerank базується на зворотних посиланнях. PageRank працює, підраховуючи кількість та якість посилань на сторінку, щоб визначити приблизну оцінку того, наскільки важливий веб-сайт. Основне припущення полягає в тому, що більш важливі веб-сайти, ймовірно, отримуватимуть більше посилань з інших веб-сайтів. Проте, Google заявляє, що не буде більше оновлень PageRank, тому цей показник стане застарілим [2]. Станом на 15 квітня 2016 року компанія Google офіційно вилучила рейтинг PR з панелі інструментів.[2]

Alexa Traffic Rank

Alexa Traffic Rank базується на кількості трафіку, зареєстрованого користувачами, які встановили панель інструментів Alexa протягом трьох місяців. Рейтинги на сайті базуються на загальній кількості унікальних відвідувачів та переглядів сторінок. Унікальні відвідувачі визначаються кількістю унікальних користувачів Alexa, які відвідують сайт у певний день. Перегляди сторінок - це загальна кількість запитів URL-адрес користувачів Alexa для сайту.[3]

Moz Domain Authority

Авторитетність домену (DA), метрика веб-сайту, розроблена компанією Moz, є прогнозним показником для визначення трафіку веб-сайту та рейтингу звичайних пошукових систем. Адміністрація домену базується на різних показниках посилань, таких як кількість пов'язаних кореневих доменів, кількість загальних зворотних зв'язків та відстані зворотних посилань на домашній сторінці веб-сайтів.[4]

Moz Page Authority

У порівнянні з авторитетністю домену, який визначає силу рейтингу всього домену або субдомену, Page Authority визначає силу окремої сторінки . Це оцінка, розроблена Мозом у логарифмічній шкалі на 100 пунктів. На відміну від TrustFlow, влада домену не враховує спам.[5]

Див. також

Примітки

  1. Історія SEO як виду діяльності [1]

Посилання

  • Google: Інформація для веб-майстрів. google.com. (рос.)
  • The Art Of SEO. it-ebooks.info.
  • 15 лучших инструментов для анализа сайтов devaka.ru. (рос.)