<
  • Главная
Статьи

SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх факторів. Читайте на Cossa.ru

  1. SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників Частина 2 керівництва...
  2. технічний аудит
  3. Аналіз зовнішніх факторів
  4. Що потрібно врахувати при аудиті?
  5. поведінкові чинники
  6. PS
  7. SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників
  8. технічний аудит
  9. Аналіз зовнішніх факторів
  10. Що потрібно врахувати при аудиті?
  11. поведінкові чинники
  12. PS
  13. SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників
  14. технічний аудит
  15. Аналіз зовнішніх факторів
  16. Що потрібно врахувати при аудиті?
  17. поведінкові чинники
  18. PS

SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників

Частина 2 керівництва по SEO-аудиту

Продовжуємо розбирати особливості аудиту сайтів. В першій частині ми розглядали структуру і контент сайту, а сьогодні за планом технічний аудит і перевірка зовнішніх факторів.

Для проведення технічного аудиту будуть корисні наступні інструменти:

технічний аудит

Robots.txt - службовий файл, який містить інформацію для пошукових роботів. Повинен бути доступний за адресою site.ru/robots.txt. Якщо його немає на сайті, то необхідно його створити.

В robots.txt можна вказати наступну інформацію для пошукових роботів: які розділи сайту можна індексувати, а які ні, головне дзеркало, шлях до карти сайту і т.д. Детальніше про налаштування можна почитати в Допомоги від Яндекса .

Необхідно переконатися, що в robots.txt закриті від індексації серверні логи, адмін-панель сайту, корзина інтернет-магазину, інші технічні розділи. Але зверніть увагу, щоб були відкриті для ботів пошукових систем скрипти сайту і CSS.


Перевірити, які розділи і сторінки робот буде індексувати, а які ні, можна, наприклад, в кабінеті Вебмастера Яндекса:

В вебмайстрів Яндекса перевірте вибрано чи головне дзеркало сайту. Вкажіть основний домен для Яндекса в robots.txt, скориставшись директивою Host. Наприклад: Host: site.ru

При проведенні технічного аудиту, необхідно заміряти швидкість завантаження сторінок сайту. Наприклад, в браузері Chrome можна швидко подивитися швидкість завантаження в такий спосіб F12 → Network → Doc → Time. Хороший результат - швидкість завантаження менше 1 секунди.

Далі перевіряємо код сайту на відсутність сміття: прихованого тексту, закоментувавши блоків, будь-яких невидимих в публічній частині елементів. Бували випадки, коли недобросовісні оптимізатори розміщували в коді клієнтського сайту приховані від ока користувача тексти спамние змісту. Через що сайт втрачав позиції в пошукових системах. Тому перевірте свій сайт не тільки з позиції користувача, але і глянувши на нього "очима пошукового робота".

У Google Search Console можна подивитися на сайт, як Googlebot:

Перевірка URL-ів сайту може бути виконана за допомогою програм Xenu Link Sleuth або Screaming frog SEO spider.

Програма просканує сторінки вашого сайту і ви побачите все URL-и, метатеги і заголовки, статуси сторінок, зможете знайти биті посилання, редіректи, вхідні і витікаючі посилання для сторінки, подивитися рівень вкладеності сторінок.

програма Xenu

Для початку перегляньте URL-и сторінок. Буде краще, якщо у сайту налаштовані ЧПУ (Человекопонятние урли). Переконайтеся, що адреси сторінок постійні, а движок сайту не генерує дублі сторінок.

програма Screaming frog

За допомогою цих програм ви зможете знайти сторінки з помилкою 404 і биті посилання. Їх потрібно усувати, щоб користувач потрапляв в потрібний йому розділ, а не на сторінку помилки.

Що стосується самої сторінки 404 помилки, то вона повинна бути оформлена, щоб допомогти користувачеві зорієнтуватися, якщо вже він на неї потрапив. Зазвичай на ній розміщують пояснення, що сторінки з такою адресою немає і пропонують скористатися пошуком по сайту, перейти на головну сторінку або в основні розділи сайту.

Якщо з якихось причин змінюють URL-и сайту, то щоб не виникало велика кількість 404 помилок, налаштуйте редіректи зі старих адрес на нові.

Перевірте наявність коректного sitemap. Багато движки сайтів дозволяють налаштувати сайтмап, який буде автоматично оновлюватися, при внесенні змін на сайт (наприклад, додаванні нових сторінок). Детально про карту сайту можна почитати тут . Посилання на sitemap вкажіть у файлі robots:
Sitemap: http://site.ru/sitemap.xml

Згенерувати карту сайту допомагають програми Xenu і в SEO frog:

Програма Screaming frog може зробити sitemap з урахуванням файлу robots.txt, щоб не включати в нього розділи сайту, які ви закрили для індексації.

Аналіз зовнішніх факторів

Аудит зовнішніх факторів перш за все включає в себе перевірку зворотних посилань сайту.

Інструменти:


Навіщо потрібен аналіз беклінків? Посилання - один з важливих факторів ранжирування сайту. І якщо сайт існує не перший день, то він швидше за все має кількість посилань. Зазначені вище сервіси: Majestic SEO, Ahrefs, MegaIndex.com - допоможуть з аудитом беклінків.

Що потрібно врахувати при аудиті?

1. кількість вхідних посилань
2. анкор-лист
3. типи посилань
4. типи і траст донорів

скріншот з системи MegaIndex.com

Кількість зворотних посилань може бути різним, але якщо на ваш ресурс ведуть сотні і тисячі беклінків, то обов'язково слід врахувати рекомендації нижче.

Основні вимоги пошукових систем до посилального профілем сайту:

  • різноманітний анкор-лист: якщо раніше анкор посилань були в основному тестові і з вмістом ключових слів, то зараз йде упор на різноманітність. Бажано включити в анкор-лист і такі слова, як: читати, дивитися, тут, тут, докладніше і т.д .;
  • також мають значення типи посилань: не варто нехтувати безанкорние посиланнями і беклінк з зображень;
  • різноманітність донорів посилань: серед джерел зворотних посилань повинні бути не просто якісь майданчики з сапи, а сайти партнерів, постачальників продукції, електронних ЗМІ, тематичних каталогів, соціальних мереж, форумів, порталів товарів і послуг і т.д.
  • траст донорів: краще, якщо джерелами посилань будуть сайти, які вже мають якийсь позитивний вага в мережі, ніж ресурси під фільтром АГС. Тому потрібно перевіряти донорів, перед розміщенням посилань. У швидкому аналізі донора допоможе розширення для браузера RDS bar .

Розширення покаже основні дані по сайту: кількість проіндексованих сторінок, кількість вхідних і вихідних посилань по Linkpad, ТИЦ (і накладено чи на сайт фільтр АГС), PR, наявність сайту в каталогах, дата вебархіва і т.д.

Соціальні чинники теж повинні бути враховані при проведенні аудиту. Подивіться згадки сайту в соціальних мережах за допомогою пошуку Яндекс Блоги .

Одні з важливих соціальних факторів:

  • присутність сторінки вашої організації в соцмережах;
  • згадка сайту в соціальних мережах;
  • посилання з соцмереж (в постах на стіні, коментарі і т.д.);
  • використання соціальних кнопок на сайті;
  • вимагати авторизації на ресурсі через соцмережі.


поведінкові чинники

За допомогою яндекс.метрика і Google Analytics оціните поведінку користувачів на сайті.

Що потрібно врахувати при аналізі поведінкових факторів:

  • показник відмов (обнародувано на сайті сторінки повинні відповідати запитам користувачів, інакше людина відразу піде з сайту і це буде зараховано за відмову);
  • час на сайті (відвідувач повинен провести на сайті достатню кількість часу, щоб ознайомитися з інформацією);
  • глибина перегляду (якщо користувач дивиться кілька сторінок сайту, значить він зацікавлений, але не варто ускладнювати структуру сайту, щоб збільшити цей показник. Інакше відвідувача можна відвернути від основної мети - зробити конверсійне дію);
  • конверсія форм (зверніть увагу на те, наскільки просто користувач може зробити замовлення з сайту або заповнити будь-яку конверсійну форму);
  • повернення до пошуку (якщо користувач повернувся до пошуку після відвідування вашого ресурсу, значить він не знайшов те, що шукав і сайт не відповідає на його запит, і це може привести до зниження сайту по даному запиту у видачі);
  • зв'язок позицій сайту і кількості переходів з пошуку (якщо ваш сайт на першому місці, а заходів по ньому занадто мало, з урахуванням частотності запиту, значить з сайтом щось не так. Можливо, у ресурсу некоректний сниппет у видачі);
  • переміщення користувача по сайту (Вебвізор в Яндекс Метриці дозволить поспостерігати за поведінкою користувача на сайті);
  • використання соціальних кнопок на сайті (соціальна активність - це хороший поведінковий показник, якщо вашим сайтом діляться в соціальних мережах, значить він цікавий відвідувачам);
  • відгуки та коментарі (це і унікальний контент для вашого сайту, і зворотний зв'язок з користувачами).


PS

Як бачите, дуже багато моментів потрібно врахувати при проведенні аудиту сайту. Але нехтувати аналізом ресурсу можна, адже сам сайт "живе" і змінюється, а значить потрібно стежити, щоб не з'являлися сторінки з помилками, не ламалася структура сайту, були актуальними сайтмап і robots.txt. Сайт повинен бути зручним для користувачів, а інформація на ньому - актуальною. Коли оновлюються алгоритми пошукових систем, ресурс повинен відповідати вимогам пошукових систем.

SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників

Частина 2 керівництва по SEO-аудиту

Продовжуємо розбирати особливості аудиту сайтів. В першій частині ми розглядали структуру і контент сайту, а сьогодні за планом технічний аудит і перевірка зовнішніх факторів.

Для проведення технічного аудиту будуть корисні наступні інструменти:

технічний аудит

Robots.txt - службовий файл, який містить інформацію для пошукових роботів. Повинен бути доступний за адресою site.ru/robots.txt. Якщо його немає на сайті, то необхідно його створити.

В robots.txt можна вказати наступну інформацію для пошукових роботів: які розділи сайту можна індексувати, а які ні, головне дзеркало, шлях до карти сайту і т.д. Детальніше про налаштування можна почитати в Допомоги від Яндекса .

Необхідно переконатися, що в robots.txt закриті від індексації серверні логи, адмін-панель сайту, корзина інтернет-магазину, інші технічні розділи. Але зверніть увагу, щоб були відкриті для ботів пошукових систем скрипти сайту і CSS.


Перевірити, які розділи і сторінки робот буде індексувати, а які ні, можна, наприклад, в кабінеті Вебмастера Яндекса:

В вебмайстрів Яндекса перевірте вибрано чи головне дзеркало сайту. Вкажіть основний домен для Яндекса в robots.txt, скориставшись директивою Host. Наприклад: Host: site.ru

При проведенні технічного аудиту, необхідно заміряти швидкість завантаження сторінок сайту. Наприклад, в браузері Chrome можна швидко подивитися швидкість завантаження в такий спосіб F12 → Network → Doc → Time. Хороший результат - швидкість завантаження менше 1 секунди.

Далі перевіряємо код сайту на відсутність сміття: прихованого тексту, закоментувавши блоків, будь-яких невидимих в публічній частині елементів. Бували випадки, коли недобросовісні оптимізатори розміщували в коді клієнтського сайту приховані від ока користувача тексти спамние змісту. Через що сайт втрачав позиції в пошукових системах. Тому перевірте свій сайт не тільки з позиції користувача, але і глянувши на нього "очима пошукового робота".

У Google Search Console можна подивитися на сайт, як Googlebot:

Перевірка URL-ів сайту може бути виконана за допомогою програм Xenu Link Sleuth або Screaming frog SEO spider.

Програма просканує сторінки вашого сайту і ви побачите все URL-и, метатеги і заголовки, статуси сторінок, зможете знайти биті посилання, редіректи, вхідні і витікаючі посилання для сторінки, подивитися рівень вкладеності сторінок.

програма Xenu

Для початку перегляньте URL-и сторінок. Буде краще, якщо у сайту налаштовані ЧПУ (Человекопонятние урли). Переконайтеся, що адреси сторінок постійні, а движок сайту не генерує дублі сторінок.

програма Screaming frog

За допомогою цих програм ви зможете знайти сторінки з помилкою 404 і биті посилання. Їх потрібно усувати, щоб користувач потрапляв в потрібний йому розділ, а не на сторінку помилки.

Що стосується самої сторінки 404 помилки, то вона повинна бути оформлена, щоб допомогти користувачеві зорієнтуватися, якщо вже він на неї потрапив. Зазвичай на ній розміщують пояснення, що сторінки з такою адресою немає і пропонують скористатися пошуком по сайту, перейти на головну сторінку або в основні розділи сайту.

Якщо з якихось причин змінюють URL-и сайту, то щоб не виникало велика кількість 404 помилок, налаштуйте редіректи зі старих адрес на нові.

Перевірте наявність коректного sitemap. Багато движки сайтів дозволяють налаштувати сайтмап, який буде автоматично оновлюватися, при внесенні змін на сайт (наприклад, додаванні нових сторінок). Детально про карту сайту можна почитати тут . Посилання на sitemap вкажіть у файлі robots:
Sitemap: http://site.ru/sitemap.xml

Згенерувати карту сайту допомагають програми Xenu і в SEO frog:

Програма Screaming frog може зробити sitemap з урахуванням файлу robots.txt, щоб не включати в нього розділи сайту, які ви закрили для індексації.

Аналіз зовнішніх факторів

Аудит зовнішніх факторів перш за все включає в себе перевірку зворотних посилань сайту.

Інструменти:


Навіщо потрібен аналіз беклінків? Посилання - один з важливих факторів ранжирування сайту. І якщо сайт існує не перший день, то він швидше за все має кількість посилань. Зазначені вище сервіси: Majestic SEO, Ahrefs, MegaIndex.com - допоможуть з аудитом беклінків.

Що потрібно врахувати при аудиті?

1. кількість вхідних посилань
2. анкор-лист
3. типи посилань
4. типи і траст донорів

скріншот з системи MegaIndex.com

Кількість зворотних посилань може бути різним, але якщо на ваш ресурс ведуть сотні і тисячі беклінків, то обов'язково слід врахувати рекомендації нижче.

Основні вимоги пошукових систем до посилального профілем сайту:

  • різноманітний анкор-лист: якщо раніше анкор посилань були в основному тестові і з вмістом ключових слів, то зараз йде упор на різноманітність. Бажано включити в анкор-лист і такі слова, як: читати, дивитися, тут, тут, докладніше і т.д .;
  • також мають значення типи посилань: не варто нехтувати безанкорние посиланнями і беклінк з зображень;
  • різноманітність донорів посилань: серед джерел зворотних посилань повинні бути не просто якісь майданчики з сапи, а сайти партнерів, постачальників продукції, електронних ЗМІ, тематичних каталогів, соціальних мереж, форумів, порталів товарів і послуг і т.д.
  • траст донорів: краще, якщо джерелами посилань будуть сайти, які вже мають якийсь позитивний вага в мережі, ніж ресурси під фільтром АГС. Тому потрібно перевіряти донорів, перед розміщенням посилань. У швидкому аналізі донора допоможе розширення для браузера RDS bar .

Розширення покаже основні дані по сайту: кількість проіндексованих сторінок, кількість вхідних і вихідних посилань по Linkpad, ТИЦ (і накладено чи на сайт фільтр АГС), PR, наявність сайту в каталогах, дата вебархіва і т.д.

Соціальні чинники теж повинні бути враховані при проведенні аудиту. Подивіться згадки сайту в соціальних мережах за допомогою пошуку Яндекс Блоги .

Одні з важливих соціальних факторів:

  • присутність сторінки вашої організації в соцмережах;
  • згадка сайту в соціальних мережах;
  • посилання з соцмереж (в постах на стіні, коментарі і т.д.);
  • використання соціальних кнопок на сайті;
  • вимагати авторизації на ресурсі через соцмережі.


поведінкові чинники

За допомогою яндекс.метрика і Google Analytics оціните поведінку користувачів на сайті.

Що потрібно врахувати при аналізі поведінкових факторів:

  • показник відмов (обнародувано на сайті сторінки повинні відповідати запитам користувачів, інакше людина відразу піде з сайту і це буде зараховано за відмову);
  • час на сайті (відвідувач повинен провести на сайті достатню кількість часу, щоб ознайомитися з інформацією);
  • глибина перегляду (якщо користувач дивиться кілька сторінок сайту, значить він зацікавлений, але не варто ускладнювати структуру сайту, щоб збільшити цей показник. Інакше відвідувача можна відвернути від основної мети - зробити конверсійне дію);
  • конверсія форм (зверніть увагу на те, наскільки просто користувач може зробити замовлення з сайту або заповнити будь-яку конверсійну форму);
  • повернення до пошуку (якщо користувач повернувся до пошуку після відвідування вашого ресурсу, значить він не знайшов те, що шукав і сайт не відповідає на його запит, і це може привести до зниження сайту по даному запиту у видачі);
  • зв'язок позицій сайту і кількості переходів з пошуку (якщо ваш сайт на першому місці, а заходів по ньому занадто мало, з урахуванням частотності запиту, значить з сайтом щось не так. Можливо, у ресурсу некоректний сниппет у видачі);
  • переміщення користувача по сайту (Вебвізор в Яндекс Метриці дозволить поспостерігати за поведінкою користувача на сайті);
  • використання соціальних кнопок на сайті (соціальна активність - це хороший поведінковий показник, якщо вашим сайтом діляться в соціальних мережах, значить він цікавий відвідувачам);
  • відгуки та коментарі (це і унікальний контент для вашого сайту, і зворотний зв'язок з користувачами).


PS

Як бачите, дуже багато моментів потрібно врахувати при проведенні аудиту сайту. Але нехтувати аналізом ресурсу можна, адже сам сайт "живе" і змінюється, а значить потрібно стежити, щоб не з'являлися сторінки з помилками, не ламалася структура сайту, були актуальними сайтмап і robots.txt. Сайт повинен бути зручним для користувачів, а інформація на ньому - актуальною. Коли оновлюються алгоритми пошукових систем, ресурс повинен відповідати вимогам пошукових систем.

SEO-аудит сайту самостійно: технічний аналіз і перевірка зовнішніх чинників

Частина 2 керівництва по SEO-аудиту

Продовжуємо розбирати особливості аудиту сайтів. В першій частині ми розглядали структуру і контент сайту, а сьогодні за планом технічний аудит і перевірка зовнішніх факторів.

Для проведення технічного аудиту будуть корисні наступні інструменти:

технічний аудит

Robots.txt - службовий файл, який містить інформацію для пошукових роботів. Повинен бути доступний за адресою site.ru/robots.txt. Якщо його немає на сайті, то необхідно його створити.

В robots.txt можна вказати наступну інформацію для пошукових роботів: які розділи сайту можна індексувати, а які ні, головне дзеркало, шлях до карти сайту і т.д. Детальніше про налаштування можна почитати в Допомоги від Яндекса .

Необхідно переконатися, що в robots.txt закриті від індексації серверні логи, адмін-панель сайту, корзина інтернет-магазину, інші технічні розділи. Але зверніть увагу, щоб були відкриті для ботів пошукових систем скрипти сайту і CSS.


Перевірити, які розділи і сторінки робот буде індексувати, а які ні, можна, наприклад, в кабінеті Вебмастера Яндекса:

В вебмайстрів Яндекса перевірте вибрано чи головне дзеркало сайту. Вкажіть основний домен для Яндекса в robots.txt, скориставшись директивою Host. Наприклад: Host: site.ru

При проведенні технічного аудиту, необхідно заміряти швидкість завантаження сторінок сайту. Наприклад, в браузері Chrome можна швидко подивитися швидкість завантаження в такий спосіб F12 → Network → Doc → Time. Хороший результат - швидкість завантаження менше 1 секунди.

Далі перевіряємо код сайту на відсутність сміття: прихованого тексту, закоментувавши блоків, будь-яких невидимих в публічній частині елементів. Бували випадки, коли недобросовісні оптимізатори розміщували в коді клієнтського сайту приховані від ока користувача тексти спамние змісту. Через що сайт втрачав позиції в пошукових системах. Тому перевірте свій сайт не тільки з позиції користувача, але і глянувши на нього "очима пошукового робота".

У Google Search Console можна подивитися на сайт, як Googlebot:

Перевірка URL-ів сайту може бути виконана за допомогою програм Xenu Link Sleuth або Screaming frog SEO spider.

Програма просканує сторінки вашого сайту і ви побачите все URL-и, метатеги і заголовки, статуси сторінок, зможете знайти биті посилання, редіректи, вхідні і витікаючі посилання для сторінки, подивитися рівень вкладеності сторінок.

програма Xenu

Для початку перегляньте URL-и сторінок. Буде краще, якщо у сайту налаштовані ЧПУ (Человекопонятние урли). Переконайтеся, що адреси сторінок постійні, а движок сайту не генерує дублі сторінок.

програма Screaming frog

За допомогою цих програм ви зможете знайти сторінки з помилкою 404 і биті посилання. Їх потрібно усувати, щоб користувач потрапляв в потрібний йому розділ, а не на сторінку помилки.

Що стосується самої сторінки 404 помилки, то вона повинна бути оформлена, щоб допомогти користувачеві зорієнтуватися, якщо вже він на неї потрапив. Зазвичай на ній розміщують пояснення, що сторінки з такою адресою немає і пропонують скористатися пошуком по сайту, перейти на головну сторінку або в основні розділи сайту.

Якщо з якихось причин змінюють URL-и сайту, то щоб не виникало велика кількість 404 помилок, налаштуйте редіректи зі старих адрес на нові.

Перевірте наявність коректного sitemap. Багато движки сайтів дозволяють налаштувати сайтмап, який буде автоматично оновлюватися, при внесенні змін на сайт (наприклад, додаванні нових сторінок). Детально про карту сайту можна почитати тут . Посилання на sitemap вкажіть у файлі robots:
Sitemap: http://site.ru/sitemap.xml

Згенерувати карту сайту допомагають програми Xenu і в SEO frog:

Програма Screaming frog може зробити sitemap з урахуванням файлу robots.txt, щоб не включати в нього розділи сайту, які ви закрили для індексації.

Аналіз зовнішніх факторів

Аудит зовнішніх факторів перш за все включає в себе перевірку зворотних посилань сайту.

Інструменти:


Навіщо потрібен аналіз беклінків? Посилання - один з важливих факторів ранжирування сайту. І якщо сайт існує не перший день, то він швидше за все має кількість посилань. Зазначені вище сервіси: Majestic SEO, Ahrefs, MegaIndex.com - допоможуть з аудитом беклінків.

Що потрібно врахувати при аудиті?

1. кількість вхідних посилань
2. анкор-лист
3. типи посилань
4. типи і траст донорів

скріншот з системи MegaIndex.com

Кількість зворотних посилань може бути різним, але якщо на ваш ресурс ведуть сотні і тисячі беклінків, то обов'язково слід врахувати рекомендації нижче.

Основні вимоги пошукових систем до посилального профілем сайту:

  • різноманітний анкор-лист: якщо раніше анкор посилань були в основному тестові і з вмістом ключових слів, то зараз йде упор на різноманітність. Бажано включити в анкор-лист і такі слова, як: читати, дивитися, тут, тут, докладніше і т.д .;
  • також мають значення типи посилань: не варто нехтувати безанкорние посиланнями і беклінк з зображень;
  • різноманітність донорів посилань: серед джерел зворотних посилань повинні бути не просто якісь майданчики з сапи, а сайти партнерів, постачальників продукції, електронних ЗМІ, тематичних каталогів, соціальних мереж, форумів, порталів товарів і послуг і т.д.
  • траст донорів: краще, якщо джерелами посилань будуть сайти, які вже мають якийсь позитивний вага в мережі, ніж ресурси під фільтром АГС. Тому потрібно перевіряти донорів, перед розміщенням посилань. У швидкому аналізі донора допоможе розширення для браузера RDS bar .

Розширення покаже основні дані по сайту: кількість проіндексованих сторінок, кількість вхідних і вихідних посилань по Linkpad, ТИЦ (і накладено чи на сайт фільтр АГС), PR, наявність сайту в каталогах, дата вебархіва і т.д.

Соціальні чинники теж повинні бути враховані при проведенні аудиту. Подивіться згадки сайту в соціальних мережах за допомогою пошуку Яндекс Блоги .

Одні з важливих соціальних факторів:

  • присутність сторінки вашої організації в соцмережах;
  • згадка сайту в соціальних мережах;
  • посилання з соцмереж (в постах на стіні, коментарі і т.д.);
  • використання соціальних кнопок на сайті;
  • вимагати авторизації на ресурсі через соцмережі.


поведінкові чинники

За допомогою яндекс.метрика і Google Analytics оціните поведінку користувачів на сайті.

Що потрібно врахувати при аналізі поведінкових факторів:

  • показник відмов (обнародувано на сайті сторінки повинні відповідати запитам користувачів, інакше людина відразу піде з сайту і це буде зараховано за відмову);
  • час на сайті (відвідувач повинен провести на сайті достатню кількість часу, щоб ознайомитися з інформацією);
  • глибина перегляду (якщо користувач дивиться кілька сторінок сайту, значить він зацікавлений, але не варто ускладнювати структуру сайту, щоб збільшити цей показник. Інакше відвідувача можна відвернути від основної мети - зробити конверсійне дію);
  • конверсія форм (зверніть увагу на те, наскільки просто користувач може зробити замовлення з сайту або заповнити будь-яку конверсійну форму);
  • повернення до пошуку (якщо користувач повернувся до пошуку після відвідування вашого ресурсу, значить він не знайшов те, що шукав і сайт не відповідає на його запит, і це може привести до зниження сайту по даному запиту у видачі);
  • зв'язок позицій сайту і кількості переходів з пошуку (якщо ваш сайт на першому місці, а заходів по ньому занадто мало, з урахуванням частотності запиту, значить з сайтом щось не так. Можливо, у ресурсу некоректний сниппет у видачі);
  • переміщення користувача по сайту (Вебвізор в Яндекс Метриці дозволить поспостерігати за поведінкою користувача на сайті);
  • використання соціальних кнопок на сайті (соціальна активність - це хороший поведінковий показник, якщо вашим сайтом діляться в соціальних мережах, значить він цікавий відвідувачам);
  • відгуки та коментарі (це і унікальний контент для вашого сайту, і зворотний зв'язок з користувачами).


PS

Як бачите, дуже багато моментів потрібно врахувати при проведенні аудиту сайту. Але нехтувати аналізом ресурсу можна, адже сам сайт "живе" і змінюється, а значить потрібно стежити, щоб не з'являлися сторінки з помилками, не ламалася структура сайту, були актуальними сайтмап і robots.txt. Сайт повинен бути зручним для користувачів, а інформація на ньому - актуальною. Коли оновлюються алгоритми пошукових систем, ресурс повинен відповідати вимогам пошукових систем.

Що потрібно врахувати при аудиті?
Що потрібно врахувати при аудиті?
Що потрібно врахувати при аудиті?


Новости
  • Виртуальный хостинг

    Виртуальный хостинг. Возможности сервера распределяются в равной мере между всеми... 
    Читать полностью

  • Редизайн сайта

    Редизайн сайта – это полное либо частичное обновление дизайна существующего сайта.... 
    Читать полностью

  • Консалтинг, услуги контент-менеджера

    Сопровождение любых интернет ресурсов;- Знание HTML и CSS- Поиск и обновление контента;-... 
    Читать полностью

  • Трафик из соцсетей

    Сравнительно дешевый способ по сравнению с поисковым и контекстным видами раскрутки... 
    Читать полностью

  • Поисковая оптимизация

    Поисковая оптимизация (англ. search engine optimization, SEO) — поднятие позиций сайта в результатах... 
    Читать полностью