<
  • Главная
Статьи

«Баден-Баден» Яндекс - дослідження та методи виходу

  1. Передмова
  2. З особистої практики спостережень за фільтром
  3. Цікаві особливості алгоритму
  4. Як вийти?
  5. хостової
  6. Запросозавісімий
  7. резюме

Сьогодні я підготував цікавий матеріал з особистого досвіду! Всі, хто міг вже написали про даний фільтр, але висновки скрізь приблизно одні й ті ж і не розкривають зворотну сторону картини. Всі наявні на даний момент статті містять в собі інструкцію по виходу з-під фільтра, написану в загальних словах, виду: не використовувати багато ключових слів, рівномірно розподілити ключі за статтею, писати статті тільки по суті, текст повинен бути написаний експертом, картинки це добре і т.д. Блін, ну це ж суцільна вода, яка ніяк не розкриває суті картини - кожен і так про це знає, але ось нормальних інструкцій я поки не бачив і спробую це виправити цією статтею. Сьогодні на блозі мова піде про низку власних спостережень, опис яких не так часто можна зустріти в мережі, а так само ми розберемо, як перевірити сайт на фільтр і поговоримо про методи виходу з-під санкцій!

Але спочатку пару стандартних слів вступу.

Передмова

Баден-Баден - фільтр Yandex за Переспа. Реліз нового алгоритму визначення переоптімізірованние текстів відбувся навесні 2017 року. Основна гіпотеза - він накладається пошуковою системою за занадто часте використання биграмм і триграм, а також підвищену водність. Виділяють 2 основних види - запросозавісімий і повний (хостової):

  • запросозавісімий Баден накладається виключно на ряд запитів документа
  • хостової накладається на весь ресурс цілком, крім вітальних запитів (і то не всіх), через що проект втрачає практично всі свої позиції.

Цікавий момент, що при хостової фільтрі деякі ВЧ запити змінюють релевантність з морди на внутрішню сторінку сайту, як при стандартному фільтрі за переоптімізацію сторінки.

Як показують дослідження - середнє падіння позицій 7-30 пунктів!

З особистої практики спостережень за фільтром

Серед спостережуваних мною проектів хостової Baden було накладено всього на один веб-сайт, кілька проектів потрапили під запросозавісімий, а кілька показали дуже незвичайна поведінка, про що ми і поговоримо нижче.

Хостової Баден-Баден, в моєму випадку був викликаний автогенерація заголовків і частини текстів в одному великому інтернет-магазині, через що лікування виявилося дуже простим - досить було переписати маски генерації, прибравши всі комерційні пасажі з заголовків. До речі, настійно всім раджу перестати повністю використовувати ключі у всіх заголовках, починаючи з H1.

Вийти з-під санкцій зовсім неважко, якщо слідувати наступним простим і конкретним вказівкам:

  1. ніяких ключів в заголовках
  2. скорочуємо всі тайтли до 70-90 символів (так, тепер довгі тайтли це погано)
  3. вода менше 60% (перевіряємо тут )
  4. доводимо до мінімуму, а то і до нуля біграми і триграми (перевіряємо на адвего )
  5. title і alt картинок повинні відрізнятися (особисто я, після noname фільтра, взагалі перестав писати у картинок тег title)
  6. ніяких помилок, зовсім ніяких (перевіряємо на орфограммке ). Про цей пункт ще поговоримо нижче

В описах по виходу з-під фільтра я часто бачив припущення про те, що статті під «Читати далі», «Детальніше» тощо були зафільтрованних, але судячи з власного досвіду це маячня - ні у одного з десятків спостережуваних сайтів з такою штукою фільтр не був виявлений. Скажу більше - я проводив спостереження за явно убогими текстами, які вижили після введення нового алгоритму і можу побудувати висновки від зворотного, грунтуючись на тих факторах, які не вплинули і серед них можу виділити:

  1. кострубаті словоформи
  2. без картинок і відео
  3. неунікальні
  4. з високою щільністю по окремому слову

Виходячи зі спостережень, особисто я можу зробити висновок про те, що найбільш важливими факторами для накладення фільтра стали наступні:

  • ключі в заголовках
  • вода
  • ключі з двох і трьох слів з високою щільністю
  • помилки

Цікаві особливості алгоритму

Як і обіцяв вище - розберемо деякі цікаві особливості з практики дослідження алгоритму!

Під даний алгоритм у мене потрапило декілька проектів з величезної кількості сайтів, до статистики яких я маю доступ. Причина проста - в статтях, які я готую ніколи не було основою використання всіх ключів з набору і упор робився всього на 1 лідируючий ключ, а саме тз робилося на основі LSI, що і дозволяє всебічно висвітлити тему, але були помічені інші цікаві особливості і у цього блогу так само.

Одна з основних особливостей - тексти, які містять багато помилок були помітно знижені в пошуковій видачі. Дана проблема торкнулася в основному інформаційні сайти і практично не вплинула на комерційні проекти під моїм наглядом.

Щоб розміщені на ресурсі тексти приносили максимальну користь, необхідно попередньо визначити конкурентність запитів , Використовуваних для написання статей. А як правильно складати мета теги для просування сайту читайте тут .

Поряд з цим, помітно зросла значимість оформлення основних сео тегів і заголовків.

Найцікавіше - мною було помічено сильне змішування інформаційних і комерційних запитів, що дозволяє деяким інформаційним статей витягувати на собі явно комерційні запити, що я зараз дуже активно тестую на ряді проектів і за результатами відпишу в одній з наступних статей.

Ще одна цікава особливість - багато хто радить приховувати текст або його частину в <noindex>, але це не панацея і недавно я в цьому переконався, коли повне приховування текстів категорій магазину не привела до виходу з-під фільтра, а підтримка Яндекс жартівливо написала, що не варто так робити. Звичайно, не варто будувати висновки на прикладі одного проекту, але такий приклад мав місце бути!

Як деякі з вас могли помітити - я зараз активно провожу експерименти по текстовому ранжирування на своєму блозі і здається, що я на межі грандіозного відкриття по маніпуляції Яндексом, але про це в одній з наступних статей ( підписатися на оновлення ).

Як вийти?

Якщо ваш сайт потрапив під Баден, доведеться переписувати статті - це і їжаку зрозуміло. Тут можливі кілька різних ситуацій, спробуємо розібрати кожну з них. Насамперед треба визначитися, який вид фільтра у вас і в залежності від цього діяти далі. Визначити вид фільтра зовсім неважко, нижче ви все зрозумієте.

Якщо діяти оперативно, зняти хостової фільтр можна за 2 тижні!

хостової

Як визначити? Характерна особливість - при накладенні хостового фільтра ви отримуєте повідомлення про нього в Яндекс Вебмастер, так що не помилитеся!

Якщо наповнення вашого сайту, його заголовки і частина статей робляться автоматом по масці - вам пощастило! Пів години роботи + прискорення індексації та фільтр буде знятий, у всіх інших випадках має бути важка робота. Деякі радять на час правок закрити всі статті в noindex, але як я описав в минулому розділі це не завжди допомагає. У будь-якому випадку, будемо йти від простого до складного!

Насамперед слід спробувати все-таки приховати статті в noindex. Якщо у вас сайт на CMS, нехай навіть і самопісний, це можна зробити за 5 хвилин!

Досить внести правки в шаблони генерації основних сторінок, для інтернет-магазину це будуть шаблони:

  • категорія
  • товар
  • стаття

У моєму випадку цей підхід не допоміг, але раз люди повсюдно пишуть про це, гріх не спробувати!

Наступним кроком слід поправити ті елементи, які можна поправити максимально швидко, а саме Title і H1, тому що в більшості CMS вони генерітся автоматом на основі певних правил і їх можна поміняти відразу все за пару годин неспішної роботи. як писав вище , Тайтл робимо до 90 символів, а з H1 виносимо все ключі, які там є. H1 і тайтл повинні відрізнятися один від одного, це ще одне з правил текстової оптимізації сьогодні!

Описані вище маніпуляції легко робляться за один день і відразу ж варто написати в підтримку Яндекс про результати роботи над виправленням порушень їх регламенту, але фільтр можуть і не зняти.

В такому випадку в бій іде важка артилерія і ми просто видалимо всі тексти з категорій і статей. Правда, варто їх заздалегідь скопіювати, тому що вони нам ще знадобляться!

У разі того ж інтернет-магазину швидко видалити статті разом з усього сайту можна вирізавши код виведення статей з шаблону базових сторінок (список сторінок привів вище) це так само не більше п'яти хвилин роботи!

Уже після таких маніпуляцій фільтр точно знімуть, без варіантів! Але чекати доведеться до місяця.

Для прискорення, вивантажуємо весь список категорій сайту, або взагалі все URL сайту ( Xenu вам на допомогу або карта сайту (sitemap.xml)). І додаємо цей список в сервіс getbot.

Getbot дозволить скоротити термін виходу до 2-х тижнів, після закінчення яких трафік з пошуку помітно зросте, незважаючи навіть на те, що у сайту більше немає текстів;)

Наступний етап - правка скопійованих раніше статей.

Тут все просто, чи не будемо винаходити велосипед і просто віддамо тексти на коригування рерайтерам, щоб вони відповідали вимогам.

Є і більш тернистий шлях - пересобрать семантику і написати тексти заново по медіані ТОП, але я б вам радив зробити це третім етапом, тому що поступовий підхід дозволить швидше повернути втрачений трафік, якщо ж ви відразу почнете писати нові статті, то закінчення даного процесу можна чекати довго. Тому алгоритм повинен бути саме таким, як зазначено вище: noindex і теги -> перевірка, видалення текстів та прискорення індексації, правка старих текстів, підготовка нових текстів!

Запросозавісімий

Як визначити? Провести порівняння сегментів в Метриці або іншій системі аналітики, встановленої на сайті, при цьому в Webmaster.Yandex не повинно бути ніяких згадок про накладення санкцій!

Тут завдання номер один - знайти проблемні сторінки. Вирішити її можна за допомогою Яндекс Метрики. Для цього необхідно провести порівняння сегментів. Для цих цілей - переходимо у вкладку - Звіти -> Стандартні звіти -> Зміст -> Сторінки входу:

Далі, звужує сегмент до відвідувачів з Яндекс:

Далі, звужує сегмент до відвідувачів з Яндекс:

Далі, переходимо в режим порівняння сегментів:

Тепер виставляємо у сегментів різні дати. Перший сегмент я ставлю з 13 по 21 березня. А другий сегмент - з 27 березня по 4 квітня. Такі дивні дати я вибрав для того, щоб обійти свята, навколишні реліз алгоритму Yandex з двох сторін. І ми бачимо перед собою таку картину:

В підсумку:

  1. збирати заново семантику для проблемних сторінок
  2. готуємо для них ТЗ на основі медіани ТОП 10
  3. дотримуємося в ТЗ всі пункти, описані в цій статті, в розділі з особистої практики
  4. прискорюємо індексацію
  5. чекаємо 2-4 тижні і радіємо

Відмінне відео в тему машинного навчання:

резюме

Новий алгоритм Баден-Баден приніс не тільки галас в світ seo, але і ряд інших особливостей, невидимих ​​на перший погляд, але які також не можна залишати поза увагою, а саме:

  1. помітно змінилося текстове ранжування, через що зрушили медіани параметрів ТОП'а у всіх тематиках, так що, якщо у вас інформаційний сайт це треба розуміти і правильно використовувати
  2. молоді сайти в комерційних тематиках стали ще легше заходити в десятку, завдяки правильно підібраним текстів і майже без посилань
  3. помилок в текстах бути не повинно
  4. ключів в заголовках бути не повинно
  5. сказати чесно - статті стали ще більш математичними, що якось дивно. Якщо раніше можна було просто написати статтю, не думаючи про пошуковому просуванні, то сьогодні така стаття може принести проблеми і її перевірка на параметри стає обов'язковою - трохи дивно, вам не здається?

Яндекс планомірно йде наміченим шляхом відмови від посилань ( історія почалася тут ), Через що вимоги до текстів ростуть, але і значимість текстових факторів зростає, стаючи все вище. Сьогодні ми вже дійшли до того, що якісний, вилизаний з усіх боків текст може бути в ТОП, навіть якщо у нього немає дизайну, тобто просто самотній текст без сайту, без стилів і цю гіпотезу я вже встиг протестувати. По завершенні експерименту напишу дуже цікаву статтю.

Варто відзначити, що Google викотив новий алгоритм текстового ранжирування, але про це в наступних статтях. Підписуйтесь на оновлення , Якщо хочете отримувати нові статті мого блогу з пилу, з жару та на пошту;)

Як вийти?


Новости
  • Виртуальный хостинг

    Виртуальный хостинг. Возможности сервера распределяются в равной мере между всеми... 
    Читать полностью

  • Редизайн сайта

    Редизайн сайта – это полное либо частичное обновление дизайна существующего сайта.... 
    Читать полностью

  • Консалтинг, услуги контент-менеджера

    Сопровождение любых интернет ресурсов;- Знание HTML и CSS- Поиск и обновление контента;-... 
    Читать полностью

  • Трафик из соцсетей

    Сравнительно дешевый способ по сравнению с поисковым и контекстным видами раскрутки... 
    Читать полностью

  • Поисковая оптимизация

    Поисковая оптимизация (англ. search engine optimization, SEO) — поднятие позиций сайта в результатах... 
    Читать полностью