Контакти

Як не потрапити під фільтр google панда. Google Panda - як працює він і як працювати з ним. Як Panda перевіряє ваш контент

Гугл Панда - це програма-фільтр від компанії Google. Його завдання - відстеження і блокування сайтів з неякісним контентом.

Більше відео на нашому каналі - вивчайте інтернет-маркетинг з SEMANTICA

Пошукова система Google вважає своєю основною функцією надання користувачам релевантної, цікавою і корисної інформації. Саме тому вона жорстко бореться з чорними методами просування, коли сайт потрапляє в ТОП видачі не за допомогою створення якісного та затребуваного контенту, а шляхом маніпуляцій пошуковими системами.

Історія Панди

Алгоритм Google Panda - автоматичний. Першим кроком до його створення стала оцінка великої кількості сайтів на відповідність вимогам, які Google пред'являє до контенту. Проводилась вона вручну силами групи тестувальників і дозволила формалізувати основні фактори, що впливають на якість змісту сайтів.

Перший раз Google Panda вийшов у світ в лютому 2011 року, проте в повну силу заробив в квітні. Тільки протягом 2011 року алгоритм оновлювався 57 раз, а потім ще 5 разів у 2012 році. Наступний 2013 рік приніс останнє оновлення Панди з власним номером - Panda 25, яке зазнало невеликі зміни в червні і в липні цього ж року. остання версія алгоритму Panda 4.0, випущена в травні 2014 року, похитнула позиції новинних агрегаторів і торкнулася таких гігантів, як Ebay.

На сьогоднішній день алгоритм удосконалюється практично безперервно, оновлюючись кожен місяць протягом 10 днів. Дати оновлень компанія не оприлюднює, щоб максимально ускладнити маніпулювання позиціями сайтів в пошуковій видачі.

Вимоги Google Panda до сайтів

Google Panda призначений в першу чергу для боротьби з неякісним контентом, тому його основні вимоги до сайтів засновані на якості інформації, що публікується інформації.

  1. Сайт повинен в основному містити унікальний контент, на ньому не повинно бути дубльованих текстів та зображень.
  2. Неприпустимо використання автоматично згенерованих текстів.
  3. Роботи пошукових систем і користувачі повинні бачити одне й теж, не можна використовувати сторінки, які видно тільки пошукачам і потрібні виключно для просування сайту.
  4. Ключові слова кожної сторінки сайту повинні відповідати її змісту, Переспа ключовими словами неприпустимий.
  5. Посилання та реклама на сторінках повинні відповідати тематиці текстів та іншого змісту сторінки.
  6. Забороняється застосовувати дорвеи, приховані посилання або прихований текст, метою якого є обман пошукової системи.

Алгоритм Google Панда покарає вас, якщо на сторінках сайту міститься контент, скопійований з інших ресурсів без посилання на джерело, шаблонні статті, мають ідентичну структуру, дубльовані сторінки. Потрапити під фільтр Панда Гугл можуть сайти, на яких тексти йдуть суцільний простирадлом, без ілюстрацій, відео або інфографіки, з однаковими метатегами на різних сторінках.

Вважається, що цей алгоритм мало уваги звертає на посилання, однак він вимагає, щоб посилання в статтях неодмінно відповідали їх темі. Тобто, в текстах про пластикові вікна не повинно бути посилань на продаж чаю і т.п.

Крім усього описаного, Гугл Панда приділяє багато уваги поведінкових факторів. Якщо на вашому сайті великий відсоток відмов, користувачі йдуть з нього після першої ж сторінки і більше не повертаються, ви неодмінно потрапите в поле зору алгоритму.

Як врятуватися від санкцій Google Panda

Як виявити дію Панди

Перш ніж вживати заходів щодо виходу з-під фільтрів Google Panda, переконайтеся, що ви постраждали саме від його лап. Як визначити, Гугл Панда став винуватцем вашої проблеми, або причина в чомусь ще?

Зверніть увагу на зв'язок між оновленням алгоритму і падінням трафіку на сайт. Update Google Panda проводиться щомісяця, продовжується 10 днів, дізнатися час його проведення можна на сайті Moz.com. Якщо збіг у наявності, треба вживати заходів.

Другий спосіб зловити Панду - скористатися спеціальним сервісом Barracuda. Один із сервісів цього сайту, Panguin Tool, отримавши доступ до інформації вашого облікового запису в Google Analytics, накладає взятий з нього графік на дати оновлень алгоритму і видає відповідь. Мінусів у цього способу два - він не підходить тим, у кого лічильник Google Analytics варто недавно і вимагає доступу до аккаунту, який в, свою чергу, дозволяє дістатися до грошей на вашому рахунку в Google Analytics.

Третій спосіб досить простий, але вимагає часу і терпіння. Вам доведеться перевірити кожну сторінку сайту. Робити це треба так:

  1. Копіюєте кілька пропозицій з тексту на сторінці в пошукову рядок Google. Досить взяти 100-200 символів.
  2. Дивіться, чи з'явився ваш сайт у верхній частині видачі.
  3. Укладаєте той же уривок в пошуковому рядку в лапки і знову дивіться, є сайт у видачі чи ні.

Якщо сайт з'являється у видачі тільки в другому випадку, значить винуватець ваших бід Google Panda. Запам'ятайте, що перевірити доведеться кожну сторінку.

Як вийти з-під фільтра

Для виходу з-під фільтра Панди вам доведеться вжити таких заходів:

  1. Зробити повну ревізію змісту сайту і замінити більшу частину текстів на цікаві та корисні, а інші переробити так, щоб вони стали унікальними і актуальними.
  2. Прибрати надлишок ключових слів із заголовків всіх рівнів і метатегов. Заголовки поміняти на релевантні і привабливі, зробити так, щоб вони чіпляли відвідувача і викликали бажання прочитати текст.
  3. Почистити сайт з нерелевантной і агресивної реклами, що помітно поліпшить поведінкові чинники.
  4. Видалити всі дублі і биті посилання, зняти виділення з ключових слів.
  5. Перевірити посилання на сторінках на відповідність змісту сторінок і замінити або прибрати нерелевантні.

Ці кроки допоможуть вам з часом вийти з-під фільтрів Панди. Однак майте на увазі: Google Panda - автоматичний алгоритм, і ніякі звернення не допоможуть вам швидко звільнитися від його санкцій. Заповнюйте сайт цікавим унікальним контентом, не захоплюйтеся розміщенням на ньому реклами, і ви не потрапите на зуб до розумного звіра Панда Гугл.

Привіт, шановні читачі блогу сайт. У цьому пості я хочу трохи поміркувати про те, що у мене зараз крутиться в голові. В основному всі думки зайняті проблемою, під які мене угораздило потрапити за останні півтора року. За наведеною посиланням ви знайдете статтю, де я описую ситуацію, що склалася, включаючи листування з техпідтримкою дзеркала рунета.

За минулі з моменту виходу тієї публікації чотири з половиною місяці, я по черзі (починаючи з перших постів за 2009 рік) вичитував і вносив правки (прибрав можливий спам будь-якими словами, а так само приборкав внутрішню перелинковку до осудних меж) в 360 своїх статей з 411 існуючих на наразі. Кілька десятків з них були повністю переписані, у багатьох десятках оновлені скріншоти, внесені виправлення, доповнення і т.д.

Загалом, робив все, що міг, не покладаючи рук. Проявилася за цей час жахлива працездатність (по 12 годин на добу орав і від 2 до 6 статей примудрявся за цей час підгортати). З'явилися і перші позитивні результати в плані покращилися позицій і збільшилася відвідуваності з Яндекса і Google.

Ось тільки як і раніше мучать сумніви з приводу того, під яким саме фільтром Гугла я сиджу ось уже півтора року - Панда або Пінгвін. У зв'язку з цим постає питання, а чи потрібно морочитися з відбором спамних зворотних посилань і додавати їх в Disavow links, Як це радять робити всім, хто постраждав від Пінгвіна. Та й як це зробити при 30 000 беків в Гугл вебмайстрів?

Послаблення фільтрів з Яндекса і Гугла

Як я вже згадував, працездатність зараз має місце бути просто феноменальна і було б здорово її прикласти ще до чогось корисного і перспективному, бо статей для переробки залишилося вже небагато, та й спаму в них вже не знайти, хіба що тільки дрібниці різні підправляти.

Хлопців, відразу перепрошую, що далі буду використовувати нетолерантне «трафік», а не кількість відвідувачів з такою-то пошукової системи, бо так реально простіше і доступніше виходить (менше слів, а більше сенсу). Нічого особистого тільки бізнес. Дякую.

25 вересня я виявив, що отримую з Яндекса трафіку в два-три рази більше, Ніж зазвичай в останнім часом.

На загальній картині відвідуваності це відбилося приблизно так:

По-перше, це було певною несподіванкою, бо якраз до цього часу я повністю змирився зі сформованої жалюгідної ситуацією і просто продовжував орати без особливих претензій на результат. Причому, ще влітку я часом готовий був рвати і метати через безсилля чогось змінити в кращу сторону, а тут повністю перестав смикатися.

По-друге, не маючи досвіду виходу з під фільтрів, не знаю що й думати про майбутні перспективи. Трафік по Яндексу повернувся не весь і я себе заспокоюю тим, що і падав він не відразу, а протягом кількох апів.

До речі, загнати по фільтр можна не тільки тонною посилань з ГС (у мене на початку цієї весни спостерігався жахливий сплеск посилального в кілька тисяч беков і не до одного з них я причетний не був). Можуть намагатися грати і на поведінковому, тобто погіршувати метрики як поведінки користувачів у видачі, так і на сайті.

Наприклад, все тієї ж навесні у мене з'явився тисячний трафік з якихось сайтів анекдотів, приколів та іншої нісенітниці, які нічим іншим, як ГС, і назвати-то було важко. Що це було - не зрозуміло. Наприклад, при переході до читання чергового анекдоту користувач потрапляв на мою сторінку 404 і не знав, що йому робити. Довелося навіть під таких відвідувачів, щоб хоч трохи знизити показник їх відмов.

Пінгвін досі дотримується принципу загального оновлення алгоритму фільтрації і можна чітко відстежити (якщо цим задурити) все його апдейти. Зараз, до речі, схоже йде його чергове оновлення до версії 2.1, що підтверджують відповідні гілки на Сео форумах.

Панда ж останнім часом стала фактично частиною загального алгоритму, який Гугл використовує при ранжируванні, і яскраво виражених її апдейтів для всіх сайтів відразу вже, швидше за все, не буде. Але тим не менше, якщо повернутися трохи в історію, то за датою початку падіння трафіку можна зробити висновок, під який саме фільтр потрапив той чи інший ресурс.

Як визначити в якому фільтром Google знаходиться сайт - під Пандою або під Пінгвіном

До речі, саме такий спосіб пропонує використовувати буржуйський онлайн ресурс Barracuda, а саме його продукт під назвою Panguin Tool .

Проблема в тому, що цього сервісу потрібно буде надати доступ до статистики вашого лічильника Гугл Аналітікс, А він уже накладе на видерті з нього графік точні дати апдейтів Панди і Пінгвіна, щоб зрозуміти що саме з цього дуету підкосило ваш ресурс.

Спочатку я подумав, що в мене є принаймні дві причини цього не робити:

  1. По-перше, у мене Аналітікс ще й року не варто, бо раніше мене повністю влаштовувала, ну, і ЧИ лічильник теж цілком собі інформативний.
  2. По-друге, на тому ж у мене висить і Адсенс, а це ж гроші, які нікому не варто довіряти. Але трохи згодом я згадав, що Аналітікс, так само як і Метрика, має можливість створення гостьових акаунтів, ніж я і спробував скористатися.

Загалом, я зайшов в своєму основному акаунті Аналітікс в адміністрування і делегував права на перегляд і аналіз статистики іншому своєму аку в Гуглі, до якого взагалі нічого такого не прив'язане.

Після цього в тому браузері, де я вже був авторизований під цим не надто важливим аккаунтом, перейшов по посиланню «Log-in to Analytics» зі сторінки Panguin Tool і мене попросили підтвердити моє бажання надати цьому додатку дані по статистиці з Аналітікс.

Я не заперечував. Після цього мене попросили вибрати конкретний лічильник.

Ну, і врешті-решт надали бажаний графік з датами релізів Панди і Пінгвіна, Але, як згадував трохи вище, лічильник цей у мене стоїть не так давно і початок 2012 року він не захопив.

Тому визначити, який саме фільтр наклав Гугл на мій сайт, таким чином не вдалося. До того ж, в кінці весни і початку літа цього року я взагалі знімав код Аналітікс по незрозумілим мені зараз причин. Те зниження трафіку з Google, яка мала місце бути навесні цього ж року, як би не з пандою, ні з Пінгвіном не корелює.

Але, можливо, вам пощастить більше. На графіку і в наведених нижче таблицях ще можна подивитися статистику по приземлятися сторінок і по ключовими словами, З яких йшов трафік.

Другий спосіб визначитися з тим, який саме звір вас покусав, це подивитися на непрямі ознаки (відбитки зубів). Наприклад, вважається, що при попаданні під Пінгвін у вас просядуть позиції тільки за окремими запитами, Цільові сторінки яких виявляться заспамленності поганими вхідними посиланнями.

При Панді ж, швидше за все, буде загальне просідання трафіку, як ніби-то у вас, хоча про саму доречність вживання цього терміна ведуться суперечки. У мене ситуація в цьому плані більше схожа на другий варіант.

Однак, зараз спам був усунутий, але зміни в кращу сторону по Гуглу почалися тільки після руху по Яндексу. У зв'язку з цим я як і раніше залишаюся в розгубленості з приводу своїх подальших дій і їх доцільності.

Disavow links - як повідомити Гуглу про поганих посиланнях на сайт

Робиться це на вкладці « Пошуковий трафік»-« Посилання на ваш сайт ». Над наведеним списком у вас буде три кнопки, які дозволять вивантажити всі знайдені в Google беки. Мені найбільше подобається останній варіант, бо там буде мати місце сортування за датою появи беклінков.

Однак, тут буде приведена інформація тільки по 1000 доменів, з яких проставлено на ваш сайт найбільше беклінков. Судячи з різних сервісів аналізу беків, на мій блог проставлені посилання з трьох тисяч доменів і їх загальне число більше доступних в Гуглі тридцяти тисяч.

Але не суть. Давайте уявимо, що я пробігся по цим Урлам і з високою часткою ймовірності виявив ті сторінки або навіть цілі домени, яким не місце в моєму посилальному профілі. Тепер залишається тільки оформити все це багатство в один файл з розширення txt і будь-яким зручним вам назвою.

При складанні файлу для Disavow links необхідно буде дотримуватися простих правил:

  1. урл кожної нової сторінки або домен пишуться на окремому рядку: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляється за наступним принципом: domain: plohoysite.com
  3. Можна додавати коментарі, але перед ними обов'язково повинна стояти решітка (# - хеш)

Як тільки список підготуєте, то переходите на сторінку Disavow links (Прямого шляху з інтерфейсу Google вебмастера я не знайшов, мабуть бояться, що будуть використовувати цей інструмент не обдумано):

Вибираєте зі списку потрібний вам сайт і тиснете на кнопку «Відхилення посилань». Вас попередять про можливі негативні наслідки цього дійства, хоча я, начебто ще не зустрічав подібних відгуків на форумах, але можливо що ті, хто додавав сюди свої списки, вже не мали трафіку з Гугла, а піти в мінус, як відомо, неможливо .

До речі, особисто мене цей напис насторожує, бо не хотілося б необдуманими дії посилити, а не поліпшити ситуацію, що склалася. Ну, а якщо ви все ж таки зважитеся на експеримент, то на наступній сторінці вам запропонують завантажити з комп'ютера підготовлений файл з Disavow links і відправити його Гуглу на розгляд.

Але проставити в стовпчик відібрані URL адреси або домени - це найпростіше. А ось саме складно якраз і полягає в відсівання цих самих спамних і поганих зворотних посилань, щоб потім попросити Google їх не враховувати.

Становище ускладнюється ще й тим, що немає однозначної думки про користь цього дійства, навіть якщо ви точно знаєте, що ваш сайт постраждав від Пінгвіна або на нього було накладено ручні санкції. Думки фахівців розділилися. Наприклад, Девакі заради справи навіть додав у Disavow links все до єдиного беки на свій блог, але результату не побачив, хоча саме він схиляється до корисності цього інструменту, як не дивно.

До речі, при накладанні ручних санкцій ситуація з виходом з-під фільтра може бути навіть більш простий, а точніше більш швидкою. Фільтри накладені вручну зараз можна побачити в Гугл вебмайстрів на вкладці «Пошуковий трафік» - «Заходи вжиті вручну».

У цьому випадку вже через пару тижнів після завантаження списку в Disavow links і подачі заявки на перегляд (як я розумію, зараз це можна зробити на цій же вкладці, а не на окремій хітроспрятанной сторінці, як це було раніше) фільтр може бути знято і позиції повернуться до своїх початкових значень.

Як відбирати погані зворотні посилання для додавання в Disavow links

У разі ж Пінгвінаі вдалого видалення спамних посилань результату доведеться чекати досить довго - до наступного апдейта цього алгоритму. Можливо, що це буде займати місяці, а можливо що і рік. Ви як і раніше хочете спробувати Disavow links? Ну, що ж, тоді я поділюся з вами тими моментами, які я почерпнув при пошуку способу створення цього списку.

Робити це вручну у мене не вийшло не через величезної кількості монотонної роботи, а через те, що я не володію належної інтуїцією, щоб по зовнішнім виглядом і тим невеликим статистичними даними, які збирають, робити висновки про додавання даної сторінки або всього домену в список неблагонадійних.

тут однозначно потрібна автоматизація, Яка повинна чітко відокремити зерна від плевел і ні в якому разі не «виплеснути разом з водою і дитини». Очевидно, що потрібні якісь сервіси, які крім того, що зможуть зібрати всю кількість посилань веде на ваш сайт, здатні були б ще й винести оцінку якості для кожного з донорів.

Такі сервіси є і багато вебмастера, а вже тим більше оптимізатори, їх знають. Інша справа, що за аналіз великої кількості беків в цих сервісах доведеться заплатити і дуже навіть не мала кількість грошей. Причому, якщо ви професійно використовуєте подібні ресурси кожен день, то гроші окупляться сторицею, але для нашої задачі це буде марнотратством, як мені здається.

На серч проскакувала публікація, де представник однієї з великих SEO контор ділився своїм досвідом підбору кандидатів для списку Disavow links. Він запропонував використовувати три довідкових сервісу: Буржуйський від Moz під назвою Open Site Explorer, а так само вітчизняні Solomono (Лінкпад) і Ahrefs.

Як я зрозумів, мені потрібно місяць ні їсти, ні пити, щоб оплатити перевірку моїх кількох десятків тисяч беклінков і вивантажити всі дані по ним для подальшого аналізу і обробки. Звичайно ж, велика Сео контора усіма цими платними пакетами і так володіє, бо вони повністю окупаються при постійній роботі з десятками, а то й сотнями проектів замовників.

Але метод його досить-таки переконливий. Товариш пропонує вивантажити з Open Site Explorer, Solomono і Ahrefs показники якості донорів. Вони називаються Domain Authority, iGood і Ahrefs Domain Rank, відповідно.

Потім звести все це справа в одну таблицю і відбирати кандидатів в Disavow links за принципом найменших вагових коефіцієнтів якості донора у всіх цих трьох сервісах в купе. Це дозволить знизити ймовірність помилки.

На жаль, дозволити собі таку розкіш можуть не всі, хоча, якби хтось виніс це на аутосорсінг, То я б не відмовився скористатися за помірну плату, але при цьому мені б хотілося отримати не просто список кандидатів для Disavow links, а саме всі ці вивантаження з Open Site Explorer, Solomono і Ahrefs, щоб самому переконатися в справедливості зроблених висновків і в тому , що мене не водять за ніс.

Другий варіант пошуку спамних зворотних посилань в своєму посилальному профілі, який мені попався на очі, полягав у використанні платної програми ФастТраст від Алаіча (відомий блогер). Власне, на промо сайті цієї програми я натрапив якраз на опис підготовки списку кандидатів на видалення для Disavow links.

Начебто все чудово. Ціна 3000 рублів, що хоча й дорогувато, але терпимо, тим більше, що її можна придбати і за бонуси Профіт Партнера, яких у мене як раз є потрібну кількість.

Але! Я придивився уважніше до вимог і бажаним умовам, при яких дана програма буде працювати коректно. Виявилося, що не все так просто:

Загалом, це остудило мій запал і я зрозумів, що купити програму це ще півсправи, а потрібно буде ще проксі шукати, гроші в Ahrefs вкладати, щоб отримати найбільш актуальний результат. Та й часу на збір даних, думаю, піде досить багато.

Тому вирішив взяти паузу і, поки з голови не вилетіло, записати всі свої поточні думки з приводу Пінгвіна і Disavow links в цьому пості, щоб потім до цього повернутися.

Ну, ось, десь так, приблизно. А ви що думаєте з приводу фільтра застосованого Гуглом до ktonanovenkogo? Це Панда або Пінгвін? З Disavow links лінк варто морочитися? Якщо стоїть, то яким чином виокремлювати галімиє беки?

Удачі вам! До швидких зустрічей на сторінках блогу сайт

Вам може бути цікаво

Висновок сайту з під фільтра Google Пінгвін - покрокове керівництво За що можна отримати бан в Яндексі, потрапити під АГС або портяночний фільтр, а також шляхи виходу з-під цих санкцій
GoGetLinks - вічні посилання для просування сайту і заробіток на біржі Гогетлінкс для вебмайстрів
Статистика пошукових запитів Яндекса, Google і Рамблера, як і навіщо працювати з вордстат
Розшифровка і роз'яснення Seo скорочень, термінів і жаргонізмів
СЕО термінологія, скорочення і жаргон
онлайн сервіси для вебмайстрів - все, що потрібно для написання статей, їх пошукової оптимізації і аналізу її успішності
Способи оптимізації контенту і облік тематики сайту при посилальному просуванні до відома витрат до мінімуму
Rel Nofollow і Noindex - як закрити від індексації Яндексом і Гуглом зовнішні посилання на сайті

Google Panda - один з найскладніших і найцікавіших алгоритмів Google, який зараз, через три роки після виходу першої версії, продовжує залишатися загадкою. Як ми знаємо, основною метою «Панди» є визначення неякісного контенту, але погодьтеся, це дуже широке поняття. Ми бачили, як «під Панду» потрапляли дорвеи, сайти з автоматично згенерували контентом, з великою кількістю дублів сторінок, неунікальним контентом, переспамом в тексті і мета-тегах і з багатьма іншими менш явними проблемами. Але чи означає це, що сам алгоритм залишається на рівні грубого фільтру? Не факт.

Що ми знаємо про Panda?

Панда в першу чергу - евристичний алгоритм. Це означає, що скануючи інформацію, вона намагається знайти найбільш вірне рішення проблеми або відповідь на запит. Розробка алгоритму почалася з того, що група тестувальників оцінювала велика кількість сайтів по ряду критеріїв. Ці оцінки дозволяли інженерам встановити основні фактори, які повинні враховуватися і визначати так званий «Panda score». Крім механізму фільтрації неякісного контенту, думаю, існує й інша сторона «Панди», яка включається в основний алгоритм ранжирування і може як негативно, так і позитивно впливати на позиції сайту (не варто думати про Панді як про бінарному фільтрі: або фільтрує, або ні ).

Google Panda - частина загального алгоритму?

Не так давно в «світі Панди» відбулася одна важлива подія, яка ще більше ускладнило життя вебмастерам: Mетт Каттс оголосив, що алгоритм буде оновлюватися щомісяця протягом 10-денного періоду. До того ж, ніяких підтверджень апдейта не буде. Тепер ми всі граємо в темну.

Чому це стає проблемою, я думаю, зрозуміти нескладно. Для прикладу, коли ви бачите в Analytics, що у сайту впав трафік, і отримуєте підтвердження того, що в цей час оновився алгоритм Панди, ви чітко розумієте причину падіння трафіку і можете робити осмислені дії.

Тепер сайт може потрапити під алгоритм «Панда» протягом 10-денного періоду, проте ніхто не знає, коли він починається і коли закінчується. До того ж, основний алгоритм ранжирування Google оновлюється близько 500 разів на рік, і це не враховуючи «Пінгвіна» та інших дрібних «радостей». Зрозуміти причину падіння трафіку стає все важче, а без цього робити ефективні дії по його відновленню не представляється можливим.

Останній підтверджений апдейт «Панди» був 18 липня 2013 року. Але це далеко не останнє оновлення, так як алгоритм перейшов в стадію майже реального часу. Я написав «майже», бо багато сеошників вірять, що «Панда» тепер працює без зупинки (є частиною загального алгоритму). Це не зовсім так, і в одному з Google+ HangOut Джон Міллер це пояснює . З слів Джона можна зрозуміти, що «Панда» не працює в режимі реального часу, а зберігає ту ж систему апдейтів. Але прогрес в розробці вже на такому рівні, що Google може бути впевнений в алгоритмі і тестування перед запуском тепер не обов'язкова. Це важливо розуміти, так як сайт не може потрапити під «Панду» в будь-який день місяця, тільки під час чергового апдейта (нагадую, тепер він триває 10 днів).

Як все ж відстежувати апдейти «Панди»?

Ось ми і підійшли до основної проблеми: як визначити, що коливання трафіку викликані саме «пандою»? Відповідь Метта Каттса на аналогічне питання:

Але все ж давайте спробуємо розібратися самі. Декілька порад:

1. Стежте за датами

В першу чергу потрібно чітко встановити дату зростання або падіння трафіку, що дозволить пов'язати її з можливим апдейтом. Це може бути як «Панда», так і «Пінгвін». Визначити, який саме алгоритм «зачепив» сайт, дуже важливо - від цього буде залежати план дій по відновленню втрачених позицій.

Наприклад, якщо Google «викочує» новий апдейт «Пінгвіна», то на форумі ви зможете знайти безліч описів однієї і то й же ситуації: позиції і трафік різко впали або, навпаки, повернулися на колишні позиції. Якщо ви бачите, що дата коливань трафіку у інших аналогічна вашої, то, швидше за все, ви в «одному човні».

3. Слідкуйте за блогами SEO-шників

Підписуйтесь на новини або читайте блоги тих SEO-шників, які регулярно відстежують всі зміни алгоритмів. Досвідчені фахівці мають хороші зв'язки і доступ до широкого спектру даних (клієнтські сайти, консалтинг, репорти аудиторії), що дозволяє отримувати більш повну картину того, що відбувається.

4. Проведіть SEO-аудит

Якщо у вас є підозри, що по вашому сайту пройшовся «миле звірятко», то необхідно провести SEO-аудит в першу чергу в тих зонах, на які націлена «Панда», а саме аудит контенту. Ось кілька порад:

  • перевірте сайт на наявність дублів сторінок;
  • простежте, як сайт шукається по шматках тексту (по широкому і точній відповідності);
  • перевірте тексти і мета-теги на предмет переспамленності;
  • подивіться в Google Webmaster Tools , Не зменшилася чи кількість проіндексованих сторінок (Google Index -\u003e Index Status);
  • перевірте в Google Webmaster Tools кількість показів сайту в пошуковій системі (Search Traffic -\u003e Search Queries).

5. моніторьте сервіси, які відстежують зміни алгоритмів

Існують сайти, які стежать за «погодою» в світі SEO, - це MozCast і Algoroo. Великі зміни «температури» свідчать про те, що Google щось затіває або вже затіяв. Дані сервіси вам не скажуть, що робити, але бути в курсі теж дуже важливо.

Висновки. Можна припустити: то, що Google запустив «Панду» в напівавтоматичний режим, є певним сигналом «футуристів SEO», що не за горами час, коли і «Пінгвіна» спіткає подібна доля. Точніше ця доля спіткає нас. Тільки уявіть собі: кожен місяць два апдейта, які не підтверджуються пошуковим гігантом. Темні часи нас чекають, друзі, темні часи.

Сподіваюся, ця стаття допомогла вам розібратися, що ж таке Google Panda і як визначати оновлення її алгоритмів.

Алгоритм ранжирування Google Panda діє з початку 2011 р Його основним завданням є оцінка якості контенту. Саме завдяки Панді пошукова видача чиститься від непотрібних і нерелевантних сайтів. З 2015 р їй на допомогу прийшов штучний інтелект - алгоритм RankBrain. А з початку 2016 р різні алгоритми ранжирування об'єднали в один загальний алгоритм.

Як перевірити, чи потрапив сайт під фільтр Панди

Ще пару років тому seo-фахівці знали дати оновлень алгоритму Гугл Панда і могли зв'язати падіння органічного трафіку з попаданням сайту під фільтр. Але представники Google в кожному зверненні заявляють, що вони навмисно приховують інформацію, пов'язану з ранжируванням і санкціями. Вони хочуть виключити можливість підтасування результатів пошукової видачі з боку недобросовісних seo-оптимізаторів.

Тепер поновлення фільтрів в Google відбуваються комплексно відразу всіх алгоритмів. Через це важко зрозуміти, чому саме ресурс потрапив під санкції. Що привело до втрати позицій: посилання, тексти або щось інше. Звернення до технічних фахівців Google також не додає ясності, тому що вони відповідають загальними фразами.

Зрозуміти, чи є фільтр, не складно. У сайту з високою відвідуваністю сильно падає трафік з Google, у молодих сайтів протягом тривалого часу спостерігається практично нульовий трафік. Додатково перевіряйте сайт в сервісі Feinternational.com. Він використовує десять баз індексації Google в різних країнах і показує перевірки алгоритмами Panda, Penguin, Phantom, Mobile-Friendly.


Щоб визначити ймовірність санкцій з боку Google Panda, представники пошукача радять провести самостійний аудит сайту. Почитайте матеріали на своєму ресурсі і дайте відповідь на питання:

  • чи може подібний матеріал вийти у вигляді книги або друкованого журналу?
  • як багато і часто виходять нові матеріали?
  • ви б самі підписалися на розсилку від такого сайту?
  • довіряєте ви самі розміщеної інформації?
  • стали б ви платити банківською картою через цей сайт?

Якщо ви даєте відповіді не на користь ресурсу, радимо кардинально поміняти підхід до роботи: до пошуку інфоприводів, створення матеріалів і залученню експертів.

Щоб перевірити якість контенту технічними методами, скористайтеся безкоштовним сервісом «



Сподобалася стаття? поділіться їй