Контакти

Індексація у пошукових системах яндекс. Швидкий спосіб перевірити індексацію сторінок в Яндексі та Google. Зарубіжні пошукові системи

Індексування сайту – це найважливіша, необхідна та першочергова деталь у здійсненні його оптимізації. Адже саме внаслідок наявності індексу пошукові системи гранично швидко та точно можуть відповідати на всі запити користувачів.

Що таке індексація сайту?

Індексацією сайту називають процес додавання інформації про вміст (контент) сайту до бази даних пошукових систем. Саме індекс є базою даних пошукових систем. Щоб сайт був проіндексований і з'явився в пошуковій видачі, на нього повинен зайти спеціальний пошуковий бот. Весь ресурс, сторінка за сторінкою, досліджується роботам за певним алгоритмом. В результаті знаходячи та індексуючи посилання, зображення, статті тощо. При цьому в пошуковій видачі вище в переліку будуть перебувати ті сайти, авторитет яких вищий у порівнянні з іншими.

Виділяють 2 варіанти індексації сайту ПС:

  • Самостійне визначення пошуковим роботом нових сторінок або створеного ресурсу - цей метод непоганий за наявності активних посилань з інших, вже проіндексованих веб-сайтів, на ваш. Інакше чекати пошукового робота можна дуже довго;
  • Пнесення URL на сайт у призначеній для цього формі пошукача ручним способом – цей варіант дозволяє новому сайту «встати в чергу» на індексацію, яка займе досить тривалий час. Спосіб простий, безкоштовний і вимагає внесення адреси лише на головну сторінку ресурсу. Цю процедуру можна виконати через панель вебмайстра Яндекса та Гугла.

Як підготувати сайт до індексації?

Відразу варто зазначити, що дуже небажано викладати сайт на стадії розробки. Пошукові системи можуть проіндексувати незакінчені сторінки з некоректними відомостями, орфографічними помилками і т. д. У результаті це негативно вплине на рейтинг сайту і видачу інформації з даного ресурсу в пошуку.

Тепер перерахуємо моменти, про які не можна забувати на етапі підготовки ресурсу до індексації:

  • на flash файли розповсюджуються обмеження індексації, тому сайт краще створювати за допомогою HTML;
  • такий тип даних, як Java Script також не індексується пошуковими роботами, у зв'язку з цим навігацію по сайту слід дублювати текстовими посиланнями, а всю важливу інформацію, яка має бути проіндексована, не пишемо Java Script;
  • потрібно прибрати всі внутрішні посилання, що не працюють, так, щоб кожне посилання вело на реальну сторінку вашого ресурсу;
  • структура сайту повинна дозволяти легко переходити від нижніх сторінок до головної і назад;
  • зайві та другорядні відомості та блоки краще перемістити до низу сторінки, а також приховати їх від ботів спеціальними тегами.

Як часто відбувається індексація?

Індексація сайту в залежності від низки причин може тривати від кількох годин до кількох тижнів, аж до місяця. Оновлення індексації або апи пошукових систем відбуваються з різною періодичністю. За статистикою в середньому Яндекс індексує нові сторінки та сайти за період від 1 до 4 тижнів, а Google справляється за період до 7 днів.

Але за правильної попередньої підготовки створеного ресурсу ці терміни можна скоротити до мінімуму. Адже, по суті, всі алгоритми індексації ПС і логіка їх роботи зводиться до того, щоб дати найбільш точну та актуальну відповідь на запит користувача. Відповідно, чим регулярніше на вашому ресурсі з'являтиметься якісний контент, тим швидше він проходитиме індексацію.

Методи прискорення індексації

Для початку слід «повідомити» пошукові системи про те, що ви створили новий ресурс, як уже говорилося в пункті вище. Також багато хто рекомендує додати новий сайт у системи соціальних закладок, але я так не роблю. Це дійсно дозволяло прискорити індексацію кілька років тому, тому що пошукові роботи часто «навідуються» на такі ресурси, але, на мій погляд, зараз краще поставити посилання з популярних соціальних мереж. Незабаром помітять посилання на ваш ресурс, і проіндексують його. Подібний ефект може бути досягнутий і за допомогою прямих посилань на новий сайт із вже проіндексованими ресурсами.

Після того, як кілька сторінок вже потрапили в індекс і сайт став розвиватися для прискорення індексації, можна спробувати «підгодувати» пошукового бота. Для цього потрібно періодично публікувати новий контент приблизно через рівні проміжки часу (наприклад, щодня по 1-2 статті). Звичайно, контент повинен бути унікальним, якісним, грамотним і неперенасиченим ключовими фразами. Також рекомендую створити XML карту сайту, про який йтиметься нижче і додати його в панелі веб-майстра обох пошукових систем.

Файли robots.txt та Sitemap

Текстовий файл robots txt включає вказівки для роботів пошукових систем. При цьому він дозволяє заборонити індексацію вибраних сторінок сайту для заданої пошукової системи. Якщо будете його робити вручну, то важливо, щоб ім'я даного файлу було прописане тільки великими літерами і знаходилося в кореневій директорії сайту, більшість CMS генерують його самостійно або за допомогою плагінів.

Sitemap або карта сайту являє собою сторінку, що містить повну модель структури сайту на допомогу користувачам, що «заблукали». При цьому можна переміщуватись зі сторінки на сторінку без використання навігації сайту. Бажано створити таку карту та у форматі XML для пошукових систем та вписати його у файл robots.txt для покращення індексації.

Про ці файли можна отримати докладнішу інформацію у відповідних розділах, перейшовши за посиланнями.

Як заборонити сайт до індексації?

Керувати, у тому числі і забороняти сайт або окрему сторінку до індексації, можна за допомогою згаданого вище файлу robots.txt. Для цього створіть на своєму ПК текстовий документ з такою назвою, помістіть його в кореневій папці сайту і пропишіть у файлі від якого пошукача ви хочете приховати сайт. Крім того, приховати контент сайту від роботів Google або Яндекса можна використовуючи знак *. Ось ця інструкція у robots.txt заборонить індексацію всім пошуковим системам.

User-agent: * Disallow: /

Для сайтів WordPress заборонити індексацію сайту можна через панель управління. Для цього в настойках видимості сайту потрібно поставити галочку "Рекомендувати пошуковим машинам не індексувати сайт". При цьому Яндекс, швидше за все, прислухається до вашого побажання, а ось Google не обов'язково, але можуть виникнути деякі проблеми.

Здрастуйте, шановні читачі сайту сайт. Сьогодні я розповім вам, як знайти і виправити можливі проблеми з індексуванням вашого сайту. Розглянемо три основні моменти.

  1. Робот повинен індексувати потрібні сторінки сайту;
  2. Ці сторінки повинні швидко індексуватися;
  3. Робот не повинен відвідувати непотрібні сторінки сайту;

Здається, все досить просто. Але насправді більшість вебмайстрів стикаються з тими самими проблемами при налаштуванні індексування. Давайте подивимося на них уважно.

На даний момент в більшості випадків, якщо йдеться про нову сторінку сайту в пошукову видачу, вона з'явиться протягом декількох десятків хвилин. Якщо мова про вже проіндексовані сторінки, то це 3-5 днів.

У підсумку, щоб ваш сайт відвідувався швидко, необхідно пам'ятати про три правила:

  1. По-перше, у вас повинен бути коректний і регулярно оновлюваний файл sitemap;
  2. По-друге, не використовувати директиву Crawl-delay просто, якщо вам хочеться. Просто зараз обов'язково зайдіть у ваш robots.txt і перевірте, чи є така директива. Якщо вона встановлена, задумайтеся, чи дійсно вона вам потрібна.
  3. По-третє, використовуйте "перехід сторінок" для відвідування роботом найважливіших сторінок вашого сайту з новою важливою сторінкою.

Позбавляємо робота від непотрібних сторінок сайту

Коли робот починає відвідувати ваш ресурс, часто не завжди позитивно впливає на індексування хороших сторінок сайту. Уявимо ситуацію, скажімо, робот здійснює 5 запитів в секунду до вашого ресурсу. Здається чудовий результат, але який сенс із цих п'яти відвідувань за секунду якщо всі вони відносяться до службових сторінок вашого сайту або дублів і робот зовсім не приділяє уваги дійсно важливим сторінкам. Про це наступний розділ, як не індексувати непотрібні сторінки.

  1. Використовуємо розділ Яндекс-вебмайстер та статистику обходу
  2. Отримуємо адреси сторінок, які робот індексувати не повинен
  3. Складаємо коректний файл robots.txt

Давайте подивимося на інструмент Статистика обходу, виглядає він наступним чином. Тут також є графіки. Нас цікавить трохи прогорнути вниз сторінку кнопочка "всі сторінки". Ви побачите все, що відвідував робот останніми днями.

Серед цих сторінок якщо є якісь службові сторінки, їх потрібно забороняти у файлі robots.txt. Що саме потрібно забороняти давайте за пунктами.

  1. По-перше, як я говорив раніше, сторінки фільтрації, підбирання товарів, сортування потрібно забороняти у файлі robots.txt.
  2. По-друге, обов'язково забороняємо сторінки різних дій. Наприклад, додати до порівняння, додати у вибране, додати до кошика. Саму сторінку з кошиком також забороняємо.
  3. По-третє, забороняємо до обходу всі службові розділитакі як пошук по сайту, адмінка вашого ресурсу, розділи з даними користувачів. Наприклад, інформація про доставку, номери телефонів та інше також забороняємо у файлі robots.txt.
  4. І сторінки з ідентифікаторами, наприклад, з utm мітками також варто заборонити до обходу у файлі robots.txt за допомогою директиви Clean-param.

Якщо ви зіткнетеся з питанням, а чи потрібно забороняти або потрібно відкривати цю сторінку до обходу, дайте відповідь собі на просте запитання: потрібна ця сторінка користувачампошукової системи? Якщо ця сторінка не повинна знаходитися у пошуку за запитами, її можна заборонити.

І невеликий практичний кейс, я сподіваюся, він вас мотивує. Дивіться, на одному з ресурсів робот робить майже тисячу звернень на день до сторінок з редиректом. Насправді, сторінки перенаправлення були сторінки додавання в кошик.

Вносимо зміни до файлу robots.txt і видно на графіку, що звернення до таких сторінок практично зійшли нанівець. При цьому відразу позитивна динаміка - обхід потрібних сторінок цієї сторінки степу кодом 200 різко зріс.

- Дублі сторінок на сайті, як їх знайти і що з ними робити

І тут на вас чекає інша небезпека - це дублі сторінок. Під дублями ми розуміємо кілька сторінок одного сайту, які доступні за різними адресами, але містять абсолютно ідентичний контент. Основна небезпека дублів полягає в тому, що за їх наявності може змінитись у пошуковій видачі. Може потрапити сторінка за непотрібною вам адресою, конкурувати з основною сторінкою, яку ви просуваєте за будь-якими запитами. Плюс до всього велика кількість дублюючих сторінок ускладнює обхід сайту роботом, що індексує. Загалом проблем вони приносять купу.

Я думаю, що майже всі вебмайстри впевнені, що саме на їхньому ресурсі немає жодних дублюючих сторінок. Хочу трошки вас засмутити. Насправді дублі є практично на всіх сайтах у рунеті. ? Про це у мене є докладна стаття, прочитавши яку у вас не залишиться жодного питання.

- Перевірка коду відповіді сервера

Крім файлу robots.txt хочеться вам ще розповісти про коректні http коди відповіді. Теж здається речі, які говорили вже неодноразово. Сам по собі http-код відповіді це певний статус сторінки для індексуючого робота.

  1. http-200 - сторінку можна індексувати та включати пошук.
  2. http-404 - значить сторінку видалено.
  3. http-301 - сторінку перенаправлено.
  4. http-503 – тимчасово недоступна.

У чому плюс використання інструменту коректних http кодів:

  1. По-перше, у вас ніколи не буде різних битих посилань на ваш ресурс, тобто тих посилань, які ведуть на сторінки, що не відповідають кодом відповіді 200. Якщо сторінка не існує, значить код відповіді 404 це робот зрозуміє.
  2. По-друге, допоможе роботу з плануванням обходу дійсно потрібних сторінок, які відповідають кодом відповіді 200.
  3. І по-третє, дозволить уникнути попадання різного сміття у пошукову видачу.

Про це якраз наступний скрін також із практики. Під час недоступності ресурсу та проведення технічних робіт робот отримує заглушку з http кодом відповіді 200. Ось якраз опис до цієї заглушки ви бачите у результатах пошуку.

Оскільки сторінка відповідає кодом відповіді 200, вони потрапляють видачу. Звичайно, з таким контентом сторінки не можуть перебувати та показувати за будь-якими запитами. У цьому випадку правильним налаштуванням буде http відповіді 503. При короткочасній недоступності сторінки або ресурсу, цей код відповіді дозволить уникнути виключення сторінок з результатів пошуку.

Ось ситуації, коли ваші важливі і потрібні сторінки вашого ресурсу стають недоступними для нашого робота, наприклад, відповідають кодом 503 або 404 або замість них повертається в цю заглушку.

Такі ситуації можна відстежити за допомогою інструменту «важливі сторінки». Додайте до нього ті сторінки, які приносять максимальний трафік на ваш ресурс. Налаштування повідомлення на пошту або в сервіс і ви будете отримувати інформацію про те, що відбувається з цією сторінкою. Який код відповіді, який у неї заголовок, коли вона відвідувалася і який статус у пошуковій видачі.


Перевірити коректність повернення того чи іншого коду відповіді можна за допомогою відповідного інструменту в Яндекс-вебмайстрі (тут). У разі перевіряємо код відповіді неіснуючих сторінок. Я придумав сторінку і загнав її в інструмент, натиснув кнопку перевірити і отримав 404 відповідь.

Тут все гаразд, тому що сторінка була недоступна вона коректно відповіла 404 кодом і в пошук вже не потрапить. В результаті чого, для того, щоб обмежити відвідування роботам не потрібних сторінок сайту, активно використовуйте інструмент статистику обходу, вносьте зміни до файлу robots.txt і слідкуйте, щоб сторінки повертали коректний http-код відповіді.

- Підбиваємо підсумок

Ми з вами віддали роботу коректній сторінці сайту з контентом. Ми досягли того, що це швидко індексується. Заборонили роботу індексувати непотрібні сторінки. Всі ці три великі групи завдань пов'язані між собою. Тобто якщо не обмежувати роботу індексування службових сторінок, то, швидше за все, у нього залишиться менше часу на індексування потрібних сторінок сайту.

Якщо робот отримуватиме контент потрібних сторінок не в повному обсязі, він не включатиме ці сторінки в пошукову видачу швидко. Тобто над індексуванням вашого ресурсу потрібно працювати в комплексі, над усіма цими трьома завданнями. І в цьому випадку ви досягнете певних успіхів для того, щоб потрібні сторінки швидко потрапляли у пошукову видачу.

Офіційні відповіді Яндекса

В індекс потрапили сторінки у верхньому регістрі при тому, що сайт таких сторінок не містить.Якщо сторінки потрапили у верхньому регістрі, це, швидше за все, робот виявив посилання на них десь в інтернеті. Перевірте спочатку ваш сайт, швидше за все, десь в інтернеті встановлено некоректне посилання. Робот прийшов, побачив її і почав скачувати сторінку у верхньому регістрі. Для них, для таких сторінок краще використовувати 301 редирект.

Sitemap має кілька сторінок – це нормально?Якщо йдеться про sitemap, тобто спеціальний формат sitemap, у якому можна вказувати посилання інші файли sitemap, то звичайно нормально.

Якщо розмістити посилання на всі розділи каталогу в нижній частині сайту, який відображається на всіх сторінках, це допоможе індексації чи зашкодить? Насправді робити це зовсім не потрібно, тобто якщо це не потрібно відвідувачам вашого сайту, то вносити спеціально це не потрібно. Досить просто файлу sitemap. Робот дізнається про наявність всіх цих сторінок, додасть їх до своєї бази.

Чи потрібно в sitemap вказати періодичність оновлення?Файлом sitemap можна передавати додаткову інформацію для робота, що індексує. Крім самих адрес також наш робот розуміє ще кілька тегів. По-перше, це частота оновлення, тобто періодичність оновлення. Це пріоритет при обході та дата останньої зміни. Всю цю інформацію з файлу sitemap він забирає при обробці файлу і додає до своєї бази і використовує надалі коригування політик обходу.

Чи можна обійтися без sitemap?Так, стежте, щоб на вашому сайті була прозора навігація, щоб будь-яку внутрішню сторінку вели доступні посилання. Але враховуйте, що якщо це новий ресурс (від автора: про те, як запустити новий сайт читайте) і, наприклад, якась сторінка знаходиться глибоко на вашому сайті, наприклад, в 5-10 кліків, то роботу буде потрібно досить багато часу, щоб дізнатися про її наявність. Спочатку завантажити головну сторінку сайту, дістати посилання, потім знову завантажити ті сторінки, про які він дізнався і таке інше. Файл sitemap дозволяє передати роботу інформацію про всі сторінки відразу.

Робот робить 700 тисяч запитів на добу на неіснуючі сторінки.Насамперед потрібно зрозуміти, звідки з'явилися такі неіснуючі сторінки. Можливо, некоректно використовуються відносні посилання на вашому сайті, або якийсь розділ видалили остаточно з сайту і робот продовжує все одно перевіряти такі сторінки. У такому випадку варто просто їх заборонити у файлі robots.txt. Протягом 12 години робот перестане звертатися до таких сторінок.

Якщо службові сторінки проіндексовані, як їх можна прибрати з пошуку.Щоб видалити сторінки з результатів пошуку, також використовуйте robots.txt. Тобто не має значення, чи встановили ви заборону при створенні вашого сайту, або вже коли запустили ресурс. Сторінка зникне з видачі протягом тижня.

Автогенерований sitemap це добре чи ні?У більшості випадків всі sitemap генерації автоматично, тому можна сказати, що це напевно добре. Вам не потрібно робити щось своїми руками та можете приділити увагу чомусь іншому.

Як індексуватиметься сторінка, якщо її зробити канонічною саму на себе. Якщо атрибут canonical веде на саму сторінку? Така сторінка вважається канонічною? Вона буде нормально проіндексована та включена в пошукову видачу, тобто використовувати такий прийом цілком коректно.

Що означає статус "неканонічний"? Значитає на сторінці встановлений атрибут canonical, який веде на іншу сторінку вашого сайту. Тому ця сторінка у пошук потрапити не зможе. Відкрийте вихідний код сторінки, зробіть пошук, подивіться куди веде canonical та перевіряйте канонічну сторінку у пошуку.

Що правильніше для сторінки-кошика заборона robots.txt або noindex?Якщо сторінку заборонено за допомогою методу noindex, робот періодично відвідуватиме її та перевірятиме наявність даної заборони. Щоб робот цього не робив, краще скористайтеся забороною у файлі robots.txt.


До зустрічі! Встигайте все і завжди на сторінках блогу сайт

Допоможи проекту – підпишись на наш Яндекс.Дзен канал!

З Google все дуже просто. Вам потрібно додати свій сайт до інструментів вебмайстра за адресою https://www.google.com/webmasters/tools/, після чого вибрати доданий сайт, таким чином потрапляючи до Search Console свого сайту. Далі у лівому меню вибираємо розділ "Сканування", а в ньому пункт "Переглянути як Googlebot".

На сторінці, що відкрилася, в порожнє поле вводимо адресу нової сторінки, яку хочемо швидко проіндексувати (з урахуванням вже введеного доменного імені сайту) і тиснемо правіше кнопку «Сканувати». Чекаємо, доки сторінка просканується і з'явиться у верхній частині таблиці раніше сканованих подібним чином адрес. Далі тиснемо на кнопку «Додати до індексу».

Ура, ваша нова сторінка моментально проіндексована Гуглом! Вже за пару хвилин ви зможете знайти її у гуглівській видачі.

Швидка індексація сторінок в Яндексі

У новій версії інструментів для вебмайстра став доступним аналогічний інструментдля додавання до індексу нових сторінок. Відповідно, ваш сайт також попередньо має бути доданий до Яндекс Вебмайстер. Туди ж можна потрапити, вибравши в вебмайстрі потрібний сайт, далі йдемо в розділ «Індексування», вибираємо пункт «Перехід сторінок». У вікні вводимо адреси нових сторінок, які хочемо швидко проіндексувати (за посиланням на одному рядку).

На відміну від Гугла, індексація в Яндексі поки не відбувається миттєво, але намагається цього прагнути. Вище проведеними діями ви повідомите роботу Яндекса про нову сторінку. А проіндексована вона буде протягом півгодини – так показує особисто моя практика. Можливо, швидкість індексації сторінки в Яндексі залежить від низки параметрів (від репутації вашого домену, облікового запису та/або інших). Найчастіше, на цьому можна зупинитися.

Якщо ви бачите, що сторінки вашого сайту погано індексуються Яндексом, тобто кілька загальних рекомендацій, як із цим боротися:

  • Найкраща, але й найважча рекомендація – це поселити швидкість Яндекса на своєму сайті. Для цього бажано щодня додавати на сайт свіжі матеріали. Бажано 2-3 та більше матеріалів. Причому додавати їх не відразу все одночасно, а через деякий час, наприклад, вранці, вдень та ввечері. Ще краще було б дотримуватися приблизно однакового графіка публікацій (приблизно витримувати один і той же час додавання нових матеріалів). Також багато хто рекомендує створити RSS стрічку сайту, щоб пошукові роботи могли зчитувати оновлення прямо з неї.
  • Звичайно, далеко не всі зможуть в таких обсягах додавати нові матеріали на сайт - добре, якщо вдасться додавати 2-3 матеріали на тиждень. У такому разі про швидкість Яндекса можна особливо не мріяти, а намагатися заганяти в індекс нові сторінки іншими способами. Найефективнішим з яких є постінг посилання на нові сторінки в прокачені Твіттер акаунти. За допомогою спеціальних програм типу Twidium Accounter можна «прокачати» потрібну кількість твіттер аккунтів і вже з їх допомогою швидко заганяти в індекс пошукових систем нові сторінки сайту. Якщо у вас немає можливості постити посилання в прокачені акаунти Твіттера самостійно, можна придбати такі пости через спеціальні біржі. Один пост з вашим посиланням в середньому коштуватиме від 3-4 рублів і вище (залежно від крутості обраного облікового запису). Але цей варіант буде досить дорогим.
  • Третій варіант швидкої індексації - це використання сервісу http://getbot.guru/, який всього за 3 рублі допоможе досягти потрібного ефекту з гарантією результату. Добре підійде для сайтів із рідкісним графіком додавання нових публікацій. Є там дешевші тарифи. Подробиці та відмінності їх краще дивитись на сайті самого сервісу. Особисто я послугами даного сервісу як прискорювач індексації дуже задоволений.

Звичайно, можна також додавати нові публікації до соціальних закладок, що теоретично також має сприяти швидкому індексуванню сайту. Але ефективність такого додавання також залежатиме від прокачування ваших облікових записів. Якщо у вас маленька активність на них і ви використовуєте облікові записи тільки для подібного спаму, то корисного вихлопу практично не буде.

P.S.з великим досвідом завжди актуальна – звертайтесь!

(13 )

Якщо ви хочете дізнатися, чи є певна сторінка в індексі пошукової системи і скільки в цілому сторінок вашого сайту беруть участь у пошуку, вам варто дізнатися про чотири найпростіші способи перевірки індексації сайту, якими користуються всі SEO-фахівці.

У процесі індексування порталу пошуковий бот спочатку сканує його, тобто обходить для вивчення контенту, а потім додає інформацію про веб-ресурс до бази даних. Потім пошукова система формує пошук за цими базами. Не плутайте сканування з індексацією – це різні речі.

Щоб розуміти, скільки сторінок вашого проекту не проіндексовано, потрібно знати їхню загальну кількість. Це дозволить зрозуміти, як швидко індексується ваш сайт. Зробити це можна кількома способами:

  1. Подивитись карту сайту.Її ви знайдете за адресою: назва_вашого_сайта.ru/sitemap.xml. Тут показуються переважно показуються всі сторінки, розміщені на ресурсі. Але іноді карта сайту може генеруватися неправильно, і частина сторінок у ній може бути.
  2. Скористайтеся спеціальною програмою.Ці програми сканують весь ваш сайт і видають всі сторінки вашого сайту, приклад таких програм Screaming Frog Seo (платна) або Xenus Links Sleuth (безкоштовна).

Способи перевірки індексації сайту

Пропонуємо до вашої уваги 4 найпоширеніші та найпростіші способи, що дозволяють перевірити, які сторінки є в індексі, а які – ні.

1. Через панель вебмайстра

Цим методом власники веб-ресурсів перевіряють їх наявність у пошуку найчастіше.

Яндекс

  1. Авторизуйтесь в Яндекс.Вебмайстер.
  2. Перейдіть до меню «Індексування сайту».
  3. Під ним знайдіть рядок «Сторінки у пошуку».

Можна піти і іншим шляхом:

  1. Виберіть «Індексування сайту».
  2. Далі перейдіть до "Історія".
  3. Потім натисніть на вкладку «Сторінки у пошуку».

І першим, і другим способом ви зможете вивчити динаміку зростання чи спаду числа сторінок у пошуковій системі.

Google

  1. Зайдіть у панель управління сервісу Google Webmaster Tools.
  2. Клацніть на вкладку Search Console.
  3. Перейдіть до «ІндексGoogle».
  4. Натисніть на опцію «Статус індексування».

2. Через операторів пошукових систем

Вони допомагають уточнити результати пошуку. Так, застосування оператора "site" дозволяє побачити приблизну кількість сторінок, які вже знаходяться в індексі. Щоб перевірити цей параметр, у рядку пошуку Яндекс або Google вкажіть: «site:адреса_вашого_сайту».


Важливо!Якщо результати в Google і Яндекс сильно відрізняються між собою, то значить ваш сайт має якісь проблеми зі структурою сайту, сміттєвими сторінками, індексацією або на нього накладені санкції.

Для пошуку ви можете також використовувати додаткові інструменти, наприклад, щоб дізнатися, як змінювалася індексація сторінок за певний період часу. Для цього під пошуковим рядком натисніть на вкладку "Інструменти пошуку"і виберіть період, наприклад, «За 24 години».

3. За допомогою плагінів та розширень

Використовуючи спеціальні програми, перевірка індексації веб-ресурсу відбудеться автоматично. Це можна зробити за допомогою плагінів та розширень, ще відомих як букмарклети. Вони є javascript-програмами, які зберігаються в браузері у вигляді стандартних закладок.

Перевага плагінів та розширень у тому, що вебмайстру немає необхідності щоразу по новій заходити в пошукову систему та вводити там адреси сайтів, оператори та інше. Скрипти зроблять все в автоматичному режимі.

Найпопулярнішим плагіном, що застосовується з цією метою, є RDS bar, який можна завантажити в магазині додатків будь-якого браузера.

Варто відзначити, що в Mozilla Firefox у плагіна значно більше можливостей, ніж в інших браузерах. RDS bar надає інформацію щодо і всього веб-сайту, та його окремих сторінок

На замітку.Є платні та безкоштовні плагіни. І найбільший мінус безкоштовних плагінів у тому, що в них потрібно регулярно вводити капчу.

Не можна залишити без уваги і букмарклет «Перевірка індексації». Щоб увімкнути програму, просто перетягніть посилання на панель браузера, а потім запустіть свій портал і натисніть закладку розширення. Так ви відкриєте нову вкладку з Яндекс або Google, де вивчіть потрібну інформацію щодо індексації певних сторінок.

4. За допомогою спеціальних сервісів

Я переважно користуюся сторонніми сервісами, тому що в них наочно видно які сторінки в індексі, а які там відсутні.

Безкоштовний сервіс

https://serphunt.ru/indexing/ - є перевірка як по Яндекс, так і по Google. Безкоштовно можна перевірити до 50 сторінок за добу.

Платний сервіс

З платних мені найбільше подобається Topvisor - вартість 0.024р. за перевірку однієї сторінки.

Ви завантажуєте в сервіс усі сторінки вашого сайту і він вам покаже, які в індексі пошукових систем, а які ні.

Висновок

Головна мета власника будь-якого веб-ресурсу – домогтися індексації всіх сторінок, які будуть доступні пошуковим роботам для сканування та копіювання інформації до бази даних. Реалізувати це завдання на великому сайті може бути непросто.

Але при правильному комплексному підході, тобто грамотної SEO-оптимізації, регулярному наповненні сайту якісним контентом і постійному моніторингу процесу включення сторінок в індекс пошукових систем, можна досягти позитивних результатів. Для цього ми в цій статті розповіли про чотири методи перевірки індексації сайту.

Знайте, що якщо сторінки дуже різко почали вилітати з пошуку – з вашим ресурсом щось не так. Але часто проблема приховується не в процесі індексації, а в самій оптимізації. Бажаєте швидко індексуватися та потрапляти в ТОП видачу пошукових запитів? Пропонуйте цільової аудиторії контент, що перевершує конкурентів.

Для молодого сайту особливо важливою є швидка індексація в пошукових системах. Тому що у нього ще немає певної ваги (або "трасту"). Особливо важливо у перші місяці життя сайту його регулярно оновлювати. Контент також має бути високої якості.

Швидка індексація нового сайту в Яндексі

Для того щоб ваш новий сайт швидко проіндексувався в Яндексі, необхідно додати його в Яндекс Вебмайстер. Далі вибрати блок "Індексація" -> "Перехід сторінок" (див. рис).

Переобхід сторінок в Яндекс Вебмайстер

Для молодого сайту обов'язково включати і головну сторінку цього списку. Часті випадки, коли робот заходить на головну сторінку та індексує всі внутрішні посилання з неї. У такий спосіб можна проіндексувати набагато більше ніж 20 сторінок.

Швидка індексація сайту у Гугле

Аналогічно з Яндексом, для прискорення індексації нового сайту Google, його необхідно додати в Google Вебмастер (Google Search Console). Потрібно вибрати вкладку "Скінкування" -> "Подивитися як GoogleBot".

Функція Переглянути як ГуглБот

І у формі, що відкрилася, вставити адресу потрібної сторінки, натиснути «Сканування». Після цього у вас з'явиться результат сканування сторінки і з'явиться кнопка «Запросити індексування».

Функціонал Запросити індексування

Натисніть кнопку і побачите приблизно таке вікно:

Як проіндексувати сайт у Google

Тут обов'язково потрібно вибрати "сканувати цей URL і прямі посилання". У цьому випадку робот спробує пробігтися по всіх внутрішніх посиланнях на сторінці, яку ви вказали. З великою часткою ймовірності вони увійдуть до індексу Google з максимально можливою швидкістю!

Індексація нового сайту на старому домені

В даному випадку завдання не таке тривіальне, як здається. На доменах з історією найчастіше буває складно проіндексувати новий сайт. Цей процес може тривати тижні чи місяці. Це залежить від історії домену: чи були на нього раніше накладені санкції та які.

Схема дій у цьому випадку проста:

  • Додати сайт до вебмайстра Яндекса та Гугла
  • Запросити переіндексацію через відповідний функціонал
  • Зачекати 2-3 апдейти.
  • Якщо нічого не змінилося — писати на підтримку та вирішувати це питання в індивідуальному порядку.

Методи прискорення індексації молодого сайту

Крім методів, які я вказав вище, є ще кілька працюючих:

  1. Розшарування матеріалу у соціальних мережах. Рекомендую використовувати наступні: Вконтакте, Facebook, Twitter, Google+ (попри те, що соцмережа гугла фактично мертва, вона допомагає прискорити індексацію нових сторінок)
  2. Регулярне оновлення сайту. З часом сайт набирає статистику публікації нових матеріалів, вона допомагає індексувати нові сторінки. Регулярно оновлюйтесь і, можливо, вам вдасться «підгодувати швидкість» (у цьому випадку індексація нових сторінок буде займати 1-10 хвилин).
  3. Новинним сайтам: увійти в Яндекс Новини. Це не так складно, як може здатися, але ефект буде приголомшливий. На всіх сайтах з Яндекс Новин живе робот.
  4. Грамотна внутрішня структура сайту. Обов'язково використовуйте перелінкування, ТОП матеріали тощо. Збільшення кількості внутрішніх посилань на сторінці (в розумних межах) також дозволить прискорити індексацію

Швидка індексація нових сторінок старого сайту

Питання-відповідь щодо індексації молодих сайтів

У вас є питання щодо індексації молодих сайтів? Задайте їх у коментарях!

П: Чи закривати новий сайт від індексації?
В: Я рекомендую не відкривати сайт для пошукових роботів, доки він не буде заповнений стартовим контентом. Як показує моя практика, на переіндексацію існуючих сторінок йде набагато більше часу, ніж на індексацію нових.

П: Скільки часу потрібно яндексу для індексації нового сайту?
В: У середньому, це 1-2 апдейти (від 1 до 3 тижнів). Але ситуації можуть бути різними.

З: Які можуть бути проблеми з індексацією молодого сайту?
В: Напевно, головна проблема – поганий контент. Саме тому сайт може не проіндексуватися. Ще були випадки, коли викочувався молодий, але великий сайт із тисячами сторінок. У пошуку ще живі спогади про дорвії, тому до молодих сайтів із тисячами сторінок є «особливе ставлення».

З: Скільки сторінок відкривати до індексації новий сайт і як часто його оновлювати?
В: Ви можете відкрити до індексації сайт та з 1 сторінки. Важливо дотримуватися простого правила: відразу розміщувати на сайті тисячі сторінок, т.к. це може бути розцінено як пошуковий спам, та регулярно додавати нові матеріали на сайт. Нехай за 1 матеріалом у 3 дні, але регулярно! Це дуже важливо!

П: Як часто Яндекс індексує сайти?
В: За офіційною інформацією Яндекса частота індексації може бути від 2 днів до кількох тижнів. А про методи прискорення написано вище.



Сподобалась стаття? Поділіться їй