Contacte

Indexarea în motoarele de căutare Yandex. O modalitate rapidă de a verifica indexarea paginilor în Yandex și Google. Motoare de căutare străine

Indexarea site-ului este cel mai important, necesar și primar detaliu în implementarea optimizării acestuia. La urma urmei, tocmai datorită prezenței unui index motoarele de căutare pot răspunde la toate solicitările utilizatorilor extrem de rapid și precis.

Ce este indexarea site-ului?

Indexarea site-ului este procesul de adăugare a informațiilor despre conținutul (conținutul) site-ului în baza de date a motoarelor de căutare. Este indexul care este baza de date a motoarelor de căutare. Pentru ca site-ul să fie indexat și să apară în rezultatele căutării, trebuie să îl viziteze un bot special de căutare. Întreaga resursă, pagină cu pagină, este examinată de bot după un anumit algoritm. Ca urmare, găsirea și indexarea link-urilor, imaginilor, articolelor etc. În același timp, în rezultatele căutării, acele site-uri vor fi mai sus în listă, a căror autoritate este mai mare în comparație cu restul.

Există 2 opțiuni pentru indexarea site-ului PS:

  • Autodeterminarea de către robotul de căutare a paginilor proaspete sau a unei resurse create - această metodă este bună dacă există link-uri active de la alte site-uri deja indexate către ale dvs. În caz contrar, puteți aștepta robotul de căutare pe termen nelimitat;
  • Introducerea manuală a adresei URL a site-ului în formularul motorului de căutare destinată acestui lucru - această opțiune permite noului site să „stea în coadă” pentru indexare, ceea ce va dura destul de mult. Metoda este simplă, gratuită și necesită introducerea adresei doar a paginii principale a resursei. Această procedură poate fi efectuată prin intermediul panoului de webmasteri Yandex și Google.

Cum să pregătești un site pentru indexare?

Trebuie remarcat imediat că este foarte nedorit să amenajați un site în stadiul de dezvoltare. Motoarele de căutare pot indexa pagini incomplete cu informații incorecte, greșeli de ortografie etc. Ca urmare, acest lucru va afecta negativ clasarea site-ului și emiterea de informații din această resursă în căutare.

Acum să enumerăm punctele care nu ar trebui uitate în etapa de pregătire a unei resurse pentru indexare:

  • restricțiile de indexare se aplică fișierelor flash, deci este mai bine să creați un site folosind HTML;
  • un astfel de tip de date precum Java Script nu este, de asemenea, indexat de roboții de căutare, în acest sens, navigarea pe site ar trebui să fie duplicată cu link-uri text, iar toate informațiile importante care ar trebui indexate nu sunt scrise în Java Script;
  • trebuie să eliminați toate linkurile interne rupte, astfel încât fiecare link să conducă la o pagină reală a resursei dvs.;
  • structura site-ului ar trebui să vă permită să navigați cu ușurință de la paginile de jos la pagina principală și înapoi;
  • este mai bine să mutați informațiile inutile și secundare și blocurile în partea de jos a paginii și, de asemenea, să le ascundeți de roboții cu etichete speciale.

Cât de des are loc indexarea?

Indexarea site-ului, în funcție de o serie de motive, poate dura de la câteva ore la câteva săptămâni, până la o lună întreagă. Actualizarea indexării sau up-urile motorului de căutare apar la intervale diferite. Conform statisticilor, în medie, Yandex indexează pagini și site-uri noi pentru o perioadă de la 1 până la 4 săptămâni, iar Google gestionează o perioadă de până la 7 zile.

Dar cu pregătirea preliminară adecvată a resursei create, acești termeni pot fi redusi la minimum. La urma urmei, de fapt, toți algoritmii de indexare PS și logica muncii lor se rezumă la a oferi cel mai precis și mai actualizat răspuns la cererea unui utilizator. În consecință, cu cât conținutul de calitate apare mai regulat pe resursa dvs., cu atât va fi indexat mai repede.

Metode de accelerare a indexării

Mai întâi trebuie să „notificați” motoarele de căutare că ați creat o nouă resursă, așa cum este menționat în paragraful de mai sus. De asemenea, mulți oameni recomandă adăugarea unui nou site la sistemele de marcare sociale, dar eu nu fac asta. Acest lucru a făcut cu adevărat posibilă accelerarea indexării cu câțiva ani în urmă, deoarece roboții de căutare „vizitează” adesea astfel de resurse, dar, în opinia mea, acum este mai bine să puneți un link de la o rețea socială populară. În curând, vor observa un link către resursa dvs. și o vor indexa. Un efect similar poate fi obținut cu link-uri directe către un site nou din resurse deja indexate.

După ce mai multe pagini au fost deja indexate și site-ul a început să se dezvolte, puteți încerca să „alimentați” botul de căutare pentru a accelera indexarea. Pentru a face acest lucru, trebuie să publicați periodic conținut nou la intervale de timp aproximativ egale (de exemplu, 1-2 articole în fiecare zi). Desigur, conținutul trebuie să fie unic, de înaltă calitate, competent și să nu fie suprasaturat cu fraze cheie. De asemenea, recomand crearea unui sitemap XML, care va fi discutat mai jos, și adăugarea acestuia în panoul webmaster al ambelor motoare de căutare.

Fișiere Robots.txt și Sitemap

Fișierul text robots txt include instrucțiuni pentru roboții motoarelor de căutare. În același timp, face posibilă interzicerea indexării paginilor selectate ale site-ului pentru un anumit motor de căutare. Dacă o faci manual, este important ca numele acestui fișier să fie scris doar cu majuscule și să fie situat în directorul rădăcină al site-ului, majoritatea CMS-urilor îl generează singuri sau folosind plugin-uri.

O hartă sau o hartă a site-ului este o pagină care conține un model complet al structurii site-ului pentru a ajuta „utilizatorii pierduți”. În acest caz, puteți trece de la o pagină la alta fără a utiliza navigarea pe site. Este recomandabil să creați o astfel de hartă în format XML pentru motoarele de căutare și să o includeți în fișierul robots.txt pentru a îmbunătăți indexarea.

Puteți obține informații mai detaliate despre aceste fișiere în secțiunile relevante făcând clic pe linkuri.

Cum să previi indexarea unui site?

Puteți gestiona, inclusiv interzicerea indexării unui site sau a unei pagini separate, folosind fișierul robots.txt deja menționat mai sus. Pentru a face acest lucru, creați un document text cu același nume pe computer, plasați-l în folderul rădăcină al site-ului și scrieți în fișierul din care motor de căutare doriți să ascundeți site-ul. În plus, puteți ascunde conținutul site-ului de roboții Google sau Yandex folosind semnul *. Această instrucțiune din robots.txt va interzice indexarea de către toate motoarele de căutare.

Agent utilizator: * Nu permite: /

Pentru site-urile WordPress, puteți dezactiva indexarea site-ului prin panoul de control. Pentru a face acest lucru, în setările de vizibilitate a site-ului, bifați caseta „Recomandă motoarele de căutare să nu indexeze site-ul”. În același timp, Yandex, cel mai probabil, vă va asculta dorințele, dar cu Google nu este necesar, dar pot apărea unele probleme.

Bună ziua, dragi cititori ai site-ului. Astăzi vă voi spune cum să găsiți și să remediați posibilele probleme legate de indexarea site-ului dvs. Să ne uităm la trei puncte principale.

  1. Robotul trebuie să indexeze paginile necesare ale site-ului cu ;
  2. Aceste pagini ar trebui să fie indexate rapid;
  3. Robotul nu ar trebui să viziteze paginile inutile ale site-ului;

Totul pare a fi destul de simplu. Dar, de fapt, majoritatea webmasterilor se confruntă cu aceleași probleme atunci când configurează indexarea. Să le privim cu atenție.

Momentan, in majoritatea cazurilor, daca vorbim de o pagina noua a site-ului in rezultatele cautarii, aceasta va aparea in cateva zeci de minute. Dacă vorbim de pagini deja indexate, atunci asta 3-5 zile.

Drept urmare, pentru ca site-ul dvs. să fie vizitat rapid, trebuie să vă amintiți trei reguli:

  1. În primul rând, trebuie să aveți un fișier de hartă site valid și actualizat în mod regulat;
  2. În al doilea rând, nu utilizați directiva Crawl-delay doar dacă aveți chef. Chiar acum, asigurați-vă că accesați robots.txt și verificați dacă există o astfel de directivă. Dacă este instalat, gândiți-vă dacă aveți într-adevăr nevoie de el.
  3. În al treilea rând, utilizați „crawlarea paginii” pentru a vizita cele mai importante pagini ale site-ului dvs. cu o nouă pagină importantă.

Salvăm robotul de paginile inutile ale site-ului

Când un robot începe să vă viziteze resursa, adesea nu are întotdeauna un efect pozitiv asupra indexării paginilor bune de site. Imaginați-vă o situație, să presupunem că robotul face 5 solicitări pe secundă resursei dvs. Pare un rezultat grozav, dar care este rostul acestor cinci vizite pe secundă dacă toate aparțin paginilor de servicii ale site-ului dvs. sau duplicatelor și robotul nu acordă deloc atenție paginilor cu adevărat importante. Aceasta este următoarea noastră secțiune despre cum să nu indexăm paginile inutile.

  1. Folosim secțiunea Yandex Webmaster și ocolim statisticile
  2. Obținem adresele paginilor pe care robotul nu ar trebui să le indexeze
  3. Compunem fișierul robots.txt corect

Să aruncăm o privire la instrumentul „Crawl Statistics”, arată astfel. Există și diagrame aici. Ne interesează să defilăm puțin în jos cu butonul „toate paginile”. Veți vedea tot ce a vizitat robotul în ultimele zile.

Printre aceste pagini, dacă există pagini de serviciu, atunci acestea trebuie interzise în fișierul robots.txt. Ce anume trebuie interzis, haideți punct cu punct.

  1. În primul rând, după cum am spus mai devreme, pagini de filtrare, selecția mărfurilor, sortarea ar trebui interzise în fișierul robots.txt.
  2. În al doilea rând, trebuie să interzicem diverse pagini de acțiune. De exemplu, adăugați pentru a compara, adăugați la favorite, adăugați în coș. Pagina coșului de cumpărături în sine este de asemenea interzisă.
  3. În al treilea rând, interzicem ocolirea toate secțiile de service cum ar fi căutarea pe site, panoul de administrare al resursei dvs., secțiuni cu datele utilizatorului. De exemplu, informațiile de livrare, numerele de telefon etc. sunt de asemenea interzise în fișierul robots.txt.
  4. ȘI pagini cu ID-uri, de exemplu, cu etichetele utm, merită și interzicerea accesării cu crawlere în fișierul robots.txt folosind directiva Clean-param.

Dacă vă confruntați cu întrebarea dacă este necesar să interziceți sau dacă această pagină ar trebui deschisă pentru ocolire, răspundeți la o întrebare simplă: dacă utilizatorii au nevoie de această pagină motor de căutare? Dacă această pagină nu ar trebui să fie în căutarea de interogări, atunci poate fi interzisă.

Și un mic caz practic, sper să vă motiveze. Uite, pe una dintre resurse, robotul face aproape mii de accesări pe zi către pagini cu o redirecționare. De fapt, paginile de redirecționare erau paginile de adăugare în coș.

Facem modificări fișierului robots.txt și se vede pe grafic că accesul la astfel de pagini practic a dispărut. În același timp, dinamica imediat pozitivă - ocolirea paginilor necesare de pe această pagină a stepei cu codul 200 a crescut dramatic.

- Duplicați pagini de pe site, cum să le găsiți și ce să faceți cu ele

Și aici te așteaptă un alt pericol - acesta este pagini duplicate. Prin duplicate, înțelegem mai multe pagini ale aceluiași site care sunt disponibile la adrese diferite, dar care conțin în același timp conținut absolut identic. Principalul pericol al duplicatelor este că, dacă există, se pot schimba în rezultatele căutării. O pagină poate ajunge la o adresă de care nu aveți nevoie, poate concura cu pagina principală pe care o promovați pentru orice întrebări. În plus, un număr mare de pagini duplicat îngreunează un robot de indexare să ocolească site-ul. În general, aduc o mulțime de probleme.

Cred că aproape toți webmasterii sunt siguri că nu există pagini duplicat pe resursa lor. Vreau să te supăr puțin. De fapt, există duplicate pe aproape toate site-urile din RuNet. ? Am un articol detaliat despre asta, după ce l-am citit, nu vă mai rămâne nici o întrebare.

- Verificarea codului de răspuns al serverului

Pe lângă fișierul robots.txt, aș dori să vă spun despre codurile de răspuns corecte http. De asemenea, par să fie lucruri care au fost deja spuse de mai multe ori. Codul de răspuns http în sine este o stare specifică a paginii pentru robotul de indexare.

  1. http-200 - pagina poate fi indexată și căutarea activată.
  2. http-404 înseamnă că pagina a fost ștearsă.
  3. http-301 - pagina redirecționată.
  4. http-503 - temporar indisponibil.

Care este avantajul utilizării instrumentului corect de coduri http:

  1. În primul rând, nu veți avea niciodată diverse link-uri întrerupte către resursa dvs., adică acele link-uri care duc la pagini care nu răspund cu un cod de răspuns 200. Dacă pagina nu există, atunci robotul va înțelege codul de răspuns 404.
  2. În al doilea rând, va ajuta robotul să planifice să ocolească paginile cu adevărat necesare care răspund cu un cod de 200 de răspunsuri.
  3. Și în al treilea rând, vă va permite să evitați introducerea diverselor gunoi în rezultatele căutării.

Despre asta doar următorul ecran este tot din practică. În timpul indisponibilității resursei și lucrărilor tehnice, robotul primește un stub cu un cod de răspuns http de 200. Aceasta este exact descrierea acestui stub pe care o vedeți în rezultatele căutării.

Deoarece pagina răspunde cu un cod de răspuns de 200, acestea sunt returnate. Desigur, paginile cu astfel de conținut nu pot fi localizate și afișate pentru nicio solicitare. În acest caz, setarea corectă ar fi un răspuns http 503. Dacă o pagină sau o resursă este temporar indisponibilă, acest cod de răspuns va împiedica excluderea paginilor din rezultatele căutării.

Iată situații în care paginile importante și necesare ale resursei dvs. devin inaccesibile robotului nostru, de exemplu, acestea răspund cu un cod 503 sau 404 sau revin la acest stub.

Astfel de situații pot fi urmărite folosind instrumentul "pagini importante". Adăugați la el acele pagini care aduc cel mai mult trafic resursei dvs. Setări pentru notificări către e-mail și fie către serviciu și veți primi informații despre ce se întâmplă cu această pagină. Care este codul ei de răspuns, care este titlul ei, când a fost vizitată și care este starea ei în rezultatele căutării.


Puteți verifica corectitudinea returnării unui anumit cod de răspuns folosind instrumentul corespunzător din Yandex Webmaster (aici). În acest caz, verificăm codul de răspuns al paginilor inexistente. Am venit cu o pagină și am introdus-o în instrument, am apăsat butonul de verificare și am primit un răspuns 404.

Totul este in regula aici, deoarece pagina nu era disponibila, a raspuns corect cu un cod 404 si nu va mai fi inclusa in cautare. Drept urmare, pentru a limita roboții să viziteze paginile inutile ale site-ului, utilizați în mod activ instrumentul de statistică de ocolire, efectuați modificări fișierului robots.txt și asigurați-vă că paginile returnează codul de răspuns http corect.

- Rezumând

I-am dat robotului pagina corectă a site-ului cu conținut. Am reușit să fie indexat rapid. Am interzis robotului să indexeze paginile inutile. Toate aceste trei grupuri mari de sarcini sunt interconectate.. Adică, dacă robotul nu se limitează la indexarea paginilor de servicii, atunci, cel mai probabil, va avea mai puțin timp să indexeze paginile necesare ale site-ului.

Dacă robotul nu primește în întregime conținutul paginilor solicitate, nu va include rapid aceste pagini în rezultatele căutării. Adică trebuie să lucrați la indexarea resursei dvs. într-un complex, la toate aceste trei sarcini. Și în acest caz, veți obține un oarecare succes pentru ca paginile dorite să intre rapid în rezultatele căutării.

Răspunsuri oficiale Yandex

Paginile cu majuscule au fost incluse în index, în ciuda faptului că site-ul nu conține astfel de pagini. Dacă paginile sunt cu majuscule, cel mai probabil robotul a găsit link-uri către ele undeva pe Internet. Verificați mai întâi site-ul dvs., cel mai probabil un link incorect este instalat undeva pe Internet. Robotul a venit, l-a văzut și a început să descarce pagina cu majuscule. Pentru ei, pentru astfel de pagini, este mai bine să folosiți redirecționări 301.

Sitemap-ul are mai multe pagini - este normal? Dacă vorbim despre un sitemap, adică un format special de sitemap în care puteți specifica link-uri către alte fișiere sitemap, atunci desigur că este normal.

Dacă plasați link-uri către toate secțiunile directorului în partea de jos a site-ului, care este afișat pe toate paginile, va ajuta la indexare sau vă va răni? De fapt, nu trebuie să faci deloc acest lucru, adică dacă vizitatorii site-ului tău nu au nevoie de el, atunci nu trebuie să îl faci în mod special. Un simplu fișier de hartă site este suficient. Robotul va afla despre prezența tuturor acestor pagini, le va adăuga în baza sa de date.

Trebuie să specific frecvența de actualizare în harta site-ului? Fișierul sitemap poate fi folosit pentru a transmite informații suplimentare robotului de indexare. Pe lângă adresele în sine, robotul nostru mai înțelege și câteva etichete. În primul rând, aceasta este frecvența actualizării, adică frecvența actualizării. Aceasta este prioritatea accesării cu crawlere și data ultimei modificări. Preia toate aceste informații din fișierul sitemap atunci când procesează fișierul și le adaugă la baza de date și le folosește ulterior pentru a ajusta politicile de ocolire.

Este posibil să faci fără un sitemap? Da, asigurați-vă că site-ul dvs. are o navigare transparentă, astfel încât orice pagină internă să aibă linkuri accesibile. Dar rețineți că, dacă aceasta este o resursă nouă (de la autor: citiți despre cum să lansați un nou site) și, de exemplu, o anumită pagină este adâncă pe site-ul dvs., de exemplu, în 5-10 clicuri, atunci robotul va dura mult timp pentru a afla despre disponibilitatea acestuia. Mai întâi, descărcați pagina principală a site-ului, obțineți linkuri, apoi descărcați din nou acele pagini despre care a aflat și așa mai departe. Fișierul sitemap vă permite să transferați simultan informații despre toate paginile către robot.

Robotul face 700 de mii de cereri pe zi pentru pagini inexistente.În primul rând, trebuie să înțelegeți de unde provin astfel de pagini inexistente. Poate că linkurile relative sunt utilizate incorect pe site-ul dvs. sau o anumită secțiune a fost eliminată definitiv de pe site și robotul continuă să verifice oricum astfel de pagini. În acest caz, ar trebui să le dezactivați pur și simplu în fișierul robots.txt. În termen de 12 ore, robotul nu va mai accesa astfel de pagini.

Dacă paginile de servicii sunt indexate, cum le pot elimina din căutare. De asemenea, utilizați robots.txt pentru a elimina paginile din rezultatele căutării. Adică, nu contează dacă ai setat banul atunci când îți creezi site-ul sau când ai lansat resursa. Pagina va dispărea din rezultatele căutării în decurs de o săptămână.

Este bun sau nu un sitemap generat automat?În cele mai multe cazuri, toate sitemapurile sunt generate automat, așa că putem spune că acest lucru este probabil bun. Nu trebuie să faci ceva cu mâinile tale și poți fi atent la altceva.

Cum va fi indexată pagina dacă este făcută canonică pentru sine. Dacă atributul canonic duce la pagina însăși? Această pagină este considerată canonică? În mod normal, va fi indexat și inclus în rezultatele căutării, adică este destul de corect să folosiți această tehnică.

Ce înseamnă statutul „non-canonic”? W Pagina începe cu setul de atribute canonice, care duce la o altă pagină de pe site-ul dvs. Prin urmare, această pagină nu va putea intra în căutare. Deschideți codul sursă al paginii, faceți o căutare, vedeți unde conduce canonica și verificați pagina canonică în căutare.

Ce este mai corect ca o pagină de coș de cumpărături să fie interzisă în robots.txt sau noindex? Dacă pagina este dezactivată folosind metoda noindex, robotul o va vizita periodic și va verifica această interdicție. Pentru a împiedica robotul să facă acest lucru, este mai bine să utilizați un ban în fișierul robots.txt.


Te văd! Fă totul și mereu pe paginile site-ului blogului

Ajută proiectul - abonează-te la canalul nostru Yandex.Zen!

Totul este foarte simplu cu Google. Trebuie să adăugați site-ul dvs. la instrumentele pentru webmasteri la https://www.google.com/webmasters/tools/, apoi selectați site-ul adăugat, intrând astfel în Search Console a site-ului dvs. Apoi, în meniul din stânga, selectați secțiunea „Scanare”, iar în ea elementul „Vizualizare ca Googlebot”.

În pagina care se deschide, în câmpul gol, introduceți adresa noii pagini pe care dorim să o indexăm rapid (ținând cont de numele de domeniu deja introdus al site-ului) și faceți clic pe butonul „Scanați” din dreapta. Așteptăm ca pagina să fie scanată și să apară în partea de sus a tabelului de adrese scanate anterior în acest fel. Apoi, faceți clic pe butonul „Adăugați la index”.

Ura, noua ta pagină este indexată instantaneu de Google! În câteva minute îl vei putea găsi în rezultatele căutării Google.

Indexarea rapidă a paginilor în Yandex

În noua versiune a instrumentelor pentru webmaster au devenit disponibile instrument similar pentru a adăuga pagini noi la index. În consecință, site-ul dvs. trebuie să fie adăugat anterior la Yandex Webmaster. De asemenea, puteți ajunge acolo selectând site-ul dorit în webmaster, apoi mergeți la secțiunea „Indexare”, selectați elementul „Recrearea paginii”. În fereastra care se deschide, introduceți adresele paginilor noi pe care dorim să le indexăm rapid (folosind un link pe o singură linie).

Spre deosebire de Google, indexarea în Yandex nu are loc încă instantaneu, dar încearcă să depună eforturi pentru aceasta. Prin acțiunile de mai sus, veți informa robotul Yandex despre noua pagină. Și va fi indexat în decurs de o jumătate de oră sau o oră - așa arată practica mea personal. Poate că viteza de indexare a paginii în Yandex depinde de o serie de parametri (de reputația domeniului, a contului și/sau a altora). În cele mai multe cazuri, acest lucru poate fi oprit.

Dacă vedeți că paginile site-ului dvs. sunt prost indexate de Yandex, adică câteva recomandări generale despre cum să faceți acest lucru:

  • Cea mai bună, dar și cea mai dificilă recomandare este să instalați speedbot-ul Yandex pe site-ul dvs. Pentru a face acest lucru, este de dorit să adăugați materiale proaspete pe site în fiecare zi. De preferință 2-3 sau mai multe materiale. Și adăugați-le nu pe toate deodată, ci după un timp, de exemplu, dimineața, după-amiaza și seara. Ar fi chiar mai bine să urmați aproximativ același program de publicare (aproximativ să mențineți același timp pentru adăugarea de noi materiale). De asemenea, mulți oameni recomandă crearea unui flux RSS al site-ului, astfel încât roboții de căutare să poată citi actualizările direct de pe acesta.
  • Desigur, nu toată lumea va putea adăuga noi materiale pe site în astfel de volume - este bine dacă puteți adăuga 2-3 materiale pe săptămână. În acest caz, nu puteți visa în mod special la viteza Yandex, ci încercați să introduceți pagini noi în index în alte moduri. Cel mai eficient dintre care este considerat a fi postarea de link-uri către pagini noi în conturile de Twitter actualizate. Cu ajutorul unor programe speciale precum Twidium Accounter, puteți „pompa” numărul de conturi Twitter de care aveți nevoie și le puteți folosi pentru a introduce rapid pagini noi ale site-ului în indexul motorului de căutare. Dacă nu aveți posibilitatea de a posta link-uri către conturile de Twitter actualizate pe cont propriu, puteți cumpăra astfel de postări prin schimburi speciale. O postare cu link-ul dvs. va costa în medie de la 3-4 ruble și mai mult (în funcție de răceala contului ales). Dar această opțiune va fi destul de scumpă.
  • A treia opțiune de indexare rapidă este să folosiți serviciul http://getbot.guru/, care pentru doar 3 ruble vă va ajuta să obțineți efectul dorit cu un rezultat garantat. Potrivit pentru site-uri cu un program rar pentru adăugarea de noi publicații. Există și tarife mai ieftine. Detaliile și diferențele dintre ele sunt cel mai bine vizualizate pe site-ul serviciului însuși. Personal, sunt foarte mulțumit de serviciile acestui serviciu ca accelerator de indexare.

Desigur, puteți adăuga și noi publicații la marcajele sociale, care teoretic ar trebui să contribuie și la indexarea rapidă a site-ului. Dar eficacitatea unei astfel de adăugări va depinde și de nivelul conturilor dumneavoastră. Dacă aveți puțină activitate asupra lor și vă folosiți conturile numai pentru astfel de spam, atunci practic nu va exista nicio ieșire utilă.

P.S. cu o vastă experiență este întotdeauna la zi - contactați-ne!

(13 )

Dacă vrei să știi dacă o anumită pagină este indexată de un motor de căutare și câte pagini din site-ul tău sunt căutate în total, ar trebui să afli despre cele mai simple patru moduri de a verifica indexarea unui site pe care le folosesc toți specialiștii SEO.

În procesul de indexare a portalului, robotul de căutare îl scanează mai întâi, adică îl ocolește pentru a studia conținutul, apoi adaugă informații despre resursa web în baza de date. Apoi sistemul de căutare generează o căutare pentru aceste baze de date. Nu confundați crawlingul cu indexarea - sunt două lucruri diferite.

Pentru a înțelege câte pagini din proiectul tău nu sunt indexate, trebuie să știi numărul lor total. Acest lucru vă va permite să înțelegeți cât de repede este indexat site-ul dvs. Puteți face acest lucru în mai multe moduri:

  1. Vizualizați harta site-ului. Il vei gasi la: your_site_name.ru/sitemap.xml. Aici, practic, sunt afișate toate paginile găzduite pe resursă. Dar, uneori, harta site-ului poate să nu fie generată corect și unele dintre pagini pot să nu fie în ea.
  2. Utilizați un program special. Aceste programe vă accesează cu crawlere întregul site și oferă toate paginile site-ului dvs., un exemplu de astfel de programe este Screaming Frog Seo (plătit) sau Xenus Links Sleuth (gratuit).

Modalități de a verifica indexarea site-ului

Vă aducem în atenție cele 4 cele mai comune și simple modalități de a verifica ce pagini sunt în index și care nu.

1. Prin panoul webmaster

Cu această metodă, proprietarii de resurse web își verifică cel mai des prezența în căutare.

Yandex

  1. Conectați-vă la Yandex.Webmaster.
  2. Accesați meniu „Indexarea site-ului”.
  3. Sub ea găsiți linia „Pagini în căutare”.

Puteți merge și pe altă cale:

  1. Selectați „Indexarea site-ului”.
  2. În continuare mergi la "Istorie".
  3. Apoi faceți clic pe filă „Pagini în căutare”.

Atât în ​​primul cât și în cel de-al doilea mod, puteți studia dinamica creșterii sau scăderii numărului de pagini dintr-un motor de căutare.

Google

  1. Accesați panoul de control al serviciului Instrumente Google pentru webmasteri.
  2. Faceți clic pe filă Search Console.
  3. Mergi la "IndexGoogle".
  4. Faceți clic pe o opțiune „Starea indexării”.

2. Prin operatorii motoarelor de căutare

Acestea vă ajută să vă rafinați rezultatele căutării. De exemplu, utilizarea operatorului „site” vă permite să vedeți numărul aproximativ de pagini care sunt deja în index. Pentru a verifica acest parametru, în bara de căutare Yandex sau Google, introduceți: „site:url_of_your_site”.


Important! Dacă rezultatele în Google și Yandex diferă foarte mult, atunci site-ul dvs. are unele probleme cu structura site-ului, paginile de gunoi, indexarea sau i-au fost impuse sancțiuni.

Pentru căutare, puteți utiliza și instrumente suplimentare, de exemplu, pentru a afla cum s-a schimbat indexarea paginilor într-o anumită perioadă de timp. Pentru a face acest lucru, sub bara de căutare, faceți clic pe fila „Instrumente de căutare”și selectați o perioadă, de exemplu, „Timp de 24 de ore”.

3. Prin pluginuri și extensii

Folosind programe speciale, verificarea indexării unei resurse web va avea loc automat. Acest lucru se poate face folosind plugin-uri și extensii, cunoscute și sub numele de bookmarklets. Sunt programe javascript care sunt stocate în browser ca marcaje standard.

Avantajul pluginurilor și extensiilor este că webmasterul nu trebuie să intre din nou în motorul de căutare de fiecare dată și să introducă adresele site-ului, operatori și așa mai departe. Scripturile vor face totul automat.

Cel mai popular plugin folosit în acest scop este bara RDS, care poate fi descărcată din magazinul de aplicații al oricărui browser.

Este de remarcat faptul că pluginul are mult mai multe funcții în Mozilla Firefox decât în ​​alte browsere. Bara RDS oferă informații atât despre întregul site web, cât și despre paginile sale individuale

Pe o notă. Există pluginuri plătite și gratuite. Și cel mai mare dezavantaj al pluginurilor gratuite este că trebuie să introduceți în mod regulat captcha în ele.

Nu puteți ignora marcajul „Verificarea indexării”. Pentru a activa programul, pur și simplu trageți linkul în bara browserului, apoi lansați portalul și faceți clic pe fila extensiei. Deci veți deschide o nouă filă cu Yandex sau Google, unde veți studia informațiile necesare privind indexarea anumitor pagini.

4. Cu servicii speciale

Folosesc în principal servicii de la terți, deoarece acestea arată clar ce pagini sunt în index și care nu sunt acolo.

Serviciu gratuit

https://serphunt.ru/indexing/ - există o verificare, atât pentru Yandex, cât și pentru Google. Puteți verifica gratuit până la 50 de pagini pe zi.

Serviciu cu plată

Dintre cele plătite, Topvisor îmi place cel mai mult - costul este de 0,024 ruble. pentru verificarea unei pagini.

Încarci toate paginile site-ului tău în serviciu și îți va arăta care sunt în indexul motorului de căutare și care nu.

Concluzie

Scopul principal al proprietarului oricărei resurse web este de a realiza indexarea tuturor paginilor care vor fi disponibile roboților de căutare pentru scanarea și copierea informațiilor în baza de date. Implementarea acestei sarcini pe un site mare poate fi foarte dificilă.

Dar cu abordarea integrată potrivită, adică optimizarea SEO competentă, completarea regulată a site-ului cu conținut de înaltă calitate și monitorizarea constantă a procesului de includere a paginilor în indexul motorului de căutare, puteți obține rezultate pozitive. Pentru a face acest lucru, în acest articol am vorbit despre patru metode de verificare a indexării unui site.

Știți că, dacă paginile încep să iasă din căutare prea brusc, ceva nu este în regulă cu resursa dvs. Dar adesea problema nu constă în procesul de indexare, ci în optimizarea în sine. Doriți să indexați rapid și să intrați în rezultatele căutării de TOP? Oferiți publicului țintă conținut care să-și depășească concurenții.

Pentru un site tânăr, indexarea rapidă în motoarele de căutare este deosebit de importantă. Pentru că nu are încă o anumită pondere (sau „încredere”). Este deosebit de important în primele luni de viață ale site-ului să-l actualizezi în mod regulat. De asemenea, conținutul trebuie să fie de înaltă calitate.

Indexarea rapidă a unui site nou în Yandex

Pentru ca noul dvs. site să fie indexat rapid în Yandex, trebuie să îl adăugați la Yandex Webmaster. Apoi, selectați blocul „Indexare” -> „Re-crawler pagini” (vezi figura).

Accesarea cu crawlere a paginii în Yandex Webmaster

Pentru un site tânăr, asigurați-vă că includeți pagina principală în această listă. Există cazuri frecvente când robotul vizitează pagina principală și indexează toate linkurile interne de la aceasta. Mult mai mult de 20 de pagini pot fi indexate astfel.

Indexare rapidă a site-ului în Google

Similar cu Yandex, pentru a accelera indexarea unui nou site în Google, acesta trebuie adăugat la Google Webmaster (Google Search Console). Trebuie să selectați fila „Skinning” -> „Vizualizați ca GoogleBot”.

Vizualizare caracteristică ca GoogleBot

Și în formularul care se deschide, introduceți adresa paginii dorite, faceți clic pe „Scanați”. După aceea, veți avea rezultatul accesării cu crawlere a paginii și va apărea butonul magic „Solicitare indexare”.

Funcționalitate Solicitare indexare

Faceți clic pe butonul și veți vedea ceva ca această fereastră:

Cum să indexați un site web pe Google

Aici, asigurați-vă că selectați „Accesați cu crawlere această adresă URL și linkuri directe”. În acest caz, robotul va încerca să acceseze cu crawlere toate linkurile interne de pe pagina pe care ați specificat-o. Cu un grad mare de probabilitate, toți vor intra cât mai repede în indexul Google!

Indexarea unui site nou pe un domeniu vechi

În acest caz, sarcina nu este atât de banală pe cât pare. Pe domeniile cu istorie, este adesea dificil să indexați un site nou. Acest proces poate dura săptămâni sau luni. Depinde de istoricul domeniului: dacă i s-au impus anterior sancțiuni și care.

Schema de acțiuni în acest caz este simplă:

  • Adăugați site-ul la Yandex și Google webmaster
  • Solicitați reindexarea prin funcționalitatea corespunzătoare
  • Așteptați 2-3 actualizări.
  • Dacă nimic nu s-a schimbat, scrieți pentru a sprijini și rezolva această problemă în mod individual.

Metode de accelerare a indexării unui site tânăr

Pe lângă metodele pe care le-am indicat mai sus, mai sunt câteva care funcționează:

  1. Distribuirea materialelor pe rețelele sociale. Vă recomand să utilizați următoarele: Vkontakte, Facebook, Twitter, Google+ (în ciuda faptului că rețeaua socială Google este de fapt moartă, ajută la accelerarea indexării paginilor noi)
  2. Actualizări regulate ale site-ului. De-a lungul timpului, site-ul colectează statistici privind publicarea de materiale noi, ajută la indexarea paginilor noi. Actualizați regulat și poate veți putea „alimenta fastbot-ul” (în acest caz, indexarea paginilor noi va dura 1-10 minute).
  3. Pentru site-uri de știri: conectați-vă la Yandex News. Acest lucru nu este atât de dificil pe cât ar părea, dar efectul va fi uimitor. Pe toate site-urile de la Yandex News, există un bot rapid.
  4. Structura internă competentă a site-ului. Asigurați-vă că utilizați linkuri, materiale TOP etc. Creșterea numărului de link-uri interne de pe pagină (în limite rezonabile) va accelera și indexarea

Indexarea rapidă a paginilor noi ale vechiului site

Întrebări și răspunsuri despre indexarea site-urilor tinere

Aveți întrebări despre indexarea site-urilor tinere? Întrebați-i în comentarii!

Î: Un site nou ar trebui să fie închis de la indexare?
R: Vă recomand să nu vă expuneți site-ul la crawler-uri până când nu este populat cu conținut de început. După cum arată practica mea, este nevoie de mult mai mult timp pentru a reindexa paginile existente decât pentru a indexa altele noi.

Î: Cât timp durează Yandex să indexeze un site nou?
R: În medie, sunt 1-2 actualizări (de la 1 la 3 săptămâni). Dar situațiile pot fi diferite.

Î: Ce probleme pot exista la indexarea unui site tânăr?
R: Probabil că principala problemă este conținutul prost. Din acest motiv, este posibil ca site-ul să nu fie indexat. Au existat și cazuri în care s-a lansat un site tânăr, dar mare, cu mii de pagini. Căutarea încă mai are amintiri ale ușilor, așa că site-urile tinere cu mii de pagini au o „atitudine specială”.

Î: Câte pagini se deschide un nou site pentru indexare și cât de des să-l actualizezi?
R: Puteți deschide un site pentru indexare dintr-o pagină. Este important să urmați o regulă simplă: nu plasați imediat mii de pagini pe site, pentru că. acest lucru poate fi considerat ca spam pentru motorul de căutare și material nou este adăugat în mod regulat pe site. Lăsați 1 material în 3 zile, dar regulat! Este foarte important!

Î: Cât de des indexează site-urile Yandex?
R: Conform informațiilor oficiale ale Yandex, frecvența indexării poate fi de la 2 zile la câteva săptămâni. Și despre metodele de accelerare este scris mai sus.



Ți-a plăcut articolul? Împărtășește-l