Kapcsolatok

Indexelés a Yandex keresőmotorokban. Gyors módszer az oldalindexelés ellenőrzésére a Yandexben és a Google-ban. Külföldi keresők

A webhelyindexelés a legfontosabb, legszükségesebb és elsődleges részlet optimalizálásának megvalósításában. Hiszen éppen az index megléte miatt tudnak a keresők rendkívül gyorsan és pontosan válaszolni minden felhasználói kérésre.

Mi az a webhelyindexelés?

A webhely indexelése az a folyamat, amikor a webhely tartalmáról (tartalmáról) információkat adunk a keresőmotorok adatbázisához. Ez az index, amely a keresőmotorok adatbázisa. Ahhoz, hogy a webhely indexelve legyen, és megjelenjen a keresési eredmények között, egy speciális keresőbotnak meg kell látogatnia azt. A teljes erőforrást oldalról oldalra megvizsgálja a bot egy bizonyos algoritmus szerint. Ennek eredményeként a linkek, képek, cikkek stb. keresése és indexelése. Ugyanakkor a keresési eredményekben azok az oldalak kerülnek előrébb a listán, amelyek tekintélye magasabb a többihez képest.

2 lehetőség van a PS-webhely indexelésére:

  • Friss oldalak vagy létrehozott erőforrás keresőrobotjának önmeghatározása - ez a módszer akkor jó, ha más, már indexelt oldalakról is vannak aktív linkek a tiédre. Ellenkező esetben korlátlan ideig várhat a keresőrobotra;
  • Az oldal URL-jének manuális beírása az erre szánt kereső űrlapba - ez az opció lehetővé teszi az új webhely számára, hogy "sorba álljon" az indexelésre, ami meglehetősen hosszú ideig tart. A módszer egyszerű, ingyenes, és csak az erőforrás főoldalának címét kell megadni. Ez az eljárás a Yandex és a Google webmesteri paneljén keresztül hajtható végre.

Hogyan készítsünk fel egy webhelyet az indexelésre?

Azonnal meg kell jegyezni, hogy nagyon nem kívánatos egy helyszínt a fejlesztési szakaszban elhelyezni. A keresőmotorok indexelhetik a hibás információkat, helyesírási hibákat stb. tartalmazó, hiányos oldalakat. Ennek eredményeként ez negatívan befolyásolja a webhely rangsorolását és az ebből az erőforrásból származó információk keresésben való megjelenését.

Most soroljuk fel azokat a pontokat, amelyeket nem szabad elfelejteni az erőforrások indexeléséhez való előkészítésének szakaszában:

  • indexelési korlátozások vonatkoznak a flash-fájlokra, ezért jobb, ha egy webhelyet HTML használatával hoz létre;
  • az olyan adattípusokat, mint a Java Script, szintén nem indexelnek a keresőrobotok, ebben a tekintetben a webhely navigációját szöveges hivatkozásokkal kell megduplázni, és minden fontos információt, amelyet indexelni kell, nem Java Scriptben kell megírni;
  • el kell távolítania az összes meghibásodott belső hivatkozást, hogy minden hivatkozás az erőforrás valódi oldalára vezessenek;
  • a webhely szerkezetének lehetővé kell tennie, hogy könnyen navigáljon az alsó oldalakról a főoldalra és vissza;
  • jobb, ha a felesleges és másodlagos információkat és blokkokat az oldal aljára helyezi át, és speciális címkékkel elrejti a robotok elől.

Milyen gyakran történik indexelés?

A webhelyindexelés számos okból több órától több hétig, akár egy teljes hónapig is tarthat. Az indexelés frissítése vagy a keresőmotor felfutása különböző időközönként történik. A statisztikák szerint a Yandex átlagosan 1-4 hétig indexeli az új oldalakat és webhelyeket, a Google pedig legfeljebb 7 napig.

De a létrehozott erőforrás megfelelő előzetes előkészítésével ezek a kifejezések a minimumra csökkenthetők. Valójában az összes PS indexelő algoritmus és a munkájuk logikája azon múlik, hogy a felhasználó kérésére a legpontosabb és legkorszerűbb választ adják. Ennek megfelelően minél rendszeresebben jelenik meg a minőségi tartalom az erőforráson, annál gyorsabban lesz indexelve.

Az indexelés gyorsításának módszerei

Először „értesítenie kell” a keresőmotorokat, hogy új erőforrást hozott létre, amint azt a fenti bekezdésben említettük. Ezenkívül sokan azt javasolják, hogy új oldalt adjanak hozzá a közösségi könyvjelzőrendszerekhez, de én nem teszem ezt. Ez valóban lehetővé tette néhány évvel ezelőtt az indexelés felgyorsítását, mivel a keresőrobotok gyakran „meglátogatják” az ilyen erőforrásokat, de véleményem szerint most jobb, ha egy linket helyez el egy népszerű közösségi hálózatról. Hamarosan észrevesznek egy hivatkozást az erőforráshoz, és indexelnek. Hasonló hatás érhető el a már indexelt forrásokból egy új webhelyre mutató közvetlen hivatkozásokkal.

Miután több oldal indexelése megtörtént, és a webhely fejlődésnek indult, megpróbálhatja „táplálni” a keresőbotot az indexelés felgyorsítása érdekében. Ehhez rendszeresen, körülbelül egyenlő időközönként új tartalmat kell közzétennie (például naponta 1-2 cikket). Természetesen a tartalomnak egyedinek, minőséginek, kompetensnek kell lennie, és nem telítve túl kulcsmondatokkal. Azt is javaslom, hogy készítsen XML-oldaltérképet, amelyről alább lesz szó, és adja hozzá mindkét keresőmotor webmesteri paneljéhez.

Robots.txt és webhelytérkép fájlok

A robots txt szövegfájl utasításokat tartalmaz a keresőrobotokhoz. Ugyanakkor lehetővé teszi a webhely kiválasztott oldalainak indexelésének megtiltását egy adott keresőmotor számára. Ha manuálisan csinálja, akkor fontos, hogy ennek a fájlnak a neve csak nagybetűkkel legyen írva, és az oldal gyökérkönyvtárában legyen, a legtöbb CMS önmagában vagy bővítmények segítségével hozza létre.

A webhelytérkép vagy webhelytérkép olyan oldal, amely a webhely szerkezetének teljes modelljét tartalmazza, hogy segítsen az „elveszett felhasználóknak”. Ebben az esetben a webhelynavigáció használata nélkül mozoghat oldalról oldalra. Célszerű egy ilyen térképet XML formátumban készíteni a keresők számára, és beépíteni a robots.txt fájlba az indexelés javítása érdekében.

Ezekről a fájlokról részletesebb tájékoztatást kaphat a megfelelő rovatokban a hivatkozásokra kattintva.

Hogyan lehet megakadályozni egy webhely indexelését?

A fent említett robots.txt fájl segítségével kezelheti, beleértve egy webhely vagy különálló oldal indexelésének megtiltását is. Ehhez hozzon létre egy azonos nevű szöveges dokumentumot a számítógépén, helyezze el az oldal gyökérmappájába, és írja be a fájlba, hogy melyik keresőből szeretné elrejteni az oldalt. Ezenkívül a * jellel elrejtheti a webhely tartalmát a Google vagy a Yandex robotoktól. Ez az utasítás a robots.txt fájlban tiltja az indexelést minden keresőmotor számára.

User-agent: * Disallow: /

WordPress-webhelyek esetén a webhelyindexelést a vezérlőpulton keresztül kapcsolhatja ki. Ehhez a webhely láthatósági beállításainál jelölje be a „Javaslom a keresőmotoroknak, hogy ne indexeljék a webhelyet” négyzetet. Ugyanakkor a Yandex valószínűleg meghallgatja kívánságait, de a Google-lal ez nem szükséges, de problémák merülhetnek fel.

Sziasztok, kedves oldal olvasók. Ma elmondom, hogyan találhatja meg és javíthatja ki webhelye indexelésével kapcsolatos lehetséges problémákat. Nézzünk három fő pontot.

  1. A robotnak indexelnie kell az oldal szükséges oldalait ;
  2. Ezeket az oldalakat gyorsan indexelni kell;
  3. A robot ne keresse fel a webhely felesleges oldalait;

Minden nagyon egyszerűnek tűnik. Valójában azonban a legtöbb webmester ugyanezekkel a problémákkal szembesül az indexelés beállításakor. Nézzük meg őket alaposan.

Jelenleg a legtöbb esetben, ha az oldal új oldaláról beszélünk a keresési eredmények között, az néhány tíz percen belül megjelenik. Ha már indexelt oldalakról beszélünk, akkor ez 3-5 nap.

Ennek eredményeként annak érdekében, hogy webhelyét gyorsan meglátogassák, emlékeznie kell három szabályra:

  1. Először is rendelkeznie kell egy érvényes és rendszeresen frissített webhelytérkép-fájllal;
  2. Másodszor, ne használja a Crawl-delay utasítást csak akkor, ha úgy érzi. Most mindenképpen nyissa meg a robots.txt fájlt, és ellenőrizze, hogy van-e ilyen utasítás. Ha telepítve van, gondolja át, hogy valóban szüksége van-e rá.
  3. Harmadszor, használja az „oldal feltérképezését”, hogy új, fontos oldallal látogassa meg webhelye legfontosabb oldalait.

Megmentjük a robotot az oldal felesleges oldalaitól

Amikor egy robot elkezdi felkeresni az erőforrást, az gyakran nem mindig van pozitív hatással a jó webhelyoldalak indexelésére. Képzelj el egy helyzetet, mondjuk a robot másodpercenként 5 kérést intéz az erőforrásodhoz. Remek eredménynek tűnik, de mi értelme ennek a másodpercenkénti öt látogatásnak, ha mind az oldalad szolgáltatási oldalaihoz tartozik, vagy ismétlődik, és a robot egyáltalán nem figyel az igazán fontos oldalakra. Ez a következő rész arról szól, hogyan ne indexeljük a szükségtelen oldalakat.

  1. A Yandex Webmester szakaszt használjuk, és megkerüljük a statisztikákat
  2. Megkapjuk azoknak az oldalaknak a címét, amelyeket a robotnak nem szabad indexelnie
  3. Összeállítjuk a megfelelő robots.txt fájlt

Vessünk egy pillantást a „Feltérképezési statisztikák” eszközre, így néz ki. Itt vannak diagramok is. Arra vagyunk kíváncsiak, hogy az "összes oldal" gombbal kicsit lejjebb görgessünk az oldalon. Mindent látni fog, amit a robot az elmúlt napokban meglátogatott.

Ezen oldalak között, ha vannak szolgáltatási oldalak, akkor azokat le kell tiltani a robots.txt fájlban. Hogy pontosan mit is kell betiltani, lássuk pontról pontra.

  1. Először is, ahogy korábban mondtam, szűrőoldalak, az áruk kiválasztását, a válogatást meg kell tiltani a robots.txt fájlban.
  2. Másodszor, meg kell tiltanunk különféle akcióoldalak. Például hozzáadni az összehasonlításhoz, hozzáadni a kedvencekhez, kosárba tenni. Maga a bevásárlókosár oldal is tilos.
  3. Harmadszor, megtiltjuk a megkerülést minden szervizszakaszt mint például a webhelykeresés, az erőforrás adminisztrációs panelje, a felhasználói adatokat tartalmazó szakaszok. Például a kézbesítési információk, telefonszámok stb. szintén tilosak a robots.txt fájlban.
  4. ÉS azonosítókkal ellátott oldalak, például az utm címkéknél a robots.txt fájlban is érdemes a Clean-param direktíva segítségével letiltani a feltérképezést.

Ha azzal a kérdéssel szembesül, hogy szükséges-e tiltani, vagy meg kell-e nyitni ezt az oldalt megkerülésre, válaszoljon magának egy egyszerű kérdésre: hogy a felhasználóknak szükségük van-e erre az oldalra keresőmotor? Ha ez az oldal nem szerepel a lekérdezésekben, akkor letiltható.

És egy kis gyakorlati eset, remélem motiválni fog. Nézze, az egyik erőforráson a robot naponta majdnem több ezer találatot ér el oldalakon átirányítással. Valójában az átirányítási oldalak a kosárba tétel oldalai voltak.

Módosítjuk a robots.txt fájlt és a grafikonon látszik, hogy gyakorlatilag megszűnt a hozzáférés az ilyen oldalakhoz. Ugyanakkor az azonnali pozitív dinamika - a sztyeppe ezen oldalán a szükséges oldalak megkerülése a 200-as kóddal drámaian megnőtt.

- Ismétlődő oldalak a webhelyen, hogyan lehet őket megtalálni és mit kell tenni velük

És itt egy újabb veszély vár rád - ez az oldal ismétlődései. Másodpéldányok alatt ugyanazon webhely több olyan oldalát értjük, amelyek különböző címeken érhetők el, de ugyanakkor teljesen azonos tartalmat tartalmaznak. Az ismétlődések fő veszélye az, hogy ha léteznek, megváltozhatnak a keresési eredmények között. Egy oldal eljuthat olyan címre, amelyre nincs szüksége, és versenyezhet az Ön által hirdetett főoldallal bármilyen lekérdezésért. Ráadásul az ismétlődő oldalak nagy száma megnehezíti az indexelő robot számára a webhely megkerülését. Általában sok problémát okoznak.

Úgy gondolom, hogy szinte minden webmester biztos abban, hogy az erőforrásában nincsenek ismétlődő oldalak. Szeretnélek egy kicsit felzaklatni. Valójában a RuNet szinte minden webhelyén vannak ismétlődések. ? Erről van egy részletes cikkem, melynek elolvasása után egyetlen kérdésed sem marad.

- A szerver válaszkódjának ellenőrzése

A robots.txt fájlon kívül szeretném elmondani a helyes http válaszkódokat. Ezek is olyan dolgoknak tűnnek, amelyekről már nem egyszer volt szó. Maga a http válaszkód egy adott oldalállapot az indexelő robot számára.

  1. http-200 - az oldal indexelhető és a keresés engedélyezhető.
  2. A http-404 azt jelenti, hogy az oldalt törölték.
  3. http-301 – az oldal átirányítva.
  4. http-503 – átmenetileg nem elérhető.

Milyen előnyökkel jár a megfelelő http kódok eszköz használata:

  1. Először is, soha nem lesznek különböző hibás hivatkozások az erőforrására, vagyis azok, amelyek olyan oldalakra vezetnek, amelyek nem válaszolnak 200-as válaszkóddal. Ha az oldal nem létezik, akkor a robot megérti a 404-es válaszkódot.
  2. Másodszor, segít a robotnak abban, hogy kikerülje a valóban szükséges oldalakat, amelyek 200-as válaszkóddal válaszolnak.
  3. Harmadszor pedig lehetővé teszi, hogy elkerülje, hogy különféle szemét kerüljön a keresési eredmények közé.

Erről csak a következő képernyő szintén a gyakorlatból származik. Az erőforrás és a technikai munka elérhetetlensége során a robot egy 200-as http válaszkóddal rendelkező csonkot kap. Pontosan ezt a leírást látod a keresési eredmények között.

Mivel az oldal 200-as válaszkóddal válaszol, a rendszer visszaküldi őket. Természetesen az ilyen tartalmú oldalakat semmilyen kérésre nem lehet megtalálni és megjeleníteni. Ebben az esetben a helyes beállítás egy 503-as http-válasz lenne. Ha egy oldal vagy erőforrás átmenetileg nem érhető el, ez a válaszkód megakadályozza, hogy az oldalakat kizárják a keresési eredményekből.

Itt vannak olyan helyzetek, amikor az Ön erőforrásának fontos és szükséges oldalai elérhetetlenné válnak robotunk számára, például 503-as vagy 404-es kóddal válaszolnak, vagy inkább visszatérnek ehhez a csonkhoz.

Az ilyen helyzetek nyomon követhetők az eszköz segítségével "fontos oldalak". Adja hozzá azokat az oldalakat, amelyek a legnagyobb forgalmat hozzák az erőforráshoz. Az e-mailbe és a szolgáltatásba érkező értesítések beállításai, és információkat fog kapni arról, hogy mi történik ezzel az oldallal. Mi a válaszkódja, mi a címe, mikor látogatták meg és mi a státusza a keresési eredmények között.


Egy adott válaszkód visszaküldésének helyességét a Yandex Webmaster megfelelő eszközével ellenőrizheti (itt). Ebben az esetben ellenőrizzük a nem létező oldalak válaszkódját. Kitaláltam egy oldalt, behajtottam az eszközbe, megnyomtam az ellenőrző gombot, és 404-es választ kaptam.

Itt minden rendben van, mivel az oldal nem volt elérhető, helyesen válaszolt a 404-es kóddal és többé nem kerül be a keresésbe. Ennek eredményeként annak érdekében, hogy a robotok ne látogassák meg a webhely szükségtelen oldalait, aktívan használja a bypass statisztikai eszközt, módosítsa a robots.txt fájlt, és győződjön meg arról, hogy az oldalak a helyes http válaszkódot adják vissza.

- Összegezve

Megadtuk a robotnak az oldal megfelelő oldalát tartalommal. Elértük, hogy gyorsan indexeljük. Megtiltottuk a robotnak a felesleges oldalak indexelését. Mindhárom nagy feladatcsoport összefügg egymással.. Vagyis ha a robot nem korlátozódik a szolgáltatási oldalak indexelésére, akkor valószínűleg kevesebb ideje lesz indexelni a webhely szükséges oldalait.

Ha a robot nem kapja meg maradéktalanul a kívánt oldalak tartalmát, akkor ezeket az oldalakat nem fogja gyorsan bekerülni a keresési eredmények közé. Ez azt jelenti, hogy az erőforrások komplex indexelésével kell foglalkoznia, mind a három feladaton. És ebben az esetben bizonyos sikereket ér el annak érdekében, hogy a kívánt oldalak gyorsan bekerüljenek a keresési eredmények közé.

A Yandex hivatalos válaszai

A nagybetűs oldalak bekerültek az indexbe, annak ellenére, hogy az oldal nem tartalmaz ilyen oldalakat. Ha az oldalak nagybetűsek, akkor nagy valószínűséggel a robot talált rájuk mutató hivatkozásokat valahol az interneten. Először ellenőrizze webhelyét, valószínűleg egy helytelen hivatkozás van telepítve valahol az interneten. Jött a robot, meglátta, és elkezdte letölteni az oldalt nagybetűvel. Nekik az ilyen oldalakhoz jobb a 301-es átirányítás használata.

A webhelytérkép több oldalt tartalmaz – ez normális? Ha egy oldaltérképről beszélünk, vagyis egy speciális oldaltérkép formátumról, amelyben megadhat hivatkozásokat más oldaltérkép fájlokhoz, akkor ez természetesen normális.

Ha a címtár összes szakaszára mutató hivatkozásokat helyez el a webhely alján, amely minden oldalon megjelenik, akkor az segít az indexelésben, vagy árt? Valójában ezt egyáltalán nem kell megtenned, vagyis ha az oldalad látogatóinak nincs rá szükséged, akkor nem kell külön elkészítened. Elég egy egyszerű oldaltérkép fájl. A robot megtudja ezen oldalak jelenlétét, és hozzáadja őket az adatbázisához.

Meg kell adnom a frissítés gyakoriságát az oldaltérképen? Az oldaltérkép fájl segítségével további információkat adhatunk át az indexelő robotnak. A címeken kívül robotunk még néhány címkét is megért. Először is ez a frissítés gyakorisága, vagyis a frissítés gyakorisága. Ez a feltérképezési prioritás és az utolsó módosítás dátuma. Mindezeket az információkat a webhelytérkép fájlból veszi a fájl feldolgozása során, hozzáadja az adatbázisához, és később felhasználja az áthidaló házirendek módosítására.

Lehetséges oldaltérkép nélkül? Igen, győződjön meg arról, hogy webhelye átlátszó navigációval rendelkezik, hogy minden belső oldalon legyen elérhető hivatkozás. De ne feledje, hogy ha ez egy új forrás (a szerzőtől: olvassa el, hogyan lehet új webhelyet indítani), és például egy oldal mélyen van a webhelyén, például 5-10 kattintással, akkor a robot sok időbe telik, amíg megtudja, hogy elérhető-e. Először töltse le a webhely főoldalát, szerezzen hivatkozásokat, majd ismét töltse le azokat az oldalakat, amelyekről tanult, és így tovább. Az oldaltérkép fájl lehetővé teszi, hogy az összes oldalról egyszerre információt vigyen át a robotnak.

A robot naponta 700 ezer kérést intéz nem létező oldalakra. Először is meg kell értened, honnan jöttek az ilyen nem létező oldalak. Lehetséges, hogy a relatív hivatkozásokat helytelenül használják az Ön webhelyén, vagy véglegesen eltávolítottak egy részt a webhelyről, és a robot továbbra is ellenőrzi az ilyen oldalakat. Ebben az esetben egyszerűen le kell tiltania őket a robots.txt fájlban. 12 órán belül a robot leállítja az ilyen oldalak elérését.

Ha a szolgáltatási oldalak indexelve vannak, hogyan távolíthatom el őket a keresésből. Használja a robots.txt fájlt is az oldalak eltávolításához a keresési eredmények közül. Vagyis nem számít, hogy a tiltást a webhely létrehozásakor vagy az erőforrás elindításakor állította be. Az oldal egy héten belül eltűnik a keresési eredmények közül.

Egy automatikusan generált oldaltérkép jó vagy sem? A legtöbb esetben az összes oldaltérkép automatikusan generálódik, így azt mondhatjuk, hogy ez valószínűleg jó. Nem kell semmit a kezével csinálnia, és odafigyelhet valami másra.

Hogyan lesz indexelve az oldal, ha saját magának kanonikussá teszi. Ha a canonical attribútum magához az oldalhoz vezet? Ez az oldal kanonikusnak minősül? Általában indexelve lesz, és szerepel a keresési eredmények között, vagyis teljesen helyes ezt a technikát használni.

Mit jelent a „nem kanonikus” állapot? W Az oldal a kanonikus attribútumkészlettel kezdődik, amely egy másik oldalra vezet a webhelyen. Ezért ez az oldal nem fog tudni bekerülni a keresésbe. Nyissa meg az oldal forráskódját, végezzen keresést, nézze meg, hová vezet a kanonikus oldal, és ellenőrizze a kanonikus oldalt a keresésben.

Mi a helyesebb, ha egy bevásárlókosár-oldalt kitiltunk a robots.txt-ben vagy a noindexben? Ha az oldalt a noindex módszerrel letiltják, a robot rendszeresen meglátogatja, és ellenőrzi a tiltást. Annak megakadályozására, hogy a robot ezt tegye, jobb, ha tiltást használ a robots.txt fájlban.


Találkozunk! Tegyen meg mindent és mindig a blogoldal oldalain

Segíts a projektben - iratkozz fel Yandex.Zen csatornánkra!

A Google segítségével minden nagyon egyszerű. Hozzá kell adnia webhelyét a Webmestereszközökhöz a címen https://www.google.com/webmasters/tools/, majd válassza ki a hozzáadott webhelyet, így bejutva webhelye Search Console-jába. Ezután a bal oldali menüben válassza ki a „Szkennelés” részt, és abban a „Megtekintés Googlebotként” elemet.

A megnyíló oldalon az üres mezőbe írja be annak az új oldalnak a címét, amelyet gyorsan indexelni akarunk (figyelembe véve az oldal már megadott domain nevét), majd kattintson a jobb oldalon található "Scan" gombra. Várjuk az oldal beolvasását és a korábban így beolvasott címek táblázatának tetején jelenik meg. Ezután kattintson a "Hozzáadás az indexhez" gombra.

Hurrá, új oldalát azonnal indexeli a Google! Néhány percen belül megtalálhatja a Google keresési eredményei között.

Az oldalak gyors indexelése a Yandexben

A webmestereszközök új verziójában elérhetővé váltak hasonló eszközúj oldalak hozzáadásához az indexhez. Ennek megfelelően webhelyét előzetesen hozzá kell adni a Yandex Webmasterhez. Úgy is eljuthat oda, hogy kiválasztja a kívánt webhelyet a webmesterben, majd lépjen az "Indexelés" szakaszba, és válassza az "Oldal újratérképezése" elemet. A megnyíló ablakban adja meg azoknak az új oldalaknak a címét, amelyeket gyorsan indexelni akarunk (egy sorban található hivatkozás segítségével).

A Google-lal ellentétben a Yandexben az indexelés még nem történik meg azonnal, de igyekszik törekedni rá. A fenti műveletekkel tájékoztatja a Yandex robotot az új oldalról. És fél órán vagy egy órán belül indexelésre kerül - ez az én gyakorlatom személyesen. Talán a Yandex oldalindexelési sebessége számos paramétertől függ (a domain, a fiók és/vagy mások hírnevétől). A legtöbb esetben ez megállítható.

Ha azt látja, hogy webhelyének oldalait rosszul indexeli a Yandex, azaz néhány általános ajánlás ennek kezelésére:

  • A legjobb, de egyben a legnehezebb javaslat a Yandex speedbot telepítése a webhelyére. Ehhez kívánatos minden nap friss anyagokat hozzáadni a webhelyhez. Lehetőleg 2-3 vagy több anyag. És ne egyszerre, hanem egy idő után adja hozzá őket, például reggel, délután és este. Még jobb lenne megközelítőleg ugyanazt a közzétételi ütemtervet követni (az új anyagok hozzáadásához körülbelül ugyanannyi időt kell fenntartani). Sokan azt is javasolják, hogy hozzon létre egy RSS-hírcsatornát a webhelyről, hogy a keresőrobotok közvetlenül olvashassák a frissítéseket.
  • Természetesen nem mindenki tud ilyen mennyiségben új anyagokat hozzáadni az oldalhoz - jó, ha hetente 2-3 anyagot tud hozzáadni. Ebben az esetben nem lehet különösebben álmodozni a Yandex sebességéről, hanem más módon próbáljon új oldalakat bevinni az indexbe. A leghatékonyabbnak az új oldalakra mutató linkek közzététele tekinthető frissített Twitter-fiókokban. Az olyan speciális programok segítségével, mint a Twidium Accounter, "pumpálhatja" a kívánt számú twitter fiókot, és ezek segítségével gyorsan bevezetheti az oldal új oldalait a keresőmotor indexébe. Ha nincs lehetősége önállóan linkeket közzétenni a frissített Twitter-fiókokra, speciális csereprogramokon keresztül vásárolhat ilyen bejegyzéseket. Egy linkkel ellátott bejegyzés átlagosan 3-4 rubel vagy többe kerül (a kiválasztott fiók hidegvérétől függően). De ez a lehetőség meglehetősen drága lesz.
  • A harmadik lehetőség a gyors indexelésre a http://getbot.guru/ szolgáltatás használata, amely mindössze 3 rubelért segít elérni a kívánt hatást garantált eredménnyel. Kiválóan alkalmas olyan oldalakra, ahol ritka ütemezésű új kiadványok hozzáadása. Vannak olcsóbb árak is. A részleteket és a köztük lévő különbségeket legjobban magának a szolgáltatásnak a webhelyén tekintheti meg. Személy szerint nagyon elégedett vagyok ennek a szolgáltatásnak, mint indexelési gyorsítónak a szolgáltatásaival.

Természetesen a közösségi könyvjelzőkhöz új kiadványokat is felvehet, ami elvileg szintén hozzájárulhat az oldal gyors indexeléséhez. De egy ilyen kiegészítés hatékonysága a fiókok szintjétől is függ. Ha kevés tevékenységed van velük, és a fiókjaidat csak ilyen spamre használod, akkor gyakorlatilag nem lesz hasznos kimenet.

P.S. nagy tapasztalattal mindig naprakész - vegye fel velünk a kapcsolatot!

(13 )

Ha tudni szeretné, hogy egy adott oldalt indexel-e egy kereső, és hogy webhelyének összesen hány oldalát keresi, érdemes megismernie a webhely indexelésének négy legegyszerűbb módját, amelyet minden SEO-szakértő használ.

A portál indexelése során a keresőbot először átvizsgálja azt, azaz megkerüli, hogy tanulmányozza a tartalmat, majd a webes erőforrással kapcsolatos információkat hozzáadja az adatbázishoz. Ezután a keresőrendszer keresést generál ezekre az adatbázisokra. Ne keverje össze a feltérképezést az indexeléssel – két különböző dologról van szó.

Annak megértéséhez, hogy a projekt hány további oldala nincs indexelve, ismernie kell azok teljes számát. Ez lehetővé teszi, hogy megértse, milyen gyorsan indexeli webhelyét. Ezt többféleképpen is megteheti:

  1. Webhelytérkép megtekintése. Itt találod: your_site_name.ru/sitemap.xml. Itt alapvetően az erőforráson tárolt összes oldal látható. Előfordulhat azonban, hogy a webhelytérkép nem megfelelően jön létre, és egyes oldalak nem szerepelnek benne.
  2. Használjon speciális programot. Ezek a programok az egész webhelyet feltérképezik, és a webhely összes oldalát kiadják. Ilyen programok például a Screaming Frog Seo (fizetős) vagy a Xenus Links Sleuth (ingyenes).

A webhelyindexelés ellenőrzésének módjai

Felhívjuk figyelmét a 4 leggyakoribb és legegyszerűbb módszerre annak ellenőrzésére, hogy mely oldalak szerepelnek az indexben és melyek nem.

1. A webmester panelen keresztül

Ezzel a módszerrel a webes erőforrás-tulajdonosok leggyakrabban ellenőrzik jelenlétüket a keresésben.

Yandex

  1. Jelentkezzen be a Yandex.Webmasterbe.
  2. Menjen a menübe "Webhelyindexelés".
  3. Alatta keresse meg a vonalat "Oldalok a keresésben".

Másik úton is járhatsz:

  1. Válassza ki "Webhelyindexelés".
  2. Következő lépés a "Történelem".
  3. Ezután kattintson a fülre "Oldalok a keresésben".

Mind az első, mind a második módon tanulmányozhatja a keresőben lévő oldalak számának növekedésének vagy csökkenésének dinamikáját.

Google

  1. Lépjen a szerviz vezérlőpultra Google Webmestereszközök.
  2. Kattintson a fülre Search Console.
  3. Menj "IndexGoogle".
  4. Kattintson egy opcióra "Indexelés állapota".

2. Keresőmotor-üzemeltetőkön keresztül

Segítenek finomítani a keresési eredményeket. Például a "site" operátor használatával megtekintheti az indexben már szereplő oldalak hozzávetőleges számát. A paraméter ellenőrzéséhez írja be a Yandex vagy a Google keresősávjába: "site:a_webhely_url".


Fontos! Ha a Google és a Yandex eredményei nagymértékben eltérnek, akkor webhelyének problémái vannak a webhely szerkezetével, a szemetes oldalak, az indexelés, vagy szankciókat szabtak ki rá.

A kereséshez további eszközöket is használhat, például megtudhatja, hogyan változott az oldalindexelés egy bizonyos időszak alatt. Ehhez a keresősáv alatt kattintson a fülre "Keresőeszközök"és válasszon egy időszakot, például "24 órán keresztül".

3. Beépülő modulokon és bővítményeken keresztül

Speciális programok segítségével a webes erőforrások indexelésének ellenőrzése automatikusan megtörténik. Ez megtehető beépülő modulok és bővítmények, más néven könyvjelzők segítségével. Ezek olyan javascript programok, amelyeket a böngésző szabványos könyvjelzőként tárol.

A beépülő modulok és bővítmények előnye, hogy a webmesternek nem kell minden alkalommal újra belépnie a keresőbe, és beírnia a webhelycímeket, operátorokat stb. A szkriptek mindent automatikusan csinálnak.

A legnépszerűbb erre a célra használt plugin az RDS bar, amely bármely böngésző alkalmazásboltjából letölthető.

Érdemes megjegyezni, hogy a beépülő modul sokkal több funkcióval rendelkezik a Mozilla Firefoxban, mint más böngészőkben. Az RDS sáv mind a teljes webhelyről, mind annak egyes oldalairól nyújt információkat

Egy megjegyzésre. Vannak fizetős és ingyenes bővítmények. Az ingyenes bővítmények legnagyobb hátránya pedig az, hogy rendszeresen be kell írnod ​​a captcha-t.

Nem hagyhatja figyelmen kívül az "Indexelés ellenőrzése" könyvjelzőt. A program engedélyezéséhez egyszerűen húzza a hivatkozást a böngészősávra, majd indítsa el a portált, és kattintson a bővítmény fülére. Tehát megnyit egy új lapot a Yandex vagy a Google segítségével, ahol tanulmányozza az egyes oldalak indexeléséhez szükséges információkat.

4. Különleges szolgáltatásokkal

Elsősorban harmadik féltől származó szolgáltatásokat veszek igénybe, mert ezek egyértelműen megmutatják, mely oldalak szerepelnek az indexben és melyek nincsenek ott.

Ingyenes szolgáltatás

https://serphunt.ru/indexing/ - van ellenőrzés, mind a Yandex, mind a Google számára. Naponta akár 50 oldalt is ingyenesen ellenőrizhet.

Fizetett szolgáltatás

A fizetősek közül a Topvisort szeretem a legjobban - a költség 0,024 rubel. egy oldal ellenőrzéséhez.

Feltöltöd az oldalad összes oldalát a szolgáltatásba, és az megmutatja, hogy melyik szerepel a kereső indexében és melyik nem.

Következtetés

Bármely webes erőforrás tulajdonosának fő célja, hogy elérje az összes olyan oldal indexelését, amely elérhető lesz a keresőrobotok számára az információk beolvasásához és az adatbázisba való másolásához. Ennek a feladatnak a végrehajtása egy nagy webhelyen nagyon nehéz lehet.

De a megfelelő integrált megközelítéssel, azaz a hozzáértő SEO optimalizálással, az oldal rendszeres feltöltésével minőségi tartalommal és az oldalak keresőindexébe való felvételének folyamatának folyamatos figyelemmel kísérésével pozitív eredményeket érhet el. Ennek érdekében ebben a cikkben négy módszerről beszéltünk a webhely indexelésének ellenőrzésére.

Tudja, hogy ha az oldalak túl hirtelen kezdenek kirepülni a keresésből, akkor valami nem stimmel az erőforrással. De gyakran a probléma nem az indexelési folyamatban van, hanem magában az optimalizálásban. Szeretne gyorsan indexelni és bekerülni a TOP keresési eredmények közé? Olyan tartalmat kínáljon célközönségének, amely felülmúlja versenytársait.

Egy fiatal webhely számára különösen fontos a gyors indexelés a keresőkben. Mert még nincs bizonyos súlya (vagy "bizalma"). Az oldal életének első hónapjaiban különösen fontos a rendszeres frissítés. A tartalomnak is jó minőségűnek kell lennie.

Új webhely gyors indexelése a Yandexben

Ahhoz, hogy új webhelye gyorsan indexelhető legyen a Yandexben, hozzá kell adnia a Yandex Webmasterhez. Ezután válassza ki az „Indexálás” -> „Oldal újrafeltérképezése” blokkot (lásd az ábrát).

Oldal feltérképezése a Yandex Webmasterben

Fiatal oldalak esetén mindenképpen vegye fel a főoldalt ebbe a listába. Gyakoriak az olyan esetek, amikor a robot felkeresi a főoldalt, és onnan indexeli az összes belső hivatkozást. Sokkal több mint 20 oldal indexelhető így.

Gyors webhelyindexelés a Google-ban

A Yandexhez hasonlóan egy új webhely indexelésének felgyorsításához a Google-ban hozzá kell adni a Google Webmasterhez (Google Search Console). Ki kell választania a "Skinning" fület -> "View as GoogleBot".

Funkció Nézet GoogleBotként

És a megnyíló űrlapba írja be a kívánt oldal címét, kattintson a "Szkennelés" gombra. Ezt követően megjelenik az oldal feltérképezésének eredménye, és megjelenik az „Indexelés kérése” bűvös gomb.

Funkcionalitás Indexelés kérése

Kattintson a gombra, és valami ehhez hasonló ablakot fog látni:

Hogyan lehet indexelni egy webhelyet a Google-on

Itt feltétlenül válassza ki az "URL feltérképezése és közvetlen linkek feltérképezése" lehetőséget. Ebben az esetben a robot megpróbálja feltérképezni az összes belső hivatkozást az Ön által megadott oldalon. Nagy valószínűséggel mindannyian a lehető leggyorsabban belépnek a Google indexébe!

Új webhely indexelése egy régi domainen

Ebben az esetben a feladat nem olyan triviális, mint amilyennek látszik. Az előzményekkel rendelkező domaineken gyakran nehéz egy új webhelyet indexelni. Ez a folyamat hetekig vagy hónapokig tarthat. Ez a domain történetétől függ: kiszabtak-e korábban szankciókat, és melyek.

A cselekvési séma ebben az esetben egyszerű:

  • Webhely hozzáadása a Yandex és a Google webmesterhez
  • Kérjen újraindexelést a megfelelő funkciókon keresztül
  • Várj 2-3 frissítést.
  • Ha semmi sem változott, írjon az ügyfélszolgálatnak, és egyénileg oldja meg a problémát.

Módszerek egy fiatal webhely indexelésének felgyorsítására

A fentebb jelzett módszereken kívül számos más is működik:

  1. Anyagok megosztása a közösségi hálózatokon. A következők használatát javaslom: Vkontakte, Facebook, Twitter, Google+ (annak ellenére, hogy a Google közösségi hálózata valójában halott, segít az új oldalak indexelésének felgyorsításában)
  2. Rendszeres weboldal frissítések. Idővel az oldal statisztikákat gyűjt az új anyagok megjelenéséről, segít az új oldalak indexelésében. Rendszeresen frissíts, és talán sikerül "etetni a motorcsónakot" (ebben az esetben az új oldalak indexelése 1-10 percet vesz igénybe).
  3. Híroldalak esetén: jelentkezzen be a Yandex Newsba. Ez nem olyan nehéz, mint amilyennek látszik, de a hatás lenyűgöző lesz. A Yandex News összes webhelyén található egy gyors bot.
  4. Az oldal illetékes belső felépítése. Mindenképpen linkelést, TOP anyagokat stb. Az oldalon található belső hivatkozások számának növelése (ésszerű határokon belül) az indexelést is felgyorsítja

A régi webhely új oldalainak gyors indexelése

Kérdések és válaszok a fiatal webhelyek indexelésével kapcsolatban

Kérdései vannak a fiatal webhelyek indexelésével kapcsolatban? Kérdezd meg őket kommentben!

K: Le kell zárni egy új webhelyet az indexelés elől?
V: Azt javaslom, hogy ne tegye ki webhelyét feltérképező robotoknak, amíg fel nem tölti kezdő tartalommal. Ahogy a gyakorlatom mutatja, a meglévő oldalak újraindexelése sokkal több időt vesz igénybe, mint az újak indexelése.

K: Mennyi időbe telik, amíg a Yandex indexel egy új webhelyet?
V: Átlagosan 1-2 frissítés (1-3 hét). De a helyzetek eltérőek lehetnek.

K: Milyen problémák adódhatnak egy fiatal webhely indexelésével?
V: Valószínűleg a fő probléma a rossz tartalom. Emiatt előfordulhat, hogy a webhely nem indexelhető. Voltak olyan esetek is, amikor egy fiatal, de nagyméretű, több ezer oldalas oldal gördült ki. A keresésnek még emlékei vannak az ajtónyílásokról, így a több ezer oldalas fiatal oldalak „különleges hozzáállással” rendelkeznek.

K: Hány oldalt kell megnyitni egy új webhely indexeléséhez, és milyen gyakran kell frissíteni?
V: Egy oldaltól kezdve megnyithat egy webhelyet indexelésre. Fontos betartani egy egyszerű szabályt: ne tegyen azonnal több ezer oldalt az oldalra, mert. ez keresőspamnek tekinthető, és rendszeresen új anyagok kerülnek fel az oldalra. 3 nap alatt 1 anyag legyen, de rendszeresen! Ez nagyon fontos!

K: Milyen gyakran indexeli a Yandex webhelyeket?
V: A Yandex hivatalos információi szerint az indexelés gyakorisága 2 naptól több hétig terjedhet. A gyorsítási módszerekről pedig fentebb van írva.



Tetszett a cikk? Oszd meg