جهات الاتصال

الفهرسة في محركات بحث Yandex. طريقة سريعة للتحقق من فهرسة الصفحات في Yandex و Google. محركات البحث الأجنبية

فهرسة الموقع هي التفاصيل الأكثر أهمية وضرورية وأساسية في تنفيذ تحسينها. بعد كل شيء ، بسبب وجود فهرس ، يمكن لمحركات البحث الاستجابة لجميع طلبات المستخدم بسرعة ودقة شديدة.

ما هي فهرسة الموقع؟

فهرسة الموقع هي عملية إضافة معلومات حول محتوى (محتوى) الموقع إلى قاعدة بيانات محركات البحث. إنه الفهرس الذي يمثل قاعدة بيانات محركات البحث. من أجل فهرسة الموقع وظهوره في نتائج البحث ، يجب أن يزوره روبوت بحث خاص. يتم فحص المورد بالكامل ، صفحة بصفحة ، بواسطة الروبوت وفقًا لخوارزمية معينة. نتيجة لذلك ، يتم البحث عن الروابط والصور والمقالات وما إلى ذلك وفهرستها. وفي نفس الوقت ، في نتائج البحث ، ستكون تلك المواقع أعلى في القائمة ، وتكون سلطتها أعلى مقارنة بالباقي.

يوجد خياران لفهرسة موقع PS:

  • تقرير المصير بواسطة روبوت البحث للصفحات الجديدة أو الموارد التي تم إنشاؤها - هذه الطريقة جيدة إذا كانت هناك روابط نشطة من مواقع أخرى مفهرسة بالفعل إلى مواقعك. خلاف ذلك ، يمكنك انتظار روبوت البحث إلى أجل غير مسمى ؛
  • إدخال عنوان URL للموقع في نموذج محرك البحث المخصص لذلك يدويًا - يتيح هذا الخيار للموقع الجديد "قائمة الانتظار" للفهرسة ، الأمر الذي سيستغرق وقتًا طويلاً. الطريقة بسيطة ومجانية وتتطلب إدخال عنوان الصفحة الرئيسية فقط للمورد. يمكن تنفيذ هذا الإجراء من خلال لوحة مشرفي المواقع Yandex و Google.

كيف يتم تجهيز موقع للفهرسة؟

وتجدر الإشارة على الفور إلى أنه من غير المرغوب فيه للغاية تصميم موقع في مرحلة التطوير. يمكن لمحركات البحث فهرسة الصفحات غير المكتملة التي تحتوي على معلومات غير صحيحة وأخطاء إملائية وما إلى ذلك. ونتيجة لذلك ، سيؤثر ذلك سلبًا على ترتيب الموقع وإصدار المعلومات من هذا المورد في البحث.

لنقم الآن بإدراج النقاط التي لا يجب نسيانها في مرحلة إعداد مورد للفهرسة:

  • تنطبق قيود الفهرسة على ملفات الفلاش ، لذلك من الأفضل إنشاء موقع باستخدام HTML ؛
  • مثل هذا النوع من البيانات مثل Java Script لا يتم فهرسته بواسطة روبوتات البحث ، وفي هذا الصدد ، يجب تكرار التنقل في الموقع مع روابط نصية ، وجميع المعلومات المهمة التي يجب فهرستها ليست مكتوبة في Java Script ؛
  • تحتاج إلى إزالة جميع الروابط الداخلية المعطلة بحيث يؤدي كل رابط إلى صفحة حقيقية لموردك ؛
  • يجب أن يسمح لك هيكل الموقع بالتنقل بسهولة من الصفحات السفلية إلى الصفحة الرئيسية والعودة ؛
  • من الأفضل نقل المعلومات والكتل غير الضرورية والثانوية إلى أسفل الصفحة وإخفائها أيضًا من الروبوتات ذات العلامات الخاصة.

كم مرة تتم الفهرسة؟

يمكن أن تستغرق فهرسة الموقع ، بناءً على عدد من الأسباب ، من عدة ساعات إلى عدة أسابيع ، حتى شهر كامل. تحدث عمليات تحديث الفهرسة أو عمليات البحث في محركات البحث على فترات زمنية مختلفة. وفقًا للإحصاءات ، في المتوسط ​​، يقوم Yandex بفهرسة الصفحات والمواقع الجديدة لمدة تتراوح من 1 إلى 4 أسابيع ، ويدير Google لمدة تصل إلى 7 أيام.

ولكن مع الإعداد الأولي السليم للمورد الذي تم إنشاؤه ، يمكن تقليل هذه الشروط إلى الحد الأدنى. بعد كل شيء ، في الواقع ، فإن جميع خوارزميات فهرسة PS ومنطق عملهم تتلخص في تقديم الإجابة الأكثر دقة وحداثة لطلب المستخدم. وفقًا لذلك ، كلما ظهر المحتوى عالي الجودة بانتظام على المورد الخاص بك ، زادت سرعة فهرسته.

طرق تسريع الفهرسة

تحتاج أولاً إلى "إخطار" محركات البحث بأنك أنشأت موردًا جديدًا ، كما هو مذكور في الفقرة أعلاه. أيضًا ، يوصي العديد من الأشخاص بإضافة موقع جديد إلى أنظمة الإشارات الاجتماعية ، لكنني لا أفعل ذلك. لقد أتاح هذا حقًا تسريع الفهرسة قبل بضع سنوات ، نظرًا لأن روبوتات البحث غالبًا ما "تزور" مثل هذه الموارد ، ولكن ، في رأيي ، من الأفضل الآن وضع رابط من شبكة اجتماعية شهيرة. وسرعان ما سيلاحظون رابطًا لموردك ويقومون بفهرسته. يمكن تحقيق تأثير مماثل من خلال روابط مباشرة إلى موقع جديد من موارد مفهرسة بالفعل.

بعد فهرسة عدة صفحات وبدء الموقع في التطور ، يمكنك محاولة "تغذية" روبوت البحث لتسريع عملية الفهرسة. للقيام بذلك ، تحتاج إلى نشر محتوى جديد بشكل دوري على فترات زمنية متساوية تقريبًا (على سبيل المثال ، مقالتان كل يوم). بالطبع ، يجب أن يكون المحتوى فريدًا وعالي الجودة ومختصًا وغير مشبع بالعبارات الرئيسية. أوصي أيضًا بإنشاء خريطة موقع XML ، والتي ستتم مناقشتها أدناه ، وإضافتها إلى لوحة مشرفي المواقع لكلا محركي البحث.

ملفات Robots.txt وملفات Sitemap

يشتمل الملف النصي robots txt على إرشادات لروبوتات محرك البحث. في الوقت نفسه ، فإنه يجعل من الممكن حظر فهرسة صفحات مختارة من الموقع لمحرك بحث معين. إذا قمت بذلك يدويًا ، فمن المهم أن يتم كتابة اسم هذا الملف بأحرف كبيرة فقط وأن يكون موجودًا في الدليل الجذر للموقع ، حيث تقوم معظم أنظمة إدارة المحتوى بإنشائه بمفردها أو باستخدام المكونات الإضافية.

خريطة الموقع أو خريطة الموقع هي صفحة تحتوي على نموذج كامل لهيكل الموقع لمساعدة "المستخدمين المفقودين". في هذه الحالة ، يمكنك الانتقال من صفحة إلى أخرى دون استخدام التنقل في الموقع. يُنصح بإنشاء مثل هذه الخريطة بتنسيق XML لمحركات البحث وتضمينها في ملف robots.txt لتحسين الفهرسة.

يمكنك الحصول على مزيد من المعلومات التفصيلية حول هذه الملفات في الأقسام ذات الصلة من خلال النقر على الروابط.

كيف تمنع موقع من الفهرسة؟

يمكنك الإدارة ، بما في ذلك منع فهرسة موقع أو صفحة منفصلة ، باستخدام ملف robots.txt المذكور أعلاه. للقيام بذلك ، قم بإنشاء مستند نصي يحمل نفس الاسم على جهاز الكمبيوتر الخاص بك ، وضعه في المجلد الجذر للموقع واكتب في الملف الذي تريد إخفاء الموقع منه بمحرك البحث. بالإضافة إلى ذلك ، يمكنك إخفاء محتوى الموقع من Google أو Yandex bots باستخدام علامة *. هذه التعليمات في ملف robots.txt ستحظر الفهرسة بواسطة جميع محركات البحث.

وكيل المستخدم: * Disallow: /

بالنسبة لمواقع WordPress ، يمكنك تعطيل فهرسة الموقع من خلال لوحة التحكم. للقيام بذلك ، في إعدادات رؤية الموقع ، حدد المربع "أنصح محركات البحث بعدم فهرسة الموقع." في الوقت نفسه ، من المرجح أن تستمع Yandex إلى رغباتك ، لكن مع Google ليس هذا ضروريًا ، ولكن قد تظهر بعض المشكلات.

مرحبا عزيزي قراء الموقع. سأخبرك اليوم بكيفية البحث عن المشاكل المحتملة في فهرسة موقعك وإصلاحها. لنلقِ نظرة على ثلاث نقاط رئيسية.

  1. يجب أن يقوم الروبوت بفهرسة الصفحات الضرورية للموقع باستخدام ؛
  2. يجب فهرسة هذه الصفحات بسرعة ؛
  3. يجب ألا يقوم الروبوت بزيارة صفحات الموقع غير الضرورية ؛

يبدو أن كل شيء بسيط للغاية. ولكن في الواقع ، يواجه معظم مشرفي المواقع نفس المشكلات عند إعداد الفهرسة. دعونا ننظر إليهم بعناية.

في الوقت الحالي ، في معظم الحالات ، إذا كنا نتحدث عن صفحة جديدة من الموقع في نتائج البحث ، فستظهر في غضون بضع عشرات من الدقائق. إذا كنا نتحدث عن الصفحات المفهرسة بالفعل ، فهذا 3-5 أيام.

نتيجة لذلك ، لكي تتم زيارة موقعك بسرعة ، عليك أن تتذكر ثلاث قواعد:

  1. أولاً ، يجب أن يكون لديك ملف خريطة موقع صالح ويتم تحديثه بانتظام ؛
  2. ثانيًا ، لا تستخدم توجيه "تأجيل الزحف" فقط إذا كنت ترغب في ذلك. الآن ، تأكد من الانتقال إلى ملف robots.txt الخاص بك وتحقق مما إذا كان هناك مثل هذا التوجيه. إذا تم تثبيته ، فكر فيما إذا كنت بحاجة إليه حقًا.
  3. ثالثًا ، استخدم "زحف الصفحة" لزيارة أهم صفحات موقعك بصفحة مهمة جديدة.

نقوم بحفظ الروبوت من صفحات الموقع غير الضرورية

عندما يبدأ الروبوت في زيارة الموارد الخاصة بك ، فغالبًا ما لا يكون له تأثير إيجابي على فهرسة صفحات الموقع الجيدة. تخيل موقفًا ، لنفترض أن الروبوت يقدم 5 طلبات في الثانية لموردك. يبدو أنها نتيجة رائعة ، ولكن ما هو الهدف من هذه الزيارات الخمس في الثانية إذا كانت جميعها تنتمي إلى صفحات خدمة موقعك أو التكرارات ولا يهتم الروبوت بالصفحات المهمة حقًا على الإطلاق. هذا هو القسم التالي حول كيفية عدم فهرسة الصفحات غير الضرورية.

  1. نحن نستخدم قسم Yandex Webmaster وتجاوز الإحصائيات
  2. نحصل على عناوين الصفحات التي لا يجب على الروبوت فهرستها
  3. نقوم بإنشاء ملف robots.txt الصحيح

دعنا نلقي نظرة على أداة "إحصائيات الزحف" ، تبدو هكذا. هناك أيضا رسوم بيانية هنا. نحن مهتمون بالتمرير لأسفل الصفحة قليلاً باستخدام زر "جميع الصفحات". سترى كل ما زاره الروبوت في الأيام الأخيرة.

من بين هذه الصفحات ، إذا كانت هناك أية صفحات خدمة ، فيجب حظرها في ملف robots.txt. ما الذي يجب حظره بالضبط ، دعنا نقول نقطة تلو الأخرى.

  1. أولاً ، كما قلت سابقًا ، صفحات التصفية، اختيار البضائع ، يجب حظر الفرز في ملف robots.txt.
  2. ثانياً ، يجب أن نحظر صفحات العمل المختلفة. على سبيل المثال ، أضف للمقارنة ، أضف إلى المفضلة ، أضف إلى عربة التسوق. صفحة عربة التسوق نفسها محظورة أيضًا.
  3. ثالثًا ، نحظر التجاوز جميع أقسام الخدمةمثل البحث في الموقع ، ولوحة الإدارة لموردك ، والأقسام التي تحتوي على بيانات المستخدم. على سبيل المثال ، معلومات التسليم وأرقام الهواتف وما إلى ذلك محظورة أيضًا في ملف robots.txt.
  4. و الصفحات ذات المعرفات، على سبيل المثال ، باستخدام علامات utm ، من المفيد أيضًا حظر الزحف في ملف robots.txt باستخدام التوجيه Clean-param.

إذا كنت تواجه سؤالاً حول ما إذا كان من الضروري المنع أو ما إذا كان يجب فتح هذه الصفحة لتجاوزها ، فأجب عن نفسك سؤالًا بسيطًا: ما إذا كان المستخدمون بحاجة إلى هذه الصفحةمحرك البحث؟ إذا كان يجب ألا تكون هذه الصفحة قيد البحث عن استفسارات ، فيمكن حظرها.

وحالة عملية صغيرة ، آمل أن تحفزك. انظر ، في أحد الموارد ، يقوم الروبوت بعمل ما يقرب من آلاف الزيارات يوميًا للصفحات التي تتم إعادة توجيهها. في الواقع ، كانت صفحات إعادة التوجيه عبارة عن صفحات إضافة إلى عربة التسوق.

نجري تغييرات على ملف robots.txt ويمكن أن نرى على الرسم البياني أن الوصول إلى هذه الصفحات قد اختفى عمليًا. في الوقت نفسه ، زادت الديناميكيات الإيجابية على الفور - تجاوز الصفحات الضرورية في هذه الصفحة من السهوب برمز 200 بشكل كبير.

- تكرار الصفحات في الموقع وكيفية العثور عليها وماذا تفعل بها

وهنا ينتظرك خطر آخر - هذا هو الصفحة مكررة. نعني بالنسخ المكررة عدة صفحات من نفس الموقع والتي تتوفر في عناوين مختلفة ، ولكنها تحتوي في نفس الوقت على محتوى متطابق تمامًا. يتمثل الخطر الرئيسي للنسخ المكررة في أنه في حالة وجودها ، يمكن تغيير نتائج البحث. يمكن لصفحة ما الوصول إلى عنوان لا تحتاجه ، والتنافس مع الصفحة الرئيسية التي تروج لها لأية استفسارات. بالإضافة إلى ذلك ، فإن وجود عدد كبير من الصفحات المكررة يجعل من الصعب على روبوت الفهرسة تجاوز الموقع. بشكل عام ، فإنهم يجلبون الكثير من المشاكل.

أعتقد أن جميع مشرفي المواقع تقريبًا على يقين من عدم وجود صفحات مكررة على مواردهم. اريد ان ازعجك قليلا. في الواقع ، هناك نسخ مكررة في جميع المواقع تقريبًا في RuNet. ؟ لدي مقال مفصل حول هذا الموضوع ، وبعد قراءته ، لن يتبقى لديك سؤال واحد.

- التحقق من كود استجابة الخادم

بالإضافة إلى ملف robots.txt ، أود إخبارك برموز استجابة http الصحيحة. يبدو أيضًا أنها أشياء قيلت بالفعل أكثر من مرة. رمز استجابة http نفسه هو حالة صفحة محددة لروبوت الفهرسة.

  1. http-200 - يمكن فهرسة الصفحة وتمكين البحث.
  2. http-404 يعني أن الصفحة قد تم حذفها.
  3. http-301 - الصفحة التي تمت إعادة توجيهها.
  4. http-503 - غير متاح مؤقتًا.

ما هي ميزة استخدام أداة أكواد HTTP الصحيحة:

  1. أولاً ، لن يكون لديك أبدًا روابط معطلة مختلفة لموردك ، أي تلك الروابط التي تؤدي إلى صفحات لا تستجيب برمز استجابة 200. إذا لم تكن الصفحة موجودة ، فسيفهم الروبوت رمز الاستجابة 404.
  2. ثانيًا ، سيساعد الروبوت في التخطيط لتجاوز الصفحات الضرورية حقًا التي تستجيب برمز استجابة 200.
  3. وثالثًا ، سيسمح لك بتجنب إدخال العديد من القمامة في نتائج البحث.

حول هذا فقط الشاشة التالية هي أيضًا من الممارسة. أثناء عدم توفر المورد والعمل الفني ، يتلقى الروبوت كعبًا برمز استجابة http من 200. هذا هو بالضبط وصف هذا العنصر الذي تراه في نتائج البحث.

نظرًا لأن الصفحة تستجيب برمز استجابة 200 ، يتم إرجاعها. بطبيعة الحال ، لا يمكن تحديد موقع الصفحات التي تحتوي على مثل هذا المحتوى وعرضها لأي طلبات. في هذه الحالة ، سيكون الإعداد الصحيح هو استجابة 503 http. إذا كانت الصفحة أو المورد غير متاح مؤقتًا ، سيمنع رمز الاستجابة هذا استبعاد الصفحات من نتائج البحث.

في ما يلي المواقف التي يتعذر فيها على الروبوت الخاص بنا الوصول إلى صفحاتك المهمة والضرورية من مواردك ، على سبيل المثال ، يستجيبون برمز 503 أو 404 ، أو يعودون إلى هذا كعب الروتين بدلاً من ذلك.

يمكن تتبع مثل هذه المواقف باستخدام الأداة "صفحات مهمة". أضف إليها تلك الصفحات التي تجلب أكبر عدد من الزيارات إلى مواردك. إعدادات الإخطارات إلى البريد وإما إلى الخدمة وستتلقى معلومات حول ما يحدث مع هذه الصفحة. ما هو كود ردها ، ما هو عنوانها ، متى تمت زيارتها وما هي حالتها في نتائج البحث.


يمكنك التحقق من صحة إرجاع رمز استجابة معين باستخدام الأداة المناسبة في Yandex Webmaster (هنا). في هذه الحالة ، نتحقق من رمز الاستجابة للصفحات غير الموجودة. توصلت إلى صفحة وقادتها إلى الأداة ، وضغطت على زر الاختيار وحصلت على استجابة 404.

كل شيء على ما يرام هنا ، نظرًا لعدم توفر الصفحة ، تم الرد عليها بشكل صحيح برمز 404 ولن يتم تضمينها في البحث بعد الآن. نتيجة لذلك ، من أجل الحد من زيارة برامج الروبوت لصفحات غير ضرورية في الموقع ، استخدم أداة إحصائيات التجاوز بنشاط ، وقم بإجراء تغييرات على ملف robots.txt وتأكد من أن الصفحات تعرض رمز استجابة http الصحيح.

- تلخيص لما سبق

أعطينا الروبوت الصفحة الصحيحة للموقع مع المحتوى. لقد توصلنا إلى أنه تمت فهرسته بسرعة. لقد منعنا الروبوت من فهرسة الصفحات غير الضرورية. كل هذه المجموعات الثلاث الكبيرة من المهام مترابطة.. بمعنى ، إذا لم يكن الروبوت مقصورًا على فهرسة صفحات الخدمة ، فعلى الأرجح ، سيكون لديه وقت أقل لفهرسة الصفحات الضرورية للموقع.

إذا لم يستقبل الروبوت محتوى الصفحات المطلوبة بالكامل ، فلن يقوم بتضمين هذه الصفحات في نتائج البحث بسرعة. أي أنك تحتاج إلى العمل على فهرسة الموارد الخاصة بك في معقد ، في كل هذه المهام الثلاث. وفي هذه الحالة ، ستحقق بعض النجاح حتى تصل الصفحات المطلوبة بسرعة إلى نتائج البحث.

يجيب مسؤول ياندكس

تم تضمين الصفحات ذات الأحرف الكبيرة في الفهرس ، على الرغم من حقيقة أن الموقع لا يحتوي على مثل هذه الصفحات.إذا كانت الصفحات بأحرف كبيرة ، فمن المرجح أن الروبوت قد عثر على روابط لها في مكان ما على الإنترنت. تحقق من موقعك أولاً ، فمن المرجح أن يتم تثبيت ارتباط غير صحيح في مكان ما على الإنترنت. جاء الروبوت ورآه وبدأ في تنزيل الصفحة بأحرف كبيرة. بالنسبة لهم ، بالنسبة لمثل هذه الصفحات ، من الأفضل استخدام عمليات إعادة التوجيه 301.

يحتوي ملف Sitemap على صفحات متعددة - هل هذا طبيعي؟إذا كنا نتحدث عن ملف Sitemap ، أي تنسيق خاص لخريطة الموقع يمكنك من خلاله تحديد روابط لملفات خريطة الموقع الأخرى ، فهذا أمر طبيعي بالطبع.

إذا قمت بوضع روابط لجميع أقسام الدليل في أسفل الموقع ، والتي يتم عرضها في جميع الصفحات ، فهل ستساعد في الفهرسة أو الإضرار؟ في الواقع ، لست بحاجة إلى القيام بذلك على الإطلاق ، أي إذا لم يكن زوار موقعك في حاجة إليه ، فلن تحتاج إلى القيام بذلك على وجه التحديد. يكفي ملف خريطة موقع بسيط. سوف يكتشف الروبوت وجود كل هذه الصفحات وإضافتها إلى قاعدة البيانات الخاصة به.

هل أحتاج إلى تحديد معدل التحديث في خريطة الموقع؟يمكن استخدام ملف خريطة الموقع لتمرير معلومات إضافية إلى روبوت الفهرسة. بالإضافة إلى العناوين نفسها ، يتعرف الروبوت أيضًا على بعض العلامات الأخرى. أولاً ، هذا هو تردد التحديث ، أي تكرار التحديث. هذه هي أولوية الزحف وتاريخ آخر تعديل. يأخذ كل هذه المعلومات من ملف خريطة الموقع عند معالجة الملف ويضيفه إلى قاعدة البيانات الخاصة به ويستخدمه لاحقًا لضبط سياسات التجاوز.

هل من الممكن الاستغناء عن خريطة الموقع؟نعم ، تأكد من أن موقعك يحتوي على تنقل شفاف بحيث تحتوي أي صفحة داخلية على روابط يمكن الوصول إليها. لكن ضع في اعتبارك أنه إذا كان هذا موردًا جديدًا (من المؤلف: اقرأ عن كيفية بدء تشغيل موقع جديد) ، على سبيل المثال ، توجد بعض الصفحات في عمق موقعك ، على سبيل المثال ، في 5-10 نقرات ، فإن الروبوت سيستغرق الكثير من الوقت لمعرفة مدى توفره. أولاً ، قم بتنزيل الصفحة الرئيسية للموقع ، واحصل على روابط ، ثم قم مرة أخرى بتنزيل تلك الصفحات التي تعرف عليها ، وما إلى ذلك. يسمح لك ملف Sitemap بنقل معلومات حول جميع الصفحات إلى الروبوت مرة واحدة.

يقوم الروبوت بعمل 700 ألف طلب يوميًا للصفحات غير الموجودة.بادئ ذي بدء ، عليك أن تفهم من أين أتت هذه الصفحات غير الموجودة. ربما تم استخدام الروابط ذات الصلة بشكل غير صحيح على موقعك ، أو تمت إزالة قسم ما نهائيًا من الموقع ويستمر الروبوت في فحص هذه الصفحات على أي حال. في هذه الحالة ، يجب عليك ببساطة تعطيلها في ملف robots.txt. في غضون 12 ساعة ، سيتوقف الروبوت عن الوصول إلى هذه الصفحات.

إذا تمت فهرسة صفحات الخدمة ، كيف يمكنني إزالتها من البحث.استخدم أيضًا ملف robots.txt لإزالة الصفحات من نتائج البحث. أي ، لا يهم إذا قمت بتعيين الحظر عند إنشاء موقعك ، أو عند بدء تشغيل المورد. ستختفي الصفحة من نتائج البحث خلال أسبوع.

هل ملف Sitemap الذي يتم إنشاؤه تلقائيًا جيدًا أم لا؟في معظم الحالات ، يتم إنشاء جميع ملفات Sitemap تلقائيًا ، لذا يمكننا القول أن هذا قد يكون جيدًا. لا تحتاج إلى فعل شيء بيديك ويمكنك الانتباه إلى شيء آخر.

كيف سيتم فهرسة الصفحة إذا تم جعلها أساسية لنفسها. إذا كانت السمة الأساسية تؤدي إلى الصفحة نفسها؟ هل هذه الصفحة تعتبر أساسية؟ ستتم فهرستها عادةً وإدراجها في نتائج البحث ، أي أنه من الصحيح تمامًا استخدام هذه التقنية.

ماذا تعني الحالة "غير المتعارف عليها"؟ دبليوتبدأ الصفحة بمجموعة السمات الأساسية ، مما يؤدي إلى صفحة أخرى على موقعك. لذلك ، لن تتمكن هذه الصفحة من الدخول في البحث. افتح الكود المصدري للصفحة ، وقم بإجراء بحث ، وانظر إلى أماكن العملاء المتوقعين الأساسيين ، وتحقق من الصفحة الأساسية في البحث.

ما هو الأصح أن يتم حظر صفحة عربة التسوق في ملف robots.txt أو noindex؟إذا تم تعطيل الصفحة باستخدام طريقة noindex ، فسيقوم الروبوت بزيارتها بشكل دوري والتحقق من هذا الحظر. لمنع الروبوت من القيام بذلك ، من الأفضل استخدام الحظر في ملف robots.txt.


أرك لاحقا! افعل كل شيء ودائمًا على صفحات موقع المدونة

ساعد المشروع - اشترك في قناة Yandex.Zen الخاصة بنا!

كل شيء بسيط للغاية مع Google. تحتاج إلى إضافة موقعك إلى أدوات مشرفي المواقع في https://www.google.com/webmasters/tools/، ثم حدد الموقع المضاف ، وبالتالي الدخول إلى Search Console في موقعك. بعد ذلك ، في القائمة اليمنى ، حدد قسم "المسح" ، وفيه عنصر "عرض كـ Googlebot".

في الصفحة التي تفتح ، في الحقل الفارغ ، أدخل عنوان الصفحة الجديدة التي نريد فهرستها بسرعة (مع مراعاة اسم المجال الذي تم إدخاله بالفعل للموقع) وانقر فوق الزر "مسح" الموجود على اليمين. نحن ننتظر الصفحة ليتم مسحها ضوئيًا وتظهر في أعلى جدول العناوين التي تم مسحها ضوئيًا مسبقًا بهذه الطريقة. بعد ذلك ، انقر فوق الزر "إضافة إلى الفهرس".

رائع ، يتم فهرسة صفحتك الجديدة على الفور بواسطة Google! في غضون دقيقتين ستتمكن من العثور عليه في نتائج بحث Google.

فهرسة سريعة للصفحات في Yandex

في الإصدار الجديد من أدوات مشرفي المواقع أصبحت متاحة أداة مماثلةلإضافة صفحات جديدة إلى الفهرس. وفقًا لذلك ، يجب أيضًا إضافة موقعك مسبقًا إلى Yandex Webmaster. يمكنك أيضًا الوصول إلى هناك عن طريق تحديد الموقع المطلوب في مشرف الموقع ، ثم الانتقال إلى قسم "الفهرسة" ، وحدد عنصر "إعادة الزحف إلى الصفحة". في النافذة التي تفتح ، أدخل عناوين الصفحات الجديدة التي نريد فهرستها بسرعة (باستخدام ارتباط في سطر واحد).

على عكس Google ، لا تحدث الفهرسة في Yandex على الفور بعد ، لكنها تحاول السعي لتحقيق ذلك. من خلال الإجراءات المذكورة أعلاه ، ستبلغ روبوت Yandex بالصفحة الجديدة. وستتم فهرستها في غضون نصف ساعة أو ساعة - هكذا تظهر عملي شخصيًا. ربما تعتمد سرعة فهرسة الصفحات في Yandex على عدد من المعلمات (على سمعة مجالك و / أو حسابك و / أو غيرها). في معظم الحالات ، يمكن إيقاف هذا.

إذا رأيت أن صفحات موقعك مفهرسة بشكل سيئ بواسطة Yandex، أي بعض التوصيات العامة حول كيفية التعامل مع هذا:

  • أفضل توصية ، ولكنها أيضًا أصعبها ، هي تثبيت Yandex speedbot على موقعك. للقيام بذلك ، من المستحسن إضافة مواد جديدة إلى الموقع كل يوم. يفضل 2-3 مواد أو أكثر. وأضفهم ليس مرة واحدة ، ولكن بعد فترة ، على سبيل المثال ، في الصباح وبعد الظهر والمساء. سيكون من الأفضل اتباع نفس الجدول الزمني للنشر تقريبًا (الحفاظ تقريبًا على نفس الوقت لإضافة مواد جديدة). أيضًا ، يوصي العديد من الأشخاص بإنشاء موجز RSS للموقع حتى تتمكن روبوتات البحث من قراءة التحديثات مباشرة منه.
  • بطبيعة الحال ، لن يتمكن الجميع من إضافة مواد جديدة إلى الموقع بمثل هذه الأحجام - إنه لأمر جيد إذا كان بإمكانك إضافة 2-3 مواد في الأسبوع. في هذه الحالة ، لا يمكنك أن تحلم بسرعة Yandex بشكل خاص ، ولكن حاول دفع صفحات جديدة إلى الفهرس بطرق أخرى. وأكثرها فاعلية هو نشر روابط لصفحات جديدة في حسابات تويتر التي تمت ترقيتها. بمساعدة برامج خاصة مثل Twidium Accounter ، يمكنك "ضخ" عدد حسابات Twitter التي تحتاجها واستخدامها لدفع صفحات جديدة من الموقع بسرعة إلى فهرس محرك البحث. إذا لم تكن لديك الفرصة لنشر روابط إلى حسابات Twitter التي تمت ترقيتها بنفسك ، فيمكنك شراء هذه المنشورات من خلال التبادلات الخاصة. ستكلف مشاركة واحدة مع الرابط الخاص بك في المتوسط ​​من 3-4 روبل وأكثر (حسب برودة الحساب المختار). لكن هذا الخيار سيكون مكلفًا للغاية.
  • الخيار الثالث للفهرسة السريعة هو استخدام خدمة http://getbot.guru/ ، والتي ستساعدك مقابل 3 روبل فقط في تحقيق التأثير المطلوب بنتيجة مضمونة. مناسب تمامًا للمواقع ذات الجدول الزمني النادر لإضافة منشورات جديدة. هناك أيضا أسعار أرخص. من الأفضل عرض التفاصيل والاختلافات بينهما على موقع الويب الخاص بالخدمة نفسها. أنا شخصياً راضٍ جدًا عن خدمات هذه الخدمة كمسرّع فهرسة.

بالطبع ، يمكنك أيضًا إضافة منشورات جديدة إلى الإشارات المرجعية الاجتماعية ، والتي يجب أن تساهم نظريًا أيضًا في الفهرسة السريعة للموقع. لكن فعالية هذه الإضافة ستعتمد أيضًا على مستوى حساباتك. إذا كان لديك القليل من النشاط عليها وكنت تستخدم حساباتك فقط لمثل هذه الرسائل غير المرغوب فيها ، فلن يكون هناك عمليا أي ناتج مفيد.

ملاحظة.مع خبرة واسعة يتم تحديثها دائمًا - اتصل بنا!

(13 )

إذا كنت تريد معرفة ما إذا كانت صفحة معينة مفهرسة بواسطة محرك بحث وكم عدد صفحات موقعك التي يتم البحث عنها إجمالاً ، فيجب أن تتعرف على أسهل أربع طرق للتحقق من فهرسة موقع يستخدمه جميع المتخصصين في تحسين محركات البحث.

في عملية فهرسة البوابة الإلكترونية ، يقوم روبوت البحث أولاً بمسحها ضوئيًا ، أي يتجاوزها لدراسة المحتوى ، ثم يضيف معلومات حول مورد الويب إلى قاعدة البيانات. ثم يقوم نظام البحث بإنشاء بحث عن قواعد البيانات هذه. لا تخلط بين الزحف والفهرسة - فهما شيئان مختلفان.

لفهم عدد صفحات مشروعك التي لم تتم فهرستها ، تحتاج إلى معرفة العدد الإجمالي لهذه الصفحات. سيسمح لك ذلك بفهم مدى سرعة فهرسة موقعك. بل إنني مهتم في القراءة أكثر:

  1. عرض خريطة الموقع.سوف تجده في: your_site_name.ru/sitemap.xml. هنا ، بشكل أساسي ، يتم عرض جميع الصفحات المستضافة على المورد. لكن في بعض الأحيان قد لا يتم إنشاء ملف Sitemap بشكل صحيح ، وقد لا تكون بعض الصفحات فيه.
  2. استخدم برنامج خاص.تقوم هذه البرامج بالزحف إلى موقعك بالكامل وتعطي جميع صفحات موقعك ، ومن الأمثلة على هذه البرامج Screaming Frog Seo (مدفوع) أو Xenus Links Sleuth (مجاني).

طرق للتحقق من فهرسة الموقع

نلفت انتباهك إلى الطرق الأربع الأكثر شيوعًا وبساطة للتحقق من الصفحات الموجودة في الفهرس وأيها غير موجود.

1. من خلال لوحة المسؤول عن الموقع

باستخدام هذه الطريقة ، يتحقق مالكو موارد الويب من وجودهم في البحث في أغلب الأحيان.

ياندكس

  1. سجّل الدخول إلى Yandex.Webmaster.
  2. اذهب إلى القائمة "فهرسة الموقع".
  3. تحتها تجد الخط "صفحات في البحث".

يمكنك أيضًا الذهاب إلى الاتجاه الآخر:

  1. يختار "فهرسة الموقع".
  2. انتقل بعد ذلك إلى "تاريخ".
  3. ثم انقر فوق علامة التبويب "صفحات في البحث".

بالطريقتين الأولى والثانية ، يمكنك دراسة ديناميكيات النمو أو الانخفاض في عدد الصفحات في محرك البحث.

غوغل

  1. انتقل إلى لوحة تحكم الخدمة أدوات مشرفي المواقع من Google.
  2. انقر فوق علامة التبويب Search Console.
  3. اذهب إلى "فهرسغوغل".
  4. انقر فوق أحد الخيارات "حالة الفهرسة".

2. من خلال مشغلي محركات البحث

أنها تساعد في تحسين نتائج البحث الخاصة بك. على سبيل المثال ، يسمح لك استخدام عامل التشغيل "site" بمشاهدة العدد التقريبي للصفحات الموجودة بالفعل في الفهرس. للتحقق من هذه المعلمة ، في شريط بحث Yandex أو Google ، أدخل: "الموقع: url_of_your_site".


الأهمية!إذا كانت النتائج في Google و Yandex تختلف اختلافًا كبيرًا ، فهذا يعني أن موقعك يعاني من بعض المشكلات المتعلقة بهيكل الموقع ، أو الصفحات المهملة ، أو الفهرسة ، أو التي تم فرض عقوبات عليها.

للبحث ، يمكنك أيضًا استخدام أدوات إضافية ، على سبيل المثال ، لمعرفة كيفية تغير فهرسة الصفحات خلال فترة زمنية معينة. للقيام بذلك ، أسفل شريط البحث ، انقر فوق علامة التبويب "ادوات البحث"وحدد فترة ، على سبيل المثال ، "لمدة 24 ساعة".

3. من خلال الإضافات والإضافات

باستخدام برامج خاصة ، سيتم التحقق من فهرسة مورد الويب تلقائيًا. يمكن القيام بذلك باستخدام الإضافات والإضافات ، والمعروفة أيضًا باسم الإشارات المرجعية. إنها برامج جافا سكريبت يتم تخزينها في المتصفح كإشارات مرجعية قياسية.

تتمثل ميزة الإضافات والإضافات في أن مشرف الموقع لا يحتاج إلى إعادة إدخال محرك البحث في كل مرة وإدخال عناوين الموقع وعوامل التشغيل وما إلى ذلك. ستعمل البرامج النصية كل شيء تلقائيًا.

أكثر المكونات الإضافية شيوعًا المستخدمة لهذا الغرض هي شريط RDS ، والذي يمكن تنزيله من متجر التطبيقات في أي متصفح.

تجدر الإشارة إلى أن البرنامج المساعد يحتوي على ميزات أكثر بكثير في Mozilla Firefox مقارنة بالمتصفحات الأخرى. يوفر شريط RDS معلومات حول موقع الويب بأكمله وصفحاته الفردية

في المذكرة.هناك إضافات مدفوعة ومجانية. وأكبر عيب في المكونات الإضافية المجانية هو أنك تحتاج بانتظام إلى إدخال رمز التحقق (captcha) فيها.

لا يمكنك تجاهل التطبيق المختصر "فحص الفهرسة". لتمكين البرنامج ، ما عليك سوى سحب الرابط إلى شريط المتصفح ، ثم تشغيل البوابة الإلكترونية والنقر فوق علامة تبويب الامتداد. لذلك ستفتح علامة تبويب جديدة مع Yandex أو Google ، حيث ستدرس المعلومات الضرورية المتعلقة بفهرسة صفحات معينة.

4. مع خدمات خاصة

أنا أستخدم خدمات الجهات الخارجية بشكل أساسي ، لأنها تعرض بوضوح الصفحات الموجودة في الفهرس وأيها غير موجود.

خدمة مجانية

https://serphunt.ru/indexing/ - هناك شيك ، لكل من Yandex و Google. يمكنك فحص ما يصل إلى 50 صفحة يوميًا مجانًا.

خدمة مدفوعة

من بين الشركات المدفوعة ، أحب Topvisor أكثر - التكلفة 0.024 روبل. للتحقق من صفحة واحدة.

تقوم بتحميل جميع صفحات موقعك على الخدمة وستظهر لك أيها في فهرس محرك البحث وأيها غير موجود.

خاتمة

الهدف الرئيسي لمالك أي مورد ويب هو تحقيق فهرسة لجميع الصفحات التي ستكون متاحة للبحث عن الروبوتات لمسح المعلومات ونسخها في قاعدة البيانات. قد يكون تنفيذ هذه المهمة على موقع كبير أمرًا صعبًا للغاية.

ولكن مع النهج المتكامل الصحيح ، أي تحسين كفاءة محركات البحث ، والملء المنتظم للموقع بمحتوى عالي الجودة والمراقبة المستمرة لعملية تضمين الصفحات في فهرس محرك البحث ، يمكنك تحقيق نتائج إيجابية. للقيام بذلك ، تحدثنا في هذه المقالة عن أربع طرق للتحقق من فهرسة الموقع.

اعلم أنه إذا بدأت الصفحات في الخروج من البحث بشكل مفاجئ ، فهناك خطأ ما في مواردك. لكن غالبًا لا تكمن المشكلة في عملية الفهرسة ، بل في عملية التحسين نفسها. هل تريد الفهرسة والوصول بسرعة إلى نتائج البحث الأعلى؟ قدم محتوى جمهورك المستهدف الذي يتفوق على منافسيك.

بالنسبة إلى المواقع الحديثة ، تعتبر الفهرسة السريعة في محركات البحث مهمة بشكل خاص. لأنه ليس له وزن معين (أو "ثقة") حتى الآن. من المهم بشكل خاص في الأشهر الأولى من عمر الموقع تحديثه بانتظام. يجب أن يكون المحتوى عالي الجودة أيضًا.

فهرسة سريعة لموقع جديد في Yandex

من أجل فهرسة موقعك الجديد بسرعة في Yandex ، تحتاج إلى إضافته إلى Yandex Webmaster. بعد ذلك ، حدد "الفهرسة" -> كتلة "إعادة الزحف إلى الصفحة" (انظر الشكل).

الزحف إلى الصفحة في Yandex Webmaster

بالنسبة إلى الموقع الشاب ، تأكد من تضمين الصفحة الرئيسية في هذه القائمة. هناك حالات متكررة عندما يزور الروبوت الصفحة الرئيسية ويفهرس جميع الروابط الداخلية منها. يمكن فهرسة أكثر من 20 صفحة بهذه الطريقة.

فهرسة سريعة للموقع في جوجل

وبالمثل مع Yandex ، لتسريع فهرسة موقع جديد في Google ، يجب إضافته إلى Google Webmaster (Google Search Console). تحتاج إلى تحديد علامة التبويب "مظهر" -> "عرض باسم GoogleBot".

عرض الميزة مثل GoogleBot

وفي النموذج الذي يفتح ، أدخل عنوان الصفحة المطلوبة ، وانقر على "مسح". بعد ذلك ، ستظهر لك نتيجة الزحف إلى الصفحة وسيظهر الزر السحري "طلب الفهرسة".

فهرسة طلب الوظيفة

انقر فوق الزر وسترى شيئًا مثل هذه النافذة:

كيفية فهرسة موقع على جوجل

هنا ، تأكد من تحديد "الزحف إلى عنوان URL هذا والروابط المباشرة". في هذه الحالة ، سيحاول الروبوت الزحف إلى جميع الروابط الداخلية على الصفحة التي حددتها. مع درجة عالية من الاحتمال ، سيدخلون جميعًا فهرس Google في أسرع وقت ممكن!

فهرسة موقع جديد على مجال قديم

في هذه الحالة ، المهمة ليست تافهة كما تبدو. في المجالات ذات المحفوظات ، غالبًا ما يكون من الصعب فهرسة موقع جديد. قد تستغرق هذه العملية أسابيع أو شهور. يعتمد ذلك على تاريخ المجال: ما إذا كانت العقوبات قد فُرضت عليه سابقًا وأيها.

مخطط الإجراءات في هذه الحالة بسيط:

  • أضف موقعًا إلى Yandex و Google webmaster
  • طلب إعادة الفهرسة من خلال الوظيفة المناسبة
  • انتظر 2-3 تحديثات.
  • إذا لم يتغير شيء ، فاكتب لدعم هذه المشكلة وحلها على أساس فردي.

طرق تسريع فهرسة المواقع الحديثة

بالإضافة إلى الطرق التي أشرت إليها أعلاه ، هناك العديد من الطرق الأخرى التي تعمل:

  1. مشاركة المواد على الشبكات الاجتماعية. أوصي باستخدام ما يلي: Vkontakte و Facebook و Twitter و Google+ (على الرغم من حقيقة أن شبكة Google الاجتماعية ميتة بالفعل ، إلا أنها تساعد في تسريع فهرسة الصفحات الجديدة)
  2. تحديثات منتظمة للموقع. بمرور الوقت ، يجمع الموقع إحصاءات حول نشر المواد الجديدة ، ويساعد في فهرسة الصفحات الجديدة. قم بالتحديث بانتظام وربما ستتمكن من "إطعام القارب السريع" (في هذه الحالة ، ستستغرق فهرسة الصفحات الجديدة من 1 إلى 10 دقائق).
  3. للمواقع الإخبارية: قم بتسجيل الدخول إلى Yandex News. هذا ليس صعبًا كما قد يبدو ، لكن التأثير سيكون مذهلاً. في جميع المواقع من Yandex News ، يوجد روبوت سريع.
  4. بنية داخلية كفؤة للموقع. تأكد من استخدام الروابط والمواد العلوية وما إلى ذلك. تؤدي زيادة عدد الروابط الداخلية على الصفحة (ضمن حدود معقولة) إلى تسريع عملية الفهرسة

فهرسة سريعة للصفحات الجديدة للموقع القديم

سؤال وجواب حول فهرسة المواقع الحديثة

هل لديك تساؤلات حول فهرسة المواقع الشابة؟ اسألهم في التعليقات!

س: هل يجب إغلاق موقع جديد من الفهرسة؟
ج: أوصي بعدم تعريض موقعك لبرامج الزحف حتى يتم ملؤه بمحتوى بداية. كما تظهر ممارستي ، فإن الأمر يستغرق وقتًا أطول بكثير لإعادة فهرسة الصفحات الحالية بدلاً من فهرسة الصفحات الجديدة.

س: ما الوقت الذي تستغرقه Yandex لفهرسة موقع جديد؟
ج: في المتوسط ​​، يكون التحديث 1-2 (من 1 إلى 3 أسابيع). لكن المواقف قد تكون مختلفة.

س: ما هي المشاكل التي يمكن أن توجد في فهرسة موقع شاب؟
ج: ربما تكون المشكلة الرئيسية هي المحتوى السيئ. لهذا السبب ، قد لا تتم فهرسة الموقع. كانت هناك أيضًا حالات تم فيها نشر موقع صغير ولكنه كبير يحتوي على آلاف الصفحات. لا يزال البحث يحتوي على ذكريات عن المداخل ، لذا فإن المواقع الحديثة التي تحتوي على آلاف الصفحات لها "موقف خاص".

س: كم عدد الصفحات لفتح موقع جديد للفهرسة وكم مرة يتم تحديثها؟
ج: يمكنك فتح موقع للفهرسة من صفحة واحدة. من المهم اتباع قاعدة بسيطة: لا تنشر على الفور آلاف الصفحات على الموقع ، لأن. يمكن اعتبار ذلك بريدًا عشوائيًا في محرك البحث ، ويتم إضافة مواد جديدة بانتظام إلى الموقع. دع مادة واحدة في 3 أيام ، ولكن بانتظام! انها مهمة جدا!

س: كم مرة تقوم مواقع فهرس Yandex؟
ج: وفقًا لمعلومات Yandex الرسمية ، يمكن أن تتراوح وتيرة الفهرسة من يومين إلى عدة أسابيع. وعن طرق التسارع مكتوب أعلاه.



أحب المقال؟ أنشرها