المبتغى من تأسيس أي موقع إلكتروني طول الوقتً ما يكون اجتذاب الزائرين من غير مشابه المصادر ومن غير شك أكثر أهمية مصدر يقوم بتغيير الزائرين لموقعك هو مواقع البحث في الإنترنت وخصوصا محرك بحث جوجل.
يبقى بعض الملفات والمواصفات التي يلزم أن تقوم بإنشائها وتعديلها حتى تجعل موقعك متوافق مع مواقع البحث في الإنترنت وتُيسير عملية مشاهدة عناكب مواقع البحث في الإنترنت لمقالات وصفحات موقعك، ويعد أكثر أهمية ملفين يلزم أن تقوم بإدراجهم في موقعك هم: Sitemap.Xml & Robots.Txt ولكن ما هي تلك الملفات وما نفع كل منهما ؟!
Sitemap.Xml
ملف sitemap هو لائحة بجميع روابط الصفحات ( URL ) المتواجدة بموقعك ولكن بأسلوب ممنهجة حتى توضح لمحركات البحث أين تبقى كل صفحة وتوضح هيكل موقعك كما هو مبين بالصورة الأمر الذي ييسر على مواقع البحث في الإنترنت أن تقوم بأرشفة جميع صفحات الموقع.
كيف تقوم بتأسيس ملف sitemap ؟
لا تتشابه الكيفية وفق نوع موقعك تقنياً، فإذا كنت تستخدم واحد من أنظمة إدارة المحتوى مثل WordPress فيمكنك إستعمال إضافة Yoast التي سوف تقوم بضبط الكثير من الإعدادات في موقعك ومن بينهم عمل ملف الـ sitemap.
أما إذا كنت تستخدم منصة Blogger أو تستخدم موقع تم برمجته من الصفر من قبل واحد من المبرمجين فأنت تتطلب إلى تأسيس الملف بنفسك ورفعه على موقعك.
في تلك الوضعية تَستطيع الاستعانة بأحد المختصين التقنيين للقيام بالأمر، أو تَستطيع تأسيس الملف بنفسك، وطبعا لن تقوم بكتابة أكواد الملف يدوياً حيث تَستطيع إستعمال واحد من الأدوات التي تقوم بتلك الهامة مثل وسيلة ScreamingFrog التي توفر الكثير من الوظائف ولكننا سنستخدمها هذه اللحظة في عمل ملف sitemap لاغير.
يبقى من البرنامج نسختين، أحدهما بلا مقابل والأخرى مدفوعة ولكننا لا نفتقر النسخة المدفوعة هذه اللحظة.
سنقوم بتحميل البرنامج بالنسخة المجانية وبعد هذا سنقوم بكتابة وصلة الموقع الأساسي
ثم نقوم برفع الملف على الاستضافة فى المجرى الأساسي.
في أعقاب هذا نقوم بالدخول إلى Google search console ( وسنقوم بشرح ما هو Google search console بعد وقت قصير ) ثم ندخل إلى Crawl ثم sitemaps ونقوم برفع الملف الذي أنشأناه مرة ثانية.
وبالتالي تكون قد انتهيت من أفضَل ملف يلزم أن يكون بموقعك.
كيف نقوم بتأسيس ملف Robots.Txt ؟
نقوم بتأسيس ذلك الملف يدوياً حيث لا يتشابه من موقع لآخر، ويفضل الإستعانة بشخص مختص فى ميدان تهيئة مواقع البحث في الإنترنت لإنشائه.
وإذا كنت ترغب في أن تقوم بتأسيس الملف بنفسك فإليك الكيفية التي من الممكن أن سلس بها الشأن:
1- نستخدم أي محرر مقالات لعمل الملف وحفظه بصيغة txt.
2- نقوم بالكتابة في الملف ويتكون محتوى الملف من فرعين:
الفرع الأول : وضع النُّظُم أو السماح للروبوتات بأرشفة صفحة أو عدم أرشفتها ويحدث هذا كما في المثال الأتي:
# Rule 1
User-agent: Googlebot
Disallow: /nogooglebot/
تتألف كل قاعدة أو إذن من 3 أجزاء، الأول هو User-agent ثم يليه اسم الربوت ، والجزء الثاني هو السماح للروبوت أو منعه بواسطة كلمة allow أو disallow ، والجزء الثالث هو المجرى (أو الصفحة) المراد أرشفته أو عدم أرشفته.
فيكون تفسير القاعدة المتواجدة أعلاه على النحو التالي : الربوت الذي يطلق عليه Googlebot لا تسمح له بأرشفة صفحة nogooglebot حتى لا تبدو في مواقع البحث في الإنترنت.
وبذلك سوف تقوم بتصفح ملفات موقعك وتحديد كل صفحة إذا ما كان يلزم أرشفتها أم لا، ثم تقوم بكتابة أمر لكل صفحة لا ترغب في أرشفتها
وبعد هذا تكتب أمر واحد يقوم بالسماح للروبوت بأرشفة بقية صفحات الموقع وهو:
# Rule 2
User-agent: *
Allow: /
الفرع الثاني: هو تحديد موضع ملف sitemap للروبوت بواسطة وضع الوصلة المخصص به مثل Sitemap: http://www.Example.Com/sitemap.Xml
ملحوظة: من الجائز أن يتضمن الموقع على زيادة عن ملف sitemap إلى أن ينتهي تفسير هيكل الموقع لمحركات البحث بصورة أكثر سهولة وأكثر تنظيماً، ولكن لا من الممكن أن يتضمن الموقع على أكثر من ملف Robots .
وتذكر أنك إذا كنت تستخدم إضافة Yoast في wordpress فستقوم الإضافة بفعل ملف Robots تلقائياً دون أي مجهود من ناحيتك.
في أعقاب تأسيس ملفي sitemap و Robots سنقوم بتكملة بقية إعدادات الموقع وتتمثل في:
Google Analytics


0 تعليقات