التصنيفات
سيو

ماهو SEO معلومات عن تحسين محركات البحث او السيو

تحسين محرك البحث ( SEO ) هو عملية تحسين جودة وكمية حركة مرور موقع الويب إلى موقع ويب أو صفحة ويب من محركات البحث .  يستهدف تحسين محركات البحث او السيو الزيارات غير المدفوعة (المعروفة باسم النتائج “الطبيعية” أو ” العضوية “) بدلاً من الزيارات المباشرة أو الزيارات المدفوعة . قد تنشأ حركة المرور غير المدفوعة من أنواع مختلفة من عمليات البحث ، بما في ذلك البحث عن الصور ، والبحث عن الفيديو ، والبحث الأكاديمي ،  والبحث عن الأخبار ، ومحركات البحث العمودية الخاصة بالصناعة .

كإستراتيجية تسويق عبر الإنترنت ، تضع مُحسّنات محرّكات البحث في الاعتبار كيفية عمل محركات البحث ، والخوارزميات المبرمجة بالكمبيوتر التي تملي سلوك محرك البحث ، وما يبحث عنه الأشخاص ، ومصطلحات البحث الفعلية أو الكلمات الرئيسية المكتوبة في محركات البحث ، ومحركات البحث التي يفضلها الجمهور المستهدف . يتم تنفيذ تحسين محركات البحث او السيو (SEO) لأن موقع الويب سيستقبل المزيد من الزوار من محرك البحث عندما تحتل مواقع الويب مرتبة أعلى في صفحة نتائج محرك البحث (SERP). يمكن بعد ذلك تحويل هؤلاء الزوار إلى عملاء. 

تاريخ

منتصف 1990 في البداية ، كان كل مشرفي المواقع بحاجة فقط إلى إرسال عنوان الصفحة ، أو عنوان URL ، إلى المحركات المختلفة التي قد ترسل متتبع ارتباطات ويب للزحف إلى تلك الصفحة ، واستخراج روابط لصفحات أخرى منها ، وإرجاع المعلومات الموجودة على الصفحة المراد فهرستها .  تتضمن العملية تنزيل عنكبوت لمحرك البحث لصفحة ما وتخزينها على خادم محرك البحث الخاص. برنامج ثانٍ يعرف باسم المفهرس، يستخرج معلومات حول الصفحة ، مثل الكلمات التي تحتوي عليها ، ومكان وجودها ، وأي وزن لكلمات معينة ، بالإضافة إلى جميع الروابط التي تحتوي عليها الصفحة. ثم يتم وضع كل هذه المعلومات في برنامج جدولة للزحف في تاريخ لاحق.

اعترف اصحاب المواقع قيمة أعلى مرتبة وضوح في نتائج محركات البحث،  وخلق فرصة لكلا قبعة بيضاء و قبعة سوداء كبار المسئولين الاقتصاديين الممارسين. وفقًا لمحلل الصناعة داني سوليفان ، من المحتمل أن عبارة “تحسين محرك البحث” قد دخلت حيز الاستخدام في عام 1997. وينسب سوليفان الفضل إلى بروس كلاي كأحد الأشخاص الأوائل الذين قاموا بنشر هذا المصطلح. 

اعتمدت الإصدارات المبكرة من خوارزميات البحث على المعلومات التي قدمها مشرف الموقع مثل العلامة الوصفية للكلمة الرئيسية أو ملفات الفهرس في محركات مثل ALIWEB . توفر العلامات الوصفية دليلًا لمحتوى كل صفحة. تم العثور على استخدام البيانات الوصفية لفهرسة الصفحات على أنه أقل من الموثوقية ، لأن اختيار مشرف الموقع للكلمات الرئيسية في العلامة الوصفية قد يكون تمثيلًا غير دقيق لمحتوى الموقع الفعلي. أدت البيانات المعيبة في العلامات الوصفية مثل تلك التي لم تكن دقيقة أو كاملة أو سمات خاطئة إلى خلق احتمالية لسوء توصيف الصفحات في عمليات البحث غير ذات الصلة.   مشكوك فيه – مناقشة  تلاعب موفرو محتوى الويب أيضًا ببعض السمات داخلمصدر HTML للصفحة في محاولة للحصول على ترتيب جيد في محركات البحث.  بحلول عام 1997 ، أدرك مصممو محركات البحث أن مشرفي المواقع يبذلون جهودًا للحصول على ترتيب جيد في محرك البحث الخاص بهم ، وأن بعض مشرفي المواقع كانوا يتلاعبون بترتيبهم في نتائج البحث عن طريق حشو الصفحات بكلمات رئيسية مفرطة أو غير ذات صلة. قامت محركات البحث المبكرة ، مثل Altavista و Infoseek ، بتعديل خوارزمياتها لمنع مشرفي المواقع من التلاعب بالترتيب. 

من خلال الاعتماد الشديد على عوامل مثل كثافة الكلمات الرئيسية ، والتي كانت حصريًا ضمن سيطرة مشرف الموقع ، عانت محركات البحث المبكرة من إساءة الاستخدام والتلاعب بالترتيب. لتقديم نتائج أفضل لمستخدميها ، كان على محركات البحث أن تتكيف للتأكد من أن صفحات النتائج الخاصة بها تعرض نتائج البحث الأكثر صلة ، بدلاً من الصفحات غير ذات الصلة المليئة بالعديد من الكلمات الرئيسية من قبل مشرفي المواقع عديمي الضمير. وهذا يعني الابتعاد عن الاعتماد الشديد على كثافة المصطلح إلى عملية أكثر شمولية لتسجيل الإشارات الدلالية. نظرًا لأن نجاح محرك البحث وشعبيته يتحددان من خلال قدرته على إنتاج النتائج الأكثر صلة بأي بحث معين ، فإن جودة البحث الرديئة أو نتائج البحث غير الملائمة قد تدفع المستخدمين إلى العثور على مصادر بحث أخرى. استجابت محركات البحث من خلال تطوير خوارزميات تصنيف أكثر تعقيدًا ، مع مراعاة العوامل الإضافية التي كان من الصعب على مشرفي المواقع معالجتها.

يمكن للشركات التي تستخدم تقنيات مفرطة في العدوانية منع مواقع عملائها من الظهور في نتائج البحث. في عام 2005 ، نشرت صحيفة وول ستريت جورنال تقريرًا عن شركة ، Traffic Power ، التي يُزعم أنها استخدمت تقنيات عالية المخاطر وفشلت في الكشف عن هذه المخاطر لعملائها.  ذكرت مجلة وايرد أن نفس الشركة رفعت دعوى قضائية ضد المدون وكبار المسئولين الاقتصاديين آرون وول للكتابة عن الحظر.  أكد مات كاتس من Google لاحقًا أن Google في الواقع حظرت Traffic Power وبعض عملائها. 

وصلت بعض محركات البحث أيضًا إلى صناعة تحسين محركات البحث او السيو ، وهي رعاة وضيوف متكررون في مؤتمرات تحسين محركات البحث او السيو ، ومحادثات الويب ، والندوات. توفر محركات البحث الرئيسية معلومات وإرشادات للمساعدة في تحسين موقع الويب.   لدى Google برنامج خرائط مواقع لمساعدة مشرفي المواقع على معرفة ما إذا كانت Google تواجه أية مشكلات في فهرسة موقع الويب الخاص بهم ، كما توفر بيانات حول حركة مرور Google إلى موقع الويب.  توفر أدوات مشرفي المواقع من Bing طريقة لمشرفي المواقع لإرسال خريطة موقع وموجزات ويب ، وتسمح للمستخدمين بتحديد “معدل الزحف” وتتبع حالة فهرس صفحات الويب.

في عام 2015 ، تم الإبلاغ عن أن Google تعمل على تطوير وتعزيز البحث عبر الهاتف المحمول كميزة رئيسية في المنتجات المستقبلية. رداً على ذلك ، بدأت العديد من العلامات التجارية في اتباع نهج مختلف لاستراتيجيات التسويق عبر الإنترنت الخاصة بهم. 

العلاقة مع جوجل

في عام 1998، واثنين من طلاب الدراسات العليا في جامعة ستانفورد ، لاري بيج و سيرجي برين ، وضعت “Backrub”، محرك البحث التي تعتمد على خوارزمية رياضية لمعدل مرتفع من صفحات الويب. الرقم الذي تحسبه الخوارزمية ، PageRank ، هو دالة لكمية وقوة الروابط الواردة .  يقدّر نظام ترتيب الصفحات احتمال وصول مستخدم ويب إلى صفحة معينة ، حيث يتصفح الويب بشكل عشوائي ، ويتبع الروابط من صفحة إلى أخرى. في الواقع ، هذا يعني أن بعض الروابط أقوى من غيرها ، حيث من المرجح أن يتم الوصول إلى صفحة أعلى في نظام ترتيب الصفحات بواسطة متصفحي الويب العشوائي.

أسس بيج وبرين شركة Google في عام 1998.  اجتذبت Google أتباعًا مخلصين من بين العدد المتزايد من مستخدمي الإنترنت ، الذين أحبوا تصميمها البسيط.  تم النظر في العوامل خارج الصفحة (مثل PageRank وتحليل الارتباط التشعبي) بالإضافة إلى العوامل الموجودة على الصفحة (مثل تكرار الكلمات الرئيسية والعلامات الوصفية والعناوين والروابط وبنية الموقع) لتمكين Google من تجنب نوع التلاعب المرئي في محركات البحث التي تأخذ بعين الاعتبار العوامل الموجودة على الصفحة لترتيبها فقط. على الرغم من أن نظام ترتيب الصفحات كان أكثر صعوبة في اللعب ، إلا أن مشرفي المواقع قد طوروا بالفعل أدوات ومخططات لبناء الروابط للتأثير على Inktomiمحرك البحث ، وقد ثبت أن هذه الأساليب تنطبق بالمثل على ألعاب PageRank. ركزت العديد من المواقع على تبادل الروابط وشرائها وبيعها ، غالبًا على نطاق واسع. تضمنت بعض هذه المخططات ، أو مزارع الروابط ، إنشاء آلاف المواقع لغرض وحيد هو إرسال الروابط غير المرغوب فيها . 

بحلول عام 2004 ، كانت محركات البحث قد أدرجت مجموعة واسعة من العوامل غير المعلنة في خوارزميات التصنيف الخاصة بها لتقليل تأثير التلاعب بالرابط. في يونيو 2007 ، ذكر ساول هانسيل من صحيفة نيويورك تايمز أن Google تصنف المواقع باستخدام أكثر من 200 إشارة مختلفة.  لا تكشف محركات البحث الرائدة ، مثل Google و Bing و Yahoo ، عن الخوارزميات التي يستخدمونها لتصنيف الصفحات. لقد درس بعض ممارسي تحسين محركات البحث او السيو أساليب مختلفة لتحسين محركات البحث او السيو ، وشاركوا بآرائهم الشخصية.  براءات الاختراع المتعلقة بمحركات البحث يمكن أن توفر معلومات لفهم محركات البحث بشكل أفضل. في عام 2005 ، بدأت Google في تخصيص نتائج البحث لكل مستخدم. بناءً على سجل عمليات البحث السابقة ، أعدت Google نتائج للمستخدمين الذين قاموا بتسجيل الدخول. 

في عام 2007 ، أعلنت Google عن حملة ضد الروابط المدفوعة التي تنقل نظام ترتيب الصفحات.  في 15 يونيو 2009 ، كشفت Google أنها اتخذت تدابير للتخفيف من آثار نحت نظام ترتيب الصفحات باستخدام السمة nofollow على الروابط. أعلن مات كاتس ، مهندس برمجيات معروف في Google ، أن Google Bot لن يتعامل بعد الآن مع أي روابط nofollow ، بالطريقة نفسها ، لمنع مزودي خدمة تحسين محركات البحث او السيو من استخدام nofollow لنحت PageRank.  نتيجة لهذا التغيير أدى استخدام nofollow إلى تبخر PageRank. لتجنب ما سبق ، طور مهندسو تحسين محركات البحث او السيو تقنيات بديلة تحل محل العلامات nofollowed بجافا سكريبت المبهمةومن ثم السماح بنحت نظام ترتيب الصفحات. بالإضافة إلى ذلك ، تم اقتراح العديد من الحلول التي تشمل استخدام إطارات iframe و Flash و JavaScript. 

في ديسمبر 2009 ، أعلنت Google أنها ستستخدم سجل بحث الويب لجميع مستخدميها من أجل نشر نتائج البحث.  في 8 يونيو 2010 ، تم الإعلان عن نظام فهرسة ويب جديد يسمى Google Caffeine . تم تصميم Google Caffeine للسماح للمستخدمين بالعثور على نتائج الأخبار ومنشورات المنتديات والمحتويات الأخرى في وقت أقرب بكثير بعد النشر من ذي قبل ، وكان Google Caffeine بمثابة تغيير للطريقة التي حدّثت بها Google فهرسها من أجل جعل الأشياء تظهر على Google بشكل أسرع من ذي قبل. وفقًا لـ Carrie Grimes ، مهندسة البرامج التي أعلنت عن Caffeine لـ Google ، “يوفر Caffeine نتائج أحدث بنسبة 50 بالمائة لعمليات البحث على الويب مقارنة بآخر فهرس لدينا …”  بحث Google الفوري، البحث في الوقت الفعلي ، تم تقديمه في أواخر عام 2010 في محاولة لجعل نتائج البحث أكثر ملاءمة وملاءمة. من الناحية التاريخية ، أمضى مسؤولو الموقع شهورًا أو حتى سنوات في تحسين موقع الويب لزيادة تصنيفات البحث. مع تزايد شعبية مواقع ومدونات الوسائط الاجتماعية ، أدخلت المحركات الرائدة تغييرات على خوارزمياتها للسماح للمحتوى الجديد بالترتيب بسرعة ضمن نتائج البحث. 

في فبراير 2011 ، أعلنت Google عن تحديث Panda ، والذي يعاقب المواقع التي تحتوي على محتوى مكرر من مواقع ومصادر أخرى. تاريخيًا ، نسخت مواقع الويب المحتوى من بعضها البعض واستفادت من تصنيفات محركات البحث من خلال الانخراط في هذه الممارسة. ومع ذلك ، نفذت Google نظامًا جديدًا يعاقب المواقع التي لا يكون محتواها فريدًا.  حاول برنامج Google Penguin لعام 2012 معاقبة مواقع الويب التي تستخدم تقنيات احتيالية لتحسين تصنيفها في محرك البحث.  على الرغم من تقديم Google Penguin كخوارزمية تهدف إلى مكافحة البريد العشوائي على الويب ، إلا أنه يركز حقًا على الروابط غير المرغوب فيها  من خلال قياس جودة المواقع التي تأتي منها الروابط. 2013تميز تحديث Google Hummingbird بتغيير خوارزمية مصمم لتحسين معالجة اللغة الطبيعية من Google والفهم الدلالي لصفحات الويب. يندرج نظام معالجة اللغة في Hummingbird تحت المصطلح المعترف به حديثًا ” بحث المحادثة ” حيث يولي النظام مزيدًا من الاهتمام لكل كلمة في الاستعلام من أجل مطابقة الصفحات بشكل أفضل مع معنى الاستعلام بدلاً من بضع كلمات.  فيما يتعلق بالتغييرات التي تم إجراؤها على تحسين محرك البحث ، لناشري المحتوى وكتابه ، يهدف Hummingbird إلى حل المشكلات عن طريق التخلص من المحتوى غير ذي الصلة والرسائل غير المرغوب فيها ، مما يسمح لـ Google بإنتاج محتوى عالي الجودة والاعتماد عليهم ليكونوا ” المؤلفين الموثوق بهم.

في أكتوبر 2019 ، أعلنت Google أنها ستبدأ في تطبيق نماذج BERT لاستعلامات البحث باللغة الإنجليزية في الولايات المتحدة. كانت تمثيلات التشفير ثنائية الاتجاه من المحولات (BERT) محاولة أخرى من قِبل Google لتحسين معالجة لغتهم الطبيعية ولكن هذه المرة من أجل فهم استعلامات البحث الخاصة بمستخدميها بشكل أفضل.  فيما يتعلق بتحسين محرك البحث ، تهدف BERT إلى توصيل المستخدمين بسهولة أكبر بالمحتوى ذي الصلة وزيادة جودة حركة المرور القادمة إلى مواقع الويب التي يتم تصنيفها في صفحة نتائج محرك البحث.

أساليب

الحصول على فهرسة

تستخدم محركات البحث خوارزميات رياضية معقدة لتفسير المواقع التي يبحث عنها المستخدم. في هذا الرسم البياني ، حيث تمثل كل فقاعة موقعًا على شبكة الإنترنت ، تقوم البرامج التي تسمى أحيانًا العناكب بفحص المواقع التي ترتبط بالمواقع الأخرى ، باستخدام أسهم تمثل هذه الارتباطات. يُفترض أن تكون مواقع الويب التي تحصل على مزيد من الروابط الداخلية ، أو روابط أقوى ، أكثر أهمية وما يبحث عنه المستخدم. في هذا المثال ، نظرًا لأن موقع الويب B هو المستلم للعديد من الروابط الواردة ، فإنه يحتل مرتبة أعلى في بحث الويب. والروابط “تنتقل عبر” ، مثل موقع الويب C ، على الرغم من أنه يحتوي على رابط وارد واحد فقط ، إلا أنه يحتوي على رابط وارد من موقع مشهور للغاية (B) بينما الموقع E لا يفعل ذلك. ملاحظة: النسب المئوية مقربة.

تستخدم محركات البحث الرائدة ، مثل Google و Bing و Yahoo !، برامج الزحف للعثور على صفحات لنتائج البحث الخوارزمية الخاصة بهم. لا يلزم تقديم الصفحات المرتبطة من صفحات أخرى مفهرسة بمحرك البحث لأنه يتم العثور عليها تلقائيًا. موقع Yahoo! Directory و DMOZ ، وهما دليلين رئيسيين تم إغلاقهما في 2014 و 2017 على التوالي ، وكلاهما يتطلب تقديمًا يدويًا ومراجعة تحريرية بشرية.  تقدم Google Google Search Console ، والتي يمكن من أجلها إنشاء موجز Sitemap بتنسيق XML وتقديمه مجانًا لضمان العثور على جميع الصفحات ، خاصة الصفحات التي لا يمكن اكتشافها عن طريق اتباع الروابط تلقائيًا بالإضافة إلى وحدة التحكم في إرسال عناوين URL الخاصة بهم.  ياهو! كانت تدير سابقًا خدمة إرسال مدفوعة تضمن الزحف مقابل تكلفة النقرة ؛  ومع ذلك ، تم إيقاف هذه الممارسة في عام 2009.

قد تنظر برامج زحف محركات البحث في عدد من العوامل المختلفة عند الزحف إلى أحد المواقع. لا تتم فهرسة كل صفحة بواسطة محركات البحث. قد تكون مسافة الصفحات من الدليل الجذر للموقع أيضًا عاملاً في ما إذا كان يتم الزحف إلى الصفحات أم لا. 

اليوم ، يبحث معظم الأشخاص على Google باستخدام جهاز محمول.  في نوفمبر 2016 ، أعلنت Google عن تغيير كبير في طريقة الزحف إلى مواقع الويب وبدأت في جعل فهرسها للهاتف المحمول أولاً ، مما يعني أن إصدار الجوال من موقع ويب معين يصبح نقطة البداية لما يدرجه Google في فهرسهم.  في مايو 2019 ، حدَّثت Google محرك العرض الخاص بالزاحف ليكون أحدث إصدار من Chromium (74 وقت الإعلان). أشارت Google إلى أنها ستقوم بانتظام بتحديث محرك عرض Chromium إلى أحدث إصدار.  في ديسمبر 2019 ، بدأت Google في تحديث سلسلة User-Agent الخاصة بالزاحف الخاص بها لتعكس أحدث إصدار من Chrome تستخدمه خدمة العرض الخاصة بهم. كان التأخير هو السماح لمشرفي المواقع بالوقت لتحديث التعليمات البرمجية الخاصة بهم والتي استجابت لسلاسل وكيل مستخدم bot معينة. أجرت Google التقييمات وشعرت بالثقة في أن التأثير سيكون طفيفًا. 

منع الزحف

المقال الرئيسي: معيار استبعاد الروبوتات

لتجنب المحتوى غير المرغوب فيه في فهارس البحث ، يمكن لمشرفي المواقع توجيه العناكب بعدم الزحف إلى ملفات أو أدلة معينة من خلال ملف robots.txt القياسي في الدليل الجذر للنطاق. بالإضافة إلى ذلك ، يمكن استبعاد إحدى الصفحات صراحةً من قاعدة بيانات محرك البحث باستخدام علامة وصفية خاصة بالروبوتات (عادةً <meta name = “robots” content = “noindex”>). عندما يزور محرك بحث أحد المواقع ، فإن ملف robots.txt الموجود في الدليل الجذرهو الملف الأول الذي تم الزحف إليه. يتم بعد ذلك تحليل ملف robots.txt وسيوجه الروبوت إلى الصفحات التي لن يتم الزحف إليها. نظرًا لأن زاحف محرك البحث قد يحتفظ بنسخة مخبأة من هذا الملف ، فقد يقوم في بعض الأحيان بالزحف إلى صفحات لا يرغب مشرف الموقع في الزحف إليها. تتضمن الصفحات التي يتم منع الزحف إليها عادةً صفحات معينة لتسجيل الدخول مثل عربات التسوق والمحتوى الخاص بالمستخدم مثل نتائج البحث من عمليات البحث الداخلية. في مارس 2007 ، حذرت Google مشرفي المواقع من أنه يجب عليهم منع فهرسة نتائج البحث الداخلية لأن هذه الصفحات تعتبر بحثًا غير مرغوب فيه.  في عام 2020 ، أعلنت Google عن المعيار (وفتح مصدر الشفرة الخاصة بها) وهي تتعامل معه الآن على أنه تلميح وليس توجيهًا. لضمان عدم فهرسة الصفحات ، يجب تضمين علامة وصفية لبرامج الروبوت على مستوى الصفحة.

زيادة الشهرة

يمكن لمجموعة متنوعة من الأساليب أن تزيد من أهمية صفحة الويب ضمن نتائج البحث. قد يؤدي الارتباط المتقاطع بين صفحات نفس الموقع لتوفير المزيد من الروابط إلى الصفحات المهمة إلى تحسين ظهوره. يجعل تصميم الصفحة المستخدمين يثقون بالموقع ويريدون البقاء بمجرد العثور عليه. عندما يرتد الأشخاص من موقع ما ، فإن ذلك يؤثر على الموقع ويؤثر على مصداقيتهم.  [٤٨ كتابة المحتوى الذي يتضمن عبارة كلمات رئيسية يتم البحث عنها بشكل متكرر ، بحيث تكون ذات صلة بمجموعة متنوعة من استعلامات البحث ، ستعمل على زيادة حركة المرور. يمكن أن يؤدي تحديث المحتوى للحفاظ على عودة محركات البحث إلى الزحف بشكل متكرر إلى إعطاء وزن إضافي للموقع. إضافة كلمات رئيسية ذات صلة إلى البيانات الوصفية لصفحة الويب ، بما في ذلك علامة العنوان ووصف التعريف، ستعمل على تحسين ملاءمة قوائم البحث الخاصة بالموقع ، وبالتالي زيادة حركة المرور. يمكن أن يساعد تحديد عنوان URL الأساسي لصفحات الويب التي يمكن الوصول إليها عبر عناوين URL متعددة ، باستخدام عنصر الارتباط الأساسي  أو عبر عمليات إعادة التوجيه 301 ، في التأكد من احتساب الروابط المؤدية إلى إصدارات مختلفة من عنوان URL ضمن درجة شعبية رابط الصفحة. تُعرف هذه الروابط باسم الروابط الواردة ، والتي تشير إلى عنوان URL ويمكن الاعتماد عليها في درجة شعبية رابط الصفحة ، مما يؤثر على مصداقية موقع الويب. 

أيضًا ، في الآونة الأخيرة ، تعطي Google أولوية أكبر للعناصر أدناه لـ SERP (موقع ترتيب محرك البحث).

  • إصدار HTTPS (موقع آمن)
  • سرعة الصفحة
  • البيانات المنظمة
  • توافق المحمول
  • AMP (Accelerated Mobile Pages)
  • بيرت

القبعة البيضاء مقابل تقنيات القبعة السوداء

يمكن تصنيف تقنيات تحسين محركات البحث او السيو إلى فئتين عريضتين: التقنيات التي توصي بها شركات محركات البحث كجزء من التصميم الجيد (“القبعة البيضاء”) ، والتقنيات التي لا توافق عليها محركات البحث (“القبعة السوداء”). تحاول محركات البحث تقليل تأثير هذا الأخير ، من بينها spamdexing . صنف المعلقون في الصناعة هذه الأساليب ، والممارسين الذين يستخدمونها ، إما على أنها ذات القبعة البيضاء SEO ، أو القبعة السوداء SEO.  تميل القبعات البيضاء إلى إنتاج نتائج تستمر لفترة طويلة ، في حين تتوقع القبعات السوداء أن مواقعهم قد يتم حظرها في النهاية إما بشكل مؤقت أو دائم بمجرد اكتشاف محركات البحث لما يفعلونه. 

تعتبر تقنية تحسين محركات البحث او السيو (SEO) بمثابة قبعة بيضاء إذا كانت تتوافق مع إرشادات محركات البحث ولا تتضمن أي خداع. نظرًا لأن إرشادات محرك البحث    لم تتم كتابتها كسلسلة من القواعد أو الوصايا ، فهذا تمييز مهم يجب ملاحظته. لا يتعلق الأمر بـ White hat SEO باتباع الإرشادات فحسب ، بل يتعلق أيضًا بضمان أن المحتوى الذي يقوم محرك البحث بفهرسته ثم يصنفه لاحقًا هو نفس المحتوى الذي سيراه المستخدم. يتم تلخيص نصيحة القبعة البيضاء عمومًا على أنها إنشاء محتوى للمستخدمين ، وليس لمحركات البحث ، ثم جعل هذا المحتوى سهل الوصول إليه من خلال خوارزميات “العنكبوت” على الإنترنت ، بدلاً من محاولة خداع الخوارزمية من الغرض المقصود منها. تتشابه White hat SEO من نواحٍ عديدة مع تطوير الويب الذي يعزز إمكانية الوصول ،  على الرغم من أن الاثنين غير متطابقين.

تحاول Black hat SEO تحسين التصنيفات بطرق لا توافق عليها محركات البحث ، أو تنطوي على خداع. تستخدم إحدى تقنيات القبعة السوداء نصًا مخفيًا ، إما كنص ملون مشابه للخلفية ، في div غير مرئي ، أو وضعه خارج الشاشة. هناك طريقة أخرى تعطي صفحة مختلفة اعتمادًا على ما إذا كانت الصفحة مطلوبة من قِبل زائر بشري أو محرك بحث ، وهي تقنية تُعرف باسم إخفاء الهوية . فئة أخرى تستخدم في بعض الأحيان هي القبعة الرمادية SEO . يقع هذا بين نهج القبعة السوداء والقبعة البيضاء ، حيث تتجنب الأساليب المستخدمة معاقبة الموقع ولكنها لا تعمل في إنتاج أفضل محتوى للمستخدمين. تركز Gray hat SEO بشكل كامل على تحسين تصنيفات محرك البحث.

قد تعاقب محركات البحث المواقع التي يكتشفونها باستخدام أساليب القبعة السوداء أو الرمادية ، إما عن طريق تقليل تصنيفاتها أو حذف قوائمها من قواعد بياناتها تمامًا. يمكن تطبيق هذه العقوبات إما تلقائيًا عن طريق خوارزميات محركات البحث ، أو عن طريق مراجعة الموقع يدويًا. أحد الأمثلة على ذلك هو إزالة Google في فبراير 2006 لكل من BMW Germany و Ricoh Germany لاستخدامها ممارسات خادعة.  ومع ذلك ، سرعان ما اعتذرت الشركتان ، وأصلحا الصفحات المسيئة ، وتمت إعادتهما إلى صفحة نتائج محرك بحث Google. 

كإستراتيجية تسويق

لا تعد مُحسّنات محرّكات البحث استراتيجية مناسبة لكل موقع ويب ، ويمكن أن تكون استراتيجيات التسويق عبر الإنترنت الأخرى أكثر فاعلية ، مثل الإعلانات المدفوعة من خلال حملات الدفع لكل نقرة (PPC) ، اعتمادًا على أهداف مشغل الموقع. التسويق عبر محركات البحث (SEM) هو ممارسة تصميم الحملات الإعلانية عبر محرك البحث وتشغيلها وتحسينها. يتم وصف اختلافها عن مُحسّنات محرّكات البحث ببساطة على أنه الفرق بين ترتيب الأولوية المدفوعة وغير المدفوعة في نتائج البحث. يركز SEM على الشهرة أكثر من الأهمية ؛ يجب على مطوري مواقع الويب اعتبار التسويق عبر محرك البحث (SEM) في غاية الأهمية مع مراعاة الرؤية حيث ينتقل معظمهم إلى القوائم الأساسية لبحثهم. قد تعتمد حملة التسويق عبر الإنترنت الناجحة أيضًا على بناء صفحات ويب عالية الجودة لإشراك مستخدمي الإنترنت وإقناعهم ، وإعداد برامج تحليلات لتمكين مالكي المواقع من قياس النتائج ، وتحسين معدل تحويل الموقع .  في نوفمبر 2015 ، أصدرت Google نسخة كاملة من 160 صفحة من إرشادات تصنيف جودة البحث للجمهور ،  والتي كشفت عن تحول في تركيزهم نحو “الفائدة” والبحث المحلي على الأجهزة المحمولة . في السنوات الأخيرة ، انتشر سوق الهاتف المحمول ، متجاوزًا استخدام أجهزة الكمبيوتر المكتبية ، كما هو موضح في StatCounter في أكتوبر 2016 حيث قاموا بتحليل 2.5 مليون موقع ووجدوا أن 51.3٪ من الصفحات تم تحميلها بواسطة جهاز محمول. كانت Google واحدة من الشركات التي تستخدم شعبية استخدام الأجهزة المحمولة من خلال تشجيع مواقع الويب على استخدام Google Search Console ، وهو اختبار التوافق مع الأجهزة المحمولة ، والذي يسمح للشركات بقياس مواقعها على الويب وفقًا لنتائج محرك البحث وتحديد كيفية سهلة الاستخدام على مواقع الويب الخاصة بهم. كلما اقتربت الكلمات الرئيسية من بعضها ، سيتحسن ترتيبها بناءً على المصطلحات الأساسية. 

قد يولد تحسين محركات البحث او السيو عائدًا مناسبًا على الاستثمار . ومع ذلك ، لا يتم الدفع لمحركات البحث مقابل حركة البحث العضوية ، وتتغير خوارزمياتها ، ولا توجد ضمانات لاستمرار الإحالات. بسبب هذا النقص في الضمان وعدم اليقين ، يمكن أن تتعرض الشركة التي تعتمد بشكل كبير على حركة مرور محرك البحث لخسائر كبيرة إذا توقفت محركات البحث عن إرسال الزوار.  يمكن لمحركات البحث تغيير الخوارزميات الخاصة بهم ، مما يؤثر على تصنيف محرك البحث لموقع الويب ، مما قد يؤدي إلى خسارة كبيرة في حركة المرور. وفقًا للرئيس التنفيذي لشركة Google ، إريك شميدت ، في عام 2010 ، أجرت Google أكثر من 500 تغيير في الخوارزمية – ما يقرب من 1.5 يوميًا.  تعتبر ممارسة تجارية حكيمة لمشغلي مواقع الويب لتحرير أنفسهم من الاعتماد على حركة مرور محرك البحث. بالإضافة إلى إمكانية الوصول من حيث برامج زحف الويب (المذكورة أعلاه) ،أصبحت إمكانية الوصول إلى الويب للمستخدممهمة بشكل متزايدلتحسينمحركات البحث.

الأسواق الدولية

يتم ضبط تقنيات التحسين بشكل كبير مع محركات البحث المهيمنة في السوق المستهدفة. تختلف حصص محركات البحث في السوق من سوق إلى آخر ، وكذلك المنافسة. في عام 2003 ، صرح داني سوليفان أن Google مثلت حوالي 75٪ من جميع عمليات البحث.  في الأسواق خارج الولايات المتحدة ، غالبًا ما تكون حصة Google أكبر ، ويظل محرك البحث Google هو محرك البحث المهيمن في جميع أنحاء العالم اعتبارًا من عام 2007.  اعتبارًا من عام 2006 ، كان لدى Google 85-90٪ من حصة السوق في ألمانيا.  بينما كان هناك المئات من شركات تحسين محركات البحث او السيو في الولايات المتحدة في ذلك الوقت ، كان هناك حوالي خمس شركات فقط في ألمانيا. [٦٥ اعتبارًا من يونيو 2008 ، كانت الحصة السوقية لشركة Google في المملكة المتحدة قريبة من 90٪ وفقًا لشركة Hitwise .  يتم تحقيق تلك الحصة السوقية في عدد من البلدان.

اعتبارًا من عام 2009 ، لا يوجد سوى عدد قليل من الأسواق الكبيرة حيث لا يكون Google محرك البحث الرائد. في معظم الحالات ، عندما لا تكون Google رائدة في سوق معين ، فإنها تتخلف عن أحد اللاعبين المحليين. أبرز أسواق الأمثلة هي الصين واليابان وكوريا الجنوبية وروسيا وجمهورية التشيك حيث بايدو وياهو على التوالي . تعتبر اليابان و Naver و Yandex و Seznam من رواد السوق.

wikipedia

قد يتطلب تحسين البحث الناجح للأسواق الدولية ترجمة احترافية لصفحات الويب ، وتسجيل اسم المجال مع نطاق المستوى الأعلى في السوق المستهدفة ، واستضافة الويب التي توفر عنوان IP محلي . خلاف ذلك ، فإن العناصر الأساسية لتحسين البحث هي نفسها بشكل أساسي ، بغض النظر عن اللغة. 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *