أدت إلى ثورة معرفية.. محركات البحث كيف بدأت؟
من الصعب تصور الإنترنت بدون "محركات البحث Search Engines"، فهي نافذتنا على كل شيء موجود على الشبكة العنكبوتية، ورغم أننا نقضي ساعات طويلة على تطبيقات التواصل، وغيرها من التطبيقات التي لا تقوم على محركات البحث، لكننا نستطيع الاستغناء عن هذه الأشياء بعكس محركات البحث.
وقد شهدت هذه المحركات تطورًا مذهلًا منذ اللحظة التي وُضِعَ فيها أساس الأرشفة الإلكترونية، وصولًا إلى هذه اللحظة التي يُعتَمد فيها على الذكاء الاصطناعي وتقنيات التعلم الآلي بشكل كبير، فكيف كانت البدايات وكيف كان التطور؟
تاريخ محركات البحث
محرك البحث الأول
الرحلة تعود إلى التسعينيات تقريبًا، عندما ظهر أول محرك بحثي باسم "أرتشي Archie"، وكان عبارة عن أداةٍ بسيطة تحتوي على فهرسٍ محدود لمجموعة ملفات قابلة للتنزيل، وكان ذلك قبل اختراع "الشبكة العنكبوتية العالمية WWW" على يد "السير تيم بيرنزر لي".
بدأ الإنترنت الذي نعرفه اليوم مع اختراع "لي"، حيث قدّم مفهوم "الهايبرلينك"، الذي يُسهّل من الوصول للصفحات، لذا كان لاختراع "لي" الدور الأبرز ليس في تغيير مفهوم تبادل المعلومات، بل في تسهيل عملية العثور على المعلومات أيضًا.
عمومًا، كان عدد الخوادم أو "السيرفرات" محدودًا للغاية في تلك الفترة، ما مكن المختصين من التحكم في المتصفحات، وفهم بنية الإنترنت بشكل أفضل؛ ويُمكن أن نقول إن الإنترنت آنذاك كان لا يزال عبارة عن "تجربة"، لأنه ببساطة لم يكن يضم سوى عدة مواقع بسيطة، تستعين بخوادم "منظمة البحوث النووية الأوروبية CERN".
محرك البحث الثاني
في عام 1993 ظهر محرك "JumpStation"، وكان خطوة كبيرة في تطور محركات البحث، وقبل ذلك، كانت أدوات البحث تعتمد على قوائم ملفات نصية بسيطة، دون تنظيم فعلي للبيانات.
لكن "JumpStation" قدّم فكرة جديدة، حيث بدأ بفهرسة صفحات الويب نفسها، بمعنى أنه لم يكتفِ فقط بجمع الروابط، بل بدأ بجمع معلومات مثل عناوين الصفحات الرئيسة، ما جعل نتائج البحث أكثر فائدة.
ومع ذلك، كانت طريقة ترتيب النتائج لا تزال بسيطة للغاية؛ فبدلًا من وجود خوارزميات معقدة لتحديد أهمية الصفحات (مثلما نرى اليوم في جوجل مثلًا)، كانت الصفحات تُعرض حسب ترتيب اكتشافها في أثناء عملية الفهرسة، وبعبارة أخرى، الصفحة التي عُثر عليها أولًا، يكون لها أولوية الظهور في نتائج البحث.
بداية محركات البحث التي نعرفها
مع الوصول لمنتصف التسعينيات، بدأ الإنترنت يظهر بالشكل الحديث الذي نعرفه، حيث تم تأسيس "ياهوو Yahoo"، وقد ركّزت هذه المنصة الرائدة على جمع أكبر قدر ممكن من المواقع في فهرسٍ مُنظم، لكن بدلًا من الاعتماد على الخوارزميات الآلية بالكامل، كان هناك جهد بشري واضح، حيث كان المستخدم يأخذ فكرة عن المحتوى قبل قراءته، ما يوفر عليه الوقت والمجهود.
وبالعودة لجزئية التنظيم، ركز "ديفيد فيلو" و"جيري يانج"، مؤسسا "ياهوو"، على جمع أكبر قدر ممكن من المواقع في فهرس واضح، كما اعتمدا وصفًا يدويًّا للمواقع، لإعطاء المستخدمين لمحة حول المحتوى قبل زيارته كما قلنا.
ومن ناحية الدخل، كان "ياهوو" ينتهج نهجًا ذكيًا، حيث كان يُجبر المواقع التجارية على دفع رسوم سنوية بقيمة 300 دولار لتُدرج في الفهرس، بينما كانت المواقع غير التجارية تُدرج مجانًا، ووفّرت هذه الاستراتيجية مصدر دخل جيدًا، وساعدت في تصنيف المحتوى بشكل أكثر احترافية.
في الفترة نفسها تقريبًا، انطلق محرك بحث آخر يُسمى "ويب كرولر WebCrawler"، وكان أول محركٍ قادر على فهرسة صفحات الويب بالكامل، أي إنه لم يكتفِ فقط بجمعها ووصفها، بل كان يقرأ كل محتواها، ويفهرس الكلمات والروابط الموجودة داخلها.
كانت هذه قفزة نوعية كبيرة، لأنها جعلت البحث أكثر دقة وارتباطًا بالمحتوى الفعلي، لكن بسبب ضخامة وصعوبة عملية الفهرسة، واجه المحرك بُطئًا شديدًا في وقت الذروة؛ وهو شيء شبيه بما يحدث اليوم مع أدوات الذكاء الاصطناعي مثل DeepSeek.
اقرأ أيضًا: تعمل بالذكاء الاصطناعي وتحافظ على خصوصيتك.. أفضل محركات البحث البديلة لجوجل
ثورة محركات البحث
مثّل عاما 1995 و1996 البداية الحقيقية لثورة محركات البحث، فخلال عام 1995 انضم محرك البحث "لايكوس Lycos" إلى المشهد، واستطاع في بضعة أشهر أرشفة مئات الآلاف من الصفحات، ثم تجاوز حاجز المليون سريعًا، مما دفع الكثيرين إلى الإيمان بأن الإنترنت مقبلٌ على طفرةٍ ضخمة ستحدث في مجال الحصول على المعلومات.
في السنة التالية، 1996، جرى العمل على مشروعٍ سيغير كل شيء؛ مشروع BackRub بـ"جامعة ستانفورد"، من قِبَل "لاري بايج" و"سيرجي برين"، وهو المشروع الذي تحول فيما بعد إلى "جوجل".
الفكرة الأساسية لهذا المشروع وقتها كانت مبتكرة لأبعد حد، فبدلًا من مجرد البحث في الكلمات المفتاحية داخل صفحات الويب، تم التركيز على تحليل الروابط التي تؤدي إلى هذه الصفحات، أو ما نعرفه الآن بـ"الروابط الخلفية Backlinks".
كل رابط خارجي يُشير إلى موقع معين كان يُعتبر بمثابة "تصويت بالثقة" لهذا الموقع، وكلما زاد عدد الروابط الموجهة إلى صفحة معينة من مواقع موثوقة، زادت مصداقية هذه الصفحة وارتفع ترتيبها في نتائج البحث.
بصياغةٍ أخرى، عندما يضع موقع إلكتروني رابطًا يؤدي إلى موقع آخر، فهذا يُعتبر بمثابة توصية أو إشارة من الموقع الأول إلى الموقع الثاني، فالموقع الأول يقول ضمنيًا: "أنا أثق بهذا الموقع، وأرى أنه مفيد أو مهم بما يكفي لأربطه بمحتواي".
وصل عام 1998 حاملًا معه الظهور الرسمي لـ"جوجل"؛ الذي اكتسب شعبية سريعة بفضل طريقة ترتيب النتائج، إلى جانب الاهتمام بالواجهة وسرعة إظهار النتائج، وغيرهما من العوامل الأخرى التي كان يبحث عنها الكثيرون.
وخلال سنوات قليلة تحول "جوجل" إلى الاسم الأبرز في عالم البحث، حيث استقطب استثمارات ضخمة من مؤسسات كبرى، ووقع اتفاقيات مع شركات معروفة مثل AOL، والبقية تاريخ كما يقولون.
محركات البحث في عصر الذكاء الاصطناعي
غيّر الذكاء الاصطناعي، ولا زال يغير، في محركات البحث كثيرًا، حيث أصبح بإمكان الشركات تحسين محتواها بُطرق غير مسبوقة، والتنبؤ باتجاهات البحث، وتقديم تجارب أكثر تخصيصًا وفائدةً للمستخدمين.
واليوم، بات الذكاء الاصطناعي يفهم نوايا المستخدمين بدقة فائقة، وبدلًا من عرض قائمة طويلة من الروابط والنتائج، أصبح يقدم لهم نتائج فورية وأكثر صلة بما يبحثون عنه، ولا بد وأنك اختبرت هذا الأمر بنفسك على محرك "جوجل" أو "بينج"، أو غيرهما.
وفي ظل التغير المستمر لخوارزميات محركات البحث وسلوك المستخدمين، أصبح التكيف السريع مع هذه التطورات أمرًا ضروريًا للحفاظ على الحضور الرقمي، فالشركات التي تستفيد من تقنيات الذكاء الاصطناعي في تحسين محتواها واستراتيجياتها التسويقية، تضمن لنفسها مكانًا تنافسيًا قويًا في السوق.
وفي نهاية المطاف، لم يعد النجاح في عالم محركات البحث يعتمد على حشو الكلمات المفتاحية، ومحاولة الظهور في أولى النتائج عُنوة، بل بات يتطلب فهمًا عميقًا لاحتياجات الجمهور، وتقديم محتوى قيّم يلبي توقعاتهم، وهذا أحدث ما توصلنا إليه.
