سلوك مرعب لـChatGPT يفجر مخاوف الخصوصية: هل بدأ يتجسس علينا؟
شهد عدد من مستخدمي ChatGPT خلال الأيام الأخيرة سلوكًا وصفوه بـ"المريب"، بعد أن لاحظوا أن الروبوت بدأ يُخاطبهم بأسمائهم، بل وذكر معلومات شخصية لم يصرّحوا بها صراحة. هذا التفاعل المفاجئ أثار حالة من الذعر لدى البعض، ممن اعتبروا أن ChatGPT "يعرف أكثر مما يجب".
الذاكرة.. سلاح ذو حدين؟
يرجح الخبراء أن السبب وراء هذا السلوك يعود لتحديث ميزة "الذاكرة" في ChatGPT، وهي خاصية أطلقتها OpenAI بهدف تحسين تجربة المستخدم من خلال تذكّر بياناته وتفضيلاته السابقة. وبالرغم من أن الشركة أكدت أن تفعيل الميزة اختياري ويمكن تعطيلها أو حذف البيانات بالكامل، فإن هذا التوضيح لم يُطمئن جميع المستخدمين.
اقرأ أيضًا: GPT-4o.. نسخة ثورية من شات جي بي تي (فيديوجراف)
تحسين أم تطفل؟
الميزة الجديدة التي تُعرف باسم "الذاكرة مع البحث" تتيح لـChatGPT استخدام بيانات من المحادثات السابقة، مثل الموقع أو العادات الغذائية، لإعادة صياغة استعلامات البحث بشكل أكثر تخصيصًا. ورغم أن OpenAI تصف ذلك كخطوة ذكية لتقديم تجربة أكثر فعالية، إلا أن البعض اعتبرها تجاوزًا غير مبرر للخصوصية.
هل تخطى الذكاء الاصطناعي حدوده؟
الجدل الحالي يكشف عن مفارقة واضحة: المستخدمون يريدون تجربة ذكية ومخصصة، لكنهم لا يرغبون في التضحية بخصوصيتهم. ففي الوقت الذي تعمل فيه OpenAI على التميز أمام منافسيها مثل Google Gemini وClaude من Anthropic، تواجه الشركة انتقادات متزايدة بسبب شفافيتها بشأن استخدام بيانات المستخدمين.
اقرأ أيضًا: دراسة: شات جي بي تي يجِيب عن أسئلة الاختبارات الجينية بنجاح
المستقبل: أكثر تخصيصًا أم أكثر تطفلاً؟
الأسئلة تتزايد حول مصير الذكاء الاصطناعي القائم على "التذكّر"، وما إذا كانت مثل هذه الخصائص التقنية تُشكل اختراقًا غير مباشر لحياة المستخدم. وبينما تواصل OpenAI التأكيد على قابلية تعطيل هذه الميزة، يبقى الأمر رهنًا بثقة المستخدمين في كيفية استخدام بياناتهم الشخصية.
