الذكاء الاصطناعي لا يُجيب مجانًا.. من يدفع الثمن؟
تُثير الاستخدامات اليومية المتكررة لنماذج الذكاء الاصطناعي مخاوف بيئية متصاعدة، إذ يُنتج طرح سؤال واحد على روبوت دردشة مثل "شات جي بي تي" انبعاثات كربونية تُقاس بالغرامات من ثاني أكسيد الكربون، تعادل 0.0000001% من البصمة الكربونية السنوية لمواطن أمريكي.
ورغم ضآلة الأثر الفردي، فإن تكرار هذه العمليات من قبل ملايين المستخدمين يوميًا يُحوّله إلى عبء متنامٍ على البيئة.
وكشفت صحيفة "واشنطن بوست" في تقرير حديث أن مراكز البيانات التي تستضيف هذه النماذج تستهلك كميات هائلة من الكهرباء، تفوق أحيانًا احتياجات مدن كاملة، مما دفع شركات الطاقة إلى تمديد عمر محطات الفحم القديمة، والشروع في بناء أخرى جديدة تعمل بالغاز الطبيعي لمواكبة الطلب المتزايد.
اقرأ أيضًا: لماذا لا ينجذب خبراء الذكاء الاصطناعي الفائق إلى عروض مارك زوكربيرج السخية؟
زجاجة مياه لكل 100 كلمة
يستهلك إنتاج 100 كلمة نصية عبر "شات جي بي تي" نحو زجاجة من المياه العذبة لتبريد الحواسيب الفائقة في مراكز البيانات. وفي ظل التوسع المتسارع في استخدام الذكاء الاصطناعي، قد لا يبدو هذا الرقم كبيرًا في الظاهر، لكنه يتضاعف بسرعة عند التفكير في حجم الاستخدام العالمي.
وتنصح غودرون سوخر، أستاذة علوم الحاسوب في جامعة ميونيخ للعلوم التطبيقية، باستخدام الذكاء الاصطناعي فقط عندما يكون ضروريًا، موضحة أن "المهام البسيطة مثل معرفة مواعيد العمل أو البحث عن معلومات أساسية يمكن إنجازها عبر محركات البحث التقليدية".
يُعد استخدام محرك بحث مثل "غوغل" أقل استهلاكًا للطاقة بحوالي عشر مرات مقارنةً بطلب واحد عبر روبوت دردشة، وفقًا لتحليل أجراه بنك غولدمان ساكس عام 2024. ومع ذلك، قد يتغير هذا الفارق مع تعميم غوغل للردود المدعومة بالذكاء الاصطناعي.
ويشير الباحث بيل توملينسون، أستاذ علم المعلومات في جامعة كاليفورنيا في إيرفين، إلى أن إنتاج صفحة نصية عبر الذكاء الاصطناعي قد يكون أقل استهلاكًا للطاقة من قيام المستخدم بكتابتها بنفسه عبر الحاسوب، خاصةً في المهام التي تتطلب وقتًا وجهدًا أكبر.
لكن توملينسون يُقر بوجود أسباب أخرى تدعو إلى الحد من الاعتماد على الذكاء الاصطناعي، من بينها دقة النتائج، وجودة المحتوى، والملكية الفكرية، إلا أنه يرى أنه قد يكون خيارًا صديقًا للبيئة في حالات محددة.
