خبير يحذر من وباء معلوماتي بسبب الذكاء الاصطناعي ويطالب بتشريعات دولية

في ظل تزايد استخدامات الذكاء الاصطناعي وتأثيره المتسارع على مختلف جوانب الحياة، حذر الأمين العام للأمم المتحدة أنطونيو غوتيريش من خطر عسكرة هذه التكنولوجيا، مشددًا على أهمية توجيه استخدامها نحو تعزيز النمو الاقتصادي ورفاه المجتمعات.

خبير يحذر من وباء معلوماتي بسبب الذكاء الاصطناعي ويطالب بتشريعات دولية
خبير يحذر من وباء معلوماتي بسبب الذكاء الاصطناعي ويطالب بتشريعات دولية

وفي هذا السياق، أشار الدكتور محمد عزام، خبير تكنولوجيا المعلومات، إلى أن الذكاء الاصطناعي أصبح عنصرًا أساسيًا في جميع الصناعات، سواء كانت دفاعية أو مدنية، مما يتطلب وضع أطر تنظيمية وتشريعية صارمة.

 

تفخيخ المعلومات وتسليحها.. أخطر أدوات الذكاء الاصطناعي

وأوضح عزام في تصريحات خاصة لنيوز رووم، أن إحدى أخطر الظواهر المرتبطة بالذكاء الاصطناعي تتمثل فيما يمكن تسميته بـ”تفخيخ المعلومات” أو “تسليحها”، حيث يتم استخدام تقنيات الذكاء الاصطناعي لتوجيه الرأي العام أو التلاعب به، سواء من داخل الدولة أو خارجها، وأشار إلى تقارير صادرة عن معهد الإنترنت في جامعة أوكسفورد منذ عام 2019، التي كشفت عن حالات لاستخدام الذكاء الاصطناعي للتأثير على الانتخابات، والصراعات الدولية مثل الحرب في أوكرانيا، أو الصراع الإسرائيلي الفلسطيني، وحتى أحداث مصر في 2011.

الذكاء الاصطناعي والهندسة الاجتماعية.. كيف يتم شحن المجتمعات؟

وأشار خبير تكنولوجيا المعلومات إلى أن تقنيات الذكاء الاصطناعي تتيح تحليل المزاج العام وتحديد نقاط الغضب المجتمعي، مما يسمح باستخدام ما يسمى بـ”الهندسة الاجتماعية”، عبر إنتاج محتوى موجه بدقة، ونشره بواسطة حسابات وهمية أو أفراد حقيقيين، بهدف التحريض أو زعزعة الاستقرار.

 

الأسلحة الذكية والقتل التلقائي.. التحدي الأخلاقي الأكبر

وتناول عزام الجانب الأخطر في الاستخدامات العسكرية للذكاء الاصطناعي، مؤكدًا أن الأسلحة الفتاكة ذاتية التشغيل قادرة على اتخاذ قرار القتل دون تدخل بشري، مما يثير تساؤلات أخلاقية جوهرية تتعلق بالمسؤولية عن القتل أو التصفيات، وأضاف: “هل يمكن أن نسمح لصاروخ أو طائرة بدون طيار أن تستهدف شخصًا أو جماعة بناءً على خوارزمية؟ هذا تهديد مباشر لقيم العدالة والتمييز الإنساني”

 

دعوة إلى ميثاق أخلاقي وتشريعات دولية

وكشف الدكتور محمد عزام عن مشاركته في لجنة غير رسمية تابعة للأمم المتحدة تهدف إلى وضع قواعد لاستخدام الذكاء الاصطناعي بشكل آمن وأخلاقي، موضحًا أن هناك مساعٍ دولية لصياغة مبادئ تحظر استخدام الذكاء الاصطناعي في الاستهداف، أو التمييز، أو التحريض على العنف، أو بث المعلومات المضللة، أو انتهاك الخصوصية.

الاتحاد الأوروبي في طليعة التنظيم: تشريع لحماية البشر من خوارزميات التمييز

ونوّه عزام إلى أن الاتحاد الأوروبي وضع مؤخرًا أحد أكثر التشريعات صرامة بشأن الذكاء الاصطناعي، من خلال “قانون الذكاء الاصطناعي AI Act”، الذي يصنّف بعض التطبيقات كـ”عالية الخطورة”، ويمنع استخدامها، خاصة تلك التي تتعلق بتصنيف البشر، أو اتخاذ قرارات وظيفية وتمويلية تؤثر في حياتهم، كما يُلزم الشركات بالكشف عن الخوارزميات ونُظم التقييم المستخدمة.

تحديات التطبيق ومخاوف من تأخر الغرب

ورغم هذه الجهود، أشار عزام إلى أن قدرة أوروبا على فرض تلك التشريعات قد تواجه تحديات كبيرة بسبب سرعة تطور التكنولوجيا، مؤكدًا أن التأخر في تبني الذكاء الاصطناعي نتيجة التشريعات البيروقراطية قد يضع أوروبا في موقف متأخر مقارنة بباقي الدول.