قال جاك جندو، خبير التحول الرقمي والذكاء الاصطناعي، إن قضايا أخلاقيات الذكاء الاصطناعي وحماية الخصوصية أصبحت محور جدل وضغط عالمي على شركات التكنولوجيا الكبرى، خاصة فيما يتعلق بوصول الأطفال والمراهقين إلى أدوات الذكاء الاصطناعي التفاعلية.

طبقات حماية جديدة وحدود التقنية

أضاف جندو، خلال مداخلة عبر فضائية القاهرة الإخبارية، أن شركة ميتا أعلنت عن تطوير نسخة جديدة تتضمن طبقات إضافية من الحماية، تشمل أدوات التحكم الأبوي، بهدف تقييد نوعية المحتوى الذي يمكن للأطفال والمراهقين الوصول إليه، أوضح أنه لا توجد حماية تقنية مطلقة، لكن الهدف هو تعقيد الوصول إلى المحتوى الحساس، خاصة أن الذكاء الاصطناعي يتعلم من المستخدمين ويتعامل مع بيانات شخصية قد تؤدي إلى ارتباط نفسي مفرط لدى المراهقين.

الوعي المجتمعي أساس النجاح

أوضح أن منظومة الحماية الفعالة تقوم على ثلاث طبقات أساسية، أولها التزام التطبيقات بحماية البيانات، وثانيها تفعيل أدوات الرقابة الأبوية، وثالثها رفع مستوى الوعي لدى الأهل والمراهقين من خلال المدارس والحكومات ووسائل الإعلام.

أكد أن القرارات الأخيرة للشركات التقنية جاءت نتيجة تداخل عوامل عدة، أبرزها الضغوط المجتمعية والقانونية، خاصة في الولايات المتحدة، حيث تصاعدت القضايا المرتبطة بالخصوصية والحماية الرقمية والجرائم الإلكترونية.