
في وقت تتسارع فيه تطبيقات الذكاء الاصطناعي لتصبح جزءًا من تفاصيل الحياة اليومية، يطرح السؤال نفسه، من يحمي المستخدم في مواجهة قرارات تصدرها خوارزميات لا تُرى؟ هذا السؤال كان محور تحرك برلماني جديد يسعى إلى نقل التعامل مع الذكاء الاصطناعي في مصر من مرحلة الإرشادات العامة إلى إطار قانوني مُلزم.
عضو مجلس النواب أحمد علاء فايد تقدم باقتراح برغبة لإجراء تعديلات جوهرية على اللائحة التنفيذية لقانون حماية البيانات الشخصية رقم 151 لسنة 2020، مستهدفًا إعادة صياغة العلاقة بين المستخدم والتكنولوجيا، خاصة في ظل التوسع في الأنظمة الذكية التي باتت تتخذ قرارات قد تؤثر على حياة الأفراد بشكل مباشر.
اللافت في المقترح أنه لا يكتفي بوضع قواعد عامة، بل يسعى إلى إدماج “الدليل الوطني للذكاء الاصطناعي الآمن” داخل المنظومة القانونية، بحيث تتحول توصياته إلى التزامات واضحة على الشركات والمطورين. ويعني ذلك أن المسؤولية لن تظل مرتبطة فقط بالأخطاء البشرية، بل ستمتد لتشمل الأضرار الناتجة عن مخرجات الذكاء الاصطناعي نفسها، سواء كانت مادية أو معنوية أو حتى مرتبطة بالتمييز.
في قلب هذه التعديلات تبرز حقوق المستخدمين، حيث يطرح المقترح مفاهيم مثل “الحق في الشرح” و”الحق في الاعتراض”، بما يتيح للأفراد فهم كيف ولماذا تم اتخاذ قرارات تمسهم، وهو توجه يتماشى مع نقاشات عالمية حول شفافية الخوارزميات. كما يشدد على ضرورة وجود تدخل بشري في القرارات الحساسة، خصوصًا في القطاعات المصرفية والطبية، لتفادي الاعتماد الكامل على الآلة.
ولا يغفل المقترح جانب الملكية الفكرية، إذ يفرض على مطوري الأنظمة الإفصاح عن البيانات المستخدمة في تدريب النماذج، مع منح المبدعين حق استبعاد أعمالهم من هذه العمليات، في محاولة لتحقيق توازن بين التطور التكنولوجي وحماية الإبداع.
ويفتح المقترح بابا لدعم الابتكار عبر إنشاء “صندوق رملي تنظيمي”، يوفر بيئة تجريبية مرنة تسمح للشركات الناشئة والمطورين باختبار حلولهم تحت إشراف الدولة، دون التعرض لتعقيدات تنظيمية قد تعرقل الابتكار.







