انطلقت المعايير الدولية لحقوق الإنسان فيما يتعلق بالمستجدات الرقمية وحقوق الإنسان من منطلقين أساسيين؛ الأول اعتبار التكنولوجيا الحديثة والناشئة أداة مهمة لمزيد من تعزيز حقوق الإنسان وحمايتها.

أما الثاني فكان التسليم بأن التكنولوجيا الحديثة والناشئة تنطوي على مخاطر جديدة، بعضها غير معروف تمام المعرفة، والتأكيد على الحاجة إلى تحديد المخاطر والتخفيف من حدتها وضمان الإشراف على التكنولوجيا من خلال آليات تعزز وتحمي حقوق الإنسان.

في هذا الإطار ولغايات تحقيق الاستفادة القصوى من المستجدات الرقمية بما في ذلك التكنولوجيا الناشئة التي يعد الذكاء الاصطناعي أحد أهم اشكالها، ولحماية حقوق الانسان وحرياته من المخاطر التي تنطوي عليها برزت فكرة ضرورة حوكمة الذكاء الاصطناعي على الأصعدة كافة الوطنية والإقليمية والدولية.

حوكمة الذكاء الاصطناعي فكرة تقوم على تضمين عناصر الحكم الصالح لآليات عمل الذكاء الاصطناعي؛ بصورة تضمن شفافية الطريقة التي يتم تنظيم وإدارة الملفات وضمان عدالة المدخلات أو على أقل تقدير عدم قيامها بتهميش أو تنميط بعض الفئات وغير ذلك من أفعال، وفي الوقت ذاته إخضاع القائمين عليه للمساءلة ومن ثم المحاسبة في حال انتهاك حقوق الإنسان بأيّ صورة من الصور.

تم إصدار العديد من الوثائق ذات العلاقة بضرورة الحوكمة العالمية للذكاء الاصطناعي في الإطار الأممي؛ حيث اشارت إحدى هذه الوثائق الى حقيقة أن هناك عجزا في الحوكمة العالمية فيما يتعلق بالذكاء الاصطناعي، فعلى الرغم من وجود الكثير من النقاش بشأن الاخلاقيات والمبادئ، إلا أنه ما يزال ناشئا ومليئا بالثغرات، وفي الوقت ذاته هناك انفصال بين الخطاب الرفيع المستوى والنظم التي يجري تطويرها ونشرها واستخدامها والشروط المطلوبة للسلامة والشمولية.

وعلاوة على ذلك لا يوجد في الوقت الحالي فهم واضح لآليات عمل الذكاء الاصطناعي كلها بما يؤدي الى التحكم في مخرجاته او التنبؤ بتطوره، كما لا يخضع صانعو القرار للمساءلة عن تطوير نظم لا يفهمونها او عن نشرها واستخدامها، وفي الوقت ذاته من المرجح ايضا ان تكون الآثار السلبية غير المباشرة والآثار النهائية الناجمة عن مثل هذه القرارات عالمية.

الوثيقة ذاتها أشارت إلى حتمية حوكمة الذكاء الاصطناعي في ظل تسارع وتيرة تطويره مما يجعل القوة والثروة تتركز في مناطق ولدى جهات بعينها ومع ما يترتب على ذلك من آثار جيوسياسية وجيو اقتصادية.

في السياق ذاته وفي ظل التحديات سواء على المستويات الوطنية أو الإقليمية لحوكمة الذكاء الاصطناعي، يطالعنا الاتحاد الأوروبي كعادته باتفاق وإجماع أوروبي على قانون للذكاء الاصطناعي يهدف الى تعزيز تطويره واعتماده على أنظمة آمنة وجديرة بالثقة في أنحاء الاتحاد الأوروبي كله، بما في ذلك احترام الحقوق الأساسية والسلامة والمبادئ الأخلاقية من خلال معالجة مخاطر نماذج الذكاء الاصطناعي.

القانون الأوروبي يشكل نموذجا يحتذى به في قدرة الاتحادات ذات الرؤية والأهداف والقواسم المشتركة على تبني والسير قدما ووضع حد لمخاطر هذا الذكاء، وبالنتيجة حوكمته، في الوقت الذي تعجز فيه دول العالم مجتمعة على الوصول إلى توافق على الحد الأدنى من معايير حوكمة الذكاء الاصطناعي، وفي هذا الإطار فإن التجربة الأوروبية يتوجب أن تكون نموذجا يحتذى به على مستوى الوطن العربي الذي لديه من الامكانات والمؤهلات والقواسم المشتركة ما يؤهله إذا ما توفرت الرؤية المشتركة والإرادة الواحدة على أن يضع تنظيما إقليميا للقضايا الناشئة وغيرها بما في ذلك ما يتعلق بالذكاء الاصطناعي لتعظيم فرص الاستفادة من ميزاته وفي الوقت ذاته وضع الضوابط ذات العلاقة باستخدامه وتطويره.

المصدر الغد