في عصر يتغلغل فيه الذكاء الاصطناعيّ في كلّ جانب من جوانب حياتنا، ظهرت قدرته على توليد المعلومات المضلّلة والأخبار الكاذبة كمصدر قلق عميق، إذ يكشف تقرير المخاطر العالميّة لعام 2024 الصادر عن المنتدى الاقتصاديّ العالميّ أنّ 53% من 1,490 من قادة الأعمال حول العالم الّذين تمّ استطلاعهم يصنّفون المعلومات والأخبار المزيّفة المولّدة عبر الذكاء الاصطناعيّ كثاني أكبر مخاطر عالميّة محتملة، وذلك بعد الأحداث الجوّيّة القصوى.
ويشرح هذا المقال تأثيرات الأكاذيب المولّدة بواسطة الذكاء الاصطناعيّ على المستويات الاجتماعيّة والسياسيّة والاقتصاديّة والعسكريّة.
على المستوى الاجتماعيّ، يمكن لقدرة الذكاء الاصطناعيّ على خلق محتوى واقعيّ، ولكن كاذباً حيث يقوّض الثقة بشكل خطير، إذ انّ الفيديوهات المزيّفة، أو التسجيلات الصوتيّة أو الفيديوهات المصنّعة الّتي تبدو حقيقيّة، يمكن أن تنشر معلومات غير مؤكّدة، ممّا يؤدّي إلى الارتباك والذعر، ويتسبّب تآكل الثقة لدى الناس في المؤسّسات الاجتماعيّة، الأمر الّذي يجعلهم يكافحون للتمييز بين الحقيقة والخيال، وهو بالتالي يغذّي جوّاً من الشكّ والتشاؤم.
سياسيّاً، يمكن للمعلومات والأخبار المزيّفة المولّدة من قبل الذكاء الاصطناعيّ أن تتلاعب بالرأي العامّ، ممّا قد يؤثّر في نتائج الانتخابات، كما يمكن لخوارزميّات الذكاء الاصطناعيّ أن تولّد أخباراً كاذبة مقنعة، مصمّمة وفقاً لتحيّزات الفرد، وهو ما يؤدّي إلى تقسيم المجتمعات، في حين أنّه لا يؤدّي هذا فقط إلى تشويه العمليّات الديمقراطيّة، ولكنّه يهدّد أيضاً استقرار الأنظمة السياسيّة عن طريق تفاقم الانقسامات وتغذية الاضطرابات.
اقتصاديّاً، يمكن أن يؤدّي انتشار المعلومات الخاطئة عبر الذكاء الاصطناعيّ إلى تلاعب في الأسواق، إذ يمكن أن تتسبّب الشائعات المولّدة بواسطة الذكاء الاصطناعيّ حول الشركات في تذبذب أسعار الأسهم، ممّا يضرّ بالاستثمارات والاستقرار الاقتصاديّ.
علاوة إلى ذلك، يمكن أن تخلق المعلومات المضلّلة حول السياسات الاقتصاديّة أو الاتّفاقيّات التجاريّة حالة من عدم اليقين، مؤثّرة على الأسواق العالميّة والعلاقات الاقتصاديّة الدوليّة.
أمّا في المجال العسكريّ، فيمكن استخدام المعلومات والأخبار المزيّفة كسلاح مميت، إذ بإمكان الذكاء الاصطناعيّ أن يخلق معلومات استخباراتيّة مقنعة ولكن خاطئة، ممّا يؤدّي إلى قرارات استراتيجيّة خاطئة تتسبّب في تصعيد النزاعات.
أمّا فيما يتعلّق بالاغتيالات الخاطئة والإبادة الجماعيّة، فهناك عدّة طرق يمكن أن يساهم الذكاء الاصطناعيّ في هذه الأعمال الشنيعة، إذ يستخدم الذكاء الاصطناعيّ لتحليل كمّيّات هائلة من البيانات الشخصيّة، والّتي قد تشمل معلومات عن العرق، الدين، أو الانتماءات السياسيّة، أو أن يقوم بتحليل السلوك البشريّ والتنبّؤ بأنماط معيّنة، وفي حالات الاستخدام الخاطئ، قد يؤدّي هذا إلى الاشتباه غير العادل في أشخاص بريئين أو مجموعات كاملة وتحديدهم كأهداف، وفي موازاة ذلك فإنّ الطائرات المزوّدة بأنظمة استهداف تعمل بالذكاء الاصطناعيّ، يمكن أن تؤدّي إلى اغتيالات خاطئة إذا كانت هذه الأنظمة تعتمد على بيانات غير دقيقة أو متحيّزة، أو إذا حدثت أخطاء في التحليل الخوارزميّ.
وبناء على ما تقدّم، يتطلّب معالجة هذا المخاطر العالميّة نهجاً متعدّد الأوجه يشمل ذلك تطوير أدوات قويّة للكشف عن الذكاء الاصطناعيّ، وتعزيز الثقافة الرقميّة لمساعدة الأفراد على تحديد المحتوى المزيّف، وفرض قوانين صارمة لمحاسبة صانعي المحتوى الضارّ الناتج عن الذكاء الاصطناعيّ، والأهمّ من ذلك هو التعاون بين الحكومات وشركات التكنولوجيا والمجتمع المدنيّ أمر حاسم لخلق إطار عمل موحّد لاستخدام الذكاء الاصطناعيّ بمسؤوليّة.
المهندس نضال البيطار – الرئيس التنفيذي /جمعية انتاج