في غضون بضع سنوات، تحولت الذكاء الاصطناعي التوليدي من مجرد تقنية مثيرة للفضول إلى أداة لا غنى عنها. بفضل قدرتها على كتابة النصوص وإنشاء الصور وإنتاج مقاطع الفيديو وتوليف البيانات، أحدثت هذه التقنية ثورة في ممارسات الشركات ووسائل الإعلام وحتى المؤسسات العامة. تجذب هذه القوة الانتباه بفضل ما توفره من توفير للوقت والإبداع، ولكنها تثير القلق أيضًا: تكاثر المعلومات المزيفة، ونشر المحتوى التمييزي، وانتهاكات الخصوصية.

أعاد مؤتمر AI+DC، الذي عُقد في واشنطن في 18 سبتمبر 2025، هذه القضايا إلى مركز النقاش العام. وأكد الخبراء والمسؤولون السياسيون على الحاجة الملحة إلى تنظيم استخدام النماذج التوليدية، لا سيما في مواجهة مخاطر التضليل. ويمكننا أن نتساءل: كيف يمكن استخدام الذكاء الاصطناعي التوليدي كأداة للابتكار مع حماية موثوقية المعلومات والحقوق الأساسية؟

I – تقنية إبداعية ولكنها مصدر للمعلومات المضللة
أ – رافعة للابتكار للشركات والمؤسسات

تفتح النماذج التوليدية ChatGPT و Gemini و Midjourney آفاقًا جديدة. فهي تساعد في تصميم حملات تسويقية وإعداد تقارير وتلخيص ملفات معقدة أو توضيح مشاريع. في القطاع الطبي، تلخص بعض الأدوات التجريبية ملفات المرضى أو تقترح فرضيات تشخيصية، دائمًا تحت إشراف بشري. تظهر هذه الاستخدامات مدى قدرة الذكاء الاصطناعي التوليدي على تحسين الإنتاجية وتوفير الوقت للقيام بمهام ذات قيمة مضافة أعلى.

ب – تهديد لموثوقية المحتوى والقيم الديمقراطية

لكن هذه القدرة نفسها يمكن أن تصبح وسيلة لنشر المعلومات المضللة. فهناك بالفعل مقاطع فيديو مزيفة وخطب مختلقة وصور مزورة تنتشر على شبكات التواصل الاجتماعي. خلال الحملات الانتخابية الأخيرة في الولايات المتحدة، سعت عدة ”تقنيات تزوير عميقة“ إلى التلاعب بالرأي العام. في السياق المهني، يمكن أن يؤدي الاستخدام غير الحذر للذكاء الاصطناعي التوليدي إلى تسرب بيانات حساسة أو نشر رسائل متحيزة أو تشهيرية. بدون إشراف، تصبح الحدود بين الإبداع المشروع والتلاعب هشة.

II – إطار قانوني وأخلاقي لاستعادة الثقة
أ– قواعد واضحة لتأمين استخدام الذكاء الاصطناعي التوليدي

في مواجهة هذه التجاوزات، يتطور القانون. في أوروبا، يفرض قانون الذكاء الاصطناعي (AI Act) على مصممي النماذج التوليدية التزامات بالشفافية: الإبلاغ عن أن المحتوى تم إنتاجه بواسطة الذكاء الاصطناعي، وتوثيق بيانات التعلم، واختبار التحيزات والأخطاء. يحمي قانون حماية البيانات العامة (RGPD)، الساري بالفعل، البيانات الشخصية من خلال فرض جمعها بشكل نزيه ومحدود. في الولايات المتحدة، تناقش قمة AI+DC فرض التزامات جديدة على المنصات، بحيث تقوم بتصفية المحتويات المضللة ومراقبة استخدام نماذجها المفتوحة.

ب – مسؤولية الأطراف الفاعلة ووضع ممارسات جيدة

بالإضافة إلى النصوص القانونية، هناك حاجة إلى ثقافة المسؤولية. يجب على الشركات وضع مواثيق داخلية تحدد متى وكيف تستخدم الذكاء الاصطناعي التوليدي، وتوعية فرقها بمخاطر المعلومات المضللة، والحفاظ على الرقابة البشرية على المحتويات الحساسة. بعض المنصات تنشر بالفعل أساليب التصفية التي تتبعها وتسمح بإجراء تدقيقات مستقلة. هذه الإجراءات، إلى جانب التنظيم المناسب، تضع الأسس لاستخدام أكثر أمانًا واحترامًا للقيم الديمقراطية.

خاتمة

تعد الذكاء الاصطناعي التوليدي تقدماً كبيراً، ولكنه لا يمكن أن يتطور دون ضوابط. إن قدرته على إنشاء محتوى بكميات كبيرة يتطلب التوفيق بين الابتكار واليقظة. يجب أن تتقدم القوانين والأخلاق والمسؤولية الخاصة بالجهات الفاعلة الخاصة والعامة بشكل متزامن لضمان أن تدعم هذه التكنولوجيا الإبداع والكفاءة، دون المساس بالثقة في المعلومات أو انتهاك الحقوق الأساسية.

المصادر:

Règlement (UE) 2024/1689 (AI Act), JOUE du 12 juillet 2024.

Sommet AI+DC, Washington, 18 septembre 2025 (AP News, Axios).

RGPD – Règlement UE 2016/679.

Le Monde, « IA générative : l’Europe face au défi de la désinformation », 19 septembre 2025.