قانون الذكاء الاصطناعي: إطار قانوني جديد للذكاء الاصطناعي في الشركات
Par Mahassine El Kharraz
Posté le: 12/08/2025 21:49
مقدمة
أصبح الذكاء الاصطناعي يحتل مكانة مركزية في استراتيجيات تطوير الشركات، سواء كان ذلك لتحسين الإنتاج أو تخصيص علاقات العملاء أو أتمتة عمليات اتخاذ القرارات المعقدة. ومع ذلك، فإن هذا التقدم التكنولوجي الواعد ينطوي على مخاطر لا يستهان بها، مثل التحيز التمييزي وانتهاك الخصوصية وغموض عمليات اتخاذ القرار أو حتى عواقب اجتماعية غير متوقعة.
لمواجهة هذه التحديات، اعتمدت الاتحاد الأوروبي اللائحة (EU) 2024/1689، المعروفة باسم قانون الذكاء الاصطناعي، والتي دخلت حيز التنفيذ في 2 أغسطس 2025. يحدد هذا النص، وهو أول إطار قانوني شامل مخصص للذكاء الاصطناعي، قواعد موحدة تهدف إلى ضمان الأمن والشفافية واحترام الحقوق الأساسية. ويستند إلى نهج تدريجي، يوازن بين الالتزامات المفروضة على الفاعلين الاقتصاديين ومستوى المخاطر التي تشكلها أنظمة الذكاء الاصطناعي.
وبالتالي، فإن السؤال الذي يطرح نفسه هو إلى أي مدى يسمح هذا الإطار التنظيمي الجديد بالتوفيق بين الابتكار التكنولوجي وحماية الحقوق الأساسية داخل الشركات. للإجابة على هذا السؤال، من الضروري دراسة نطاق وهيكل هذا الإطار الطموح من ناحية، والتحديات والآفاق التي يطرحها تطبيقه على العالم الاقتصادي من ناحية أخرى.
الجزء الأول: إطار قانوني طموح ومنظم للشركات
أ – الأهداف والمبادئ التأسيسية لقانون الذكاء الاصطناعي
يهدف قانون الذكاء الاصطناعي إلى إنشاء سوق محلية للذكاء الاصطناعي تكون تنافسية وآمنة في الوقت نفسه. ويستند إلى تصنيف الأنظمة حسب مستوى مخاطرها: بعضها، الذي يعتبر خطراً غير مقبول، محظور، مثل أجهزة التقييم الاجتماعي. تخضع الأنظمة عالية المخاطر، مثل تلك المستخدمة في التوظيف أو التعليم أو إدارة البنى التحتية الحيوية، لمتطلبات مشددة. أخيراً، لا تخضع الأنظمة ذات المخاطر المحدودة أو الضئيلة سوى لالتزامات بسيطة، غالباً ما تتعلق بالشفافية وإعلام المستخدمين.
بالإضافة إلى هذا التصنيف، تكرس اللائحة مبادئ أساسية مثل شفافية التشغيل والمتانة التقنية للأنظمة وإمكانية تتبع البيانات المستخدمة للتدريب. ويهدف كل ذلك إلى إرساء مناخ من الثقة في استخدام الذكاء الاصطناعي، من خلال ضمان الرقابة طوال دورة حياته.
ب – الالتزامات الجديدة على الشركات
بالنسبة للشركات، لا يقتصر قانون الذكاء الاصطناعي على إعلانات المبادئ: فهو يفرض التزامات ملموسة وقابلة للتحقق. يجب على مشغلي الأنظمة عالية المخاطر وضع إدارة صارمة للمخاطر، وتكوين وثائق تقنية كاملة، والاحتفاظ بسجل دقيق لبيانات التعلم. كما يجب عليهم إخضاع أنظمتهم للاختبارات والتقييمات قبل طرحها في السوق وتسجيلها في قاعدة البيانات الأوروبية المخصصة لذلك.
تخضع أنظمة الذكاء الاصطناعي للأغراض العامة أيضًا لأحكام محددة، بما في ذلك الالتزام بتقديم معلومات واضحة عن مصدر البيانات وكيفية عمل النماذج. يهدف هذا النهج إلى تحميل جميع الأطراف، من المصممين إلى المستخدمين النهائيين، المسؤولية لضمان امتثال أنظمة الذكاء الاصطناعي المستخدمة للمعايير الأوروبية.
الجزء الثاني: التحديات وآفاق التنفيذ بالنسبة للعالم الاقتصادي
أ – تحديات الامتثال والمسؤولية
يمثل الامتثال لقانون الذكاء الاصطناعي تحديًا كبيرًا للشركات، سواء على الصعيد التنظيمي أو المالي. العقوبات المنصوص عليها رادعة بشكل خاص، حيث يمكن أن تصل إلى 35 مليون يورو أو 7% من إجمالي المبيعات السنوية العالمية. كما أن تعقيد الإطار التنظيمي يرجع إلى ارتباطه بنصوص أخرى قائمة، مثل اللائحة العامة لحماية البيانات، وتوجيه NIS2 بشأن الأمن السيبراني، أو التوجيه المستقبلي بشأن مسؤولية الذكاء الاصطناعي.
تفرض هذه التداخلات التنظيمية على الشركات اعتماد نهج متكامل للامتثال، يحشد في الوقت نفسه الخدمات القانونية، وأقسام تكنولوجيا المعلومات، وإدارات الجودة، وحوكمة الشركات. كما أن مفهوم المسؤولية المشتركة بين المصممين والموزعين والمستخدمين النهائيين هو أيضًا في صميم النظام، مما يتطلب مزيدًا من اليقظة التعاقدية.
ب – نحو دمج الذكاء الاصطناعي بشكل متناغم في استراتيجية الشركة
على الرغم من هذه القيود، يمكن اعتبار قانون الذكاء الاصطناعي فرصة استراتيجية للشركات. من خلال توقع الالتزامات التنظيمية، يمكن للشركات تعزيز صورتها الموثوقة وبناء ثقة عملائها وشركائها. وهذا يتطلب تدريب الفرق على القضايا القانونية والأخلاقية للذكاء الاصطناعي، ودمج الامتثال منذ مرحلة تصميم الأنظمة، ووضع حوكمة داخلية مخصصة.
ستلعب السلطات الوطنية دورًا حاسمًا في هذه المرحلة الانتقالية. ستكون مهمة CNIL، التي تتمتع بالفعل بخبرة في مجال حماية البيانات، وINESIA، وهي هيئة جديدة مكلفة بتقييم أمن الذكاء الاصطناعي، هي دعم الشركات في تنفيذ المتطلبات الأوروبية، لا سيما الشركات الصغيرة والمتوسطة التي لديها موارد محدودة.
خلاصة
يمثل قانون الذكاء الاصطناعي خطوة حاسمة في تنظيم الذكاء الاصطناعي في أوروبا. من خلال وضع إطار عمل منسق وملزم، يهدف القانون إلى حماية الحقوق الأساسية مع توفير بيئة قانونية مستقرة ويمكن التنبؤ بها للشركات. يمثل تطبيقه تحديًا كبيرًا، ولكنه يمكن أن يصبح أيضًا رافعة تنافسية للاعبين الاقتصاديين الذين سيستفيدون منه. وباعتمادها هذا النهج القائم على الثقة والشفافية، تعتزم أوروبا أن تفرض نفسها كنموذج عالمي للذكاء الاصطناعي الأخلاقي والمسؤول.
المصادر:
- اللائحة (الاتحاد الأوروبي) 2024/1689 المؤرخة 13 يونيو 2024 (قانون الذكاء الاصطناعي)، الجريدة الرسمية للاتحاد الأوروبي L المؤرخة 12 يوليو 2024.
- ميثاق الحقوق الأساسية للاتحاد الأوروبي، المادتان 8 (حماية البيانات) و21 (عدم التمييز).
- اللائحة (الاتحاد الأوروبي) 2016/679 المؤرخة 27 أبريل 2016 (اللائحة العامة لحماية البيانات).
- التوجيه (الاتحاد الأوروبي) 2022/2555 (NIS2) المؤرخ 14 ديسمبر 2022 بشأن الأمن السيبراني.
- اقتراح التوجيه COM(2022) 496 بشأن المسؤولية المدنية للذكاء الاصطناعي.
- المفوضية الأوروبية، أسئلة وأجوبة حول قانون الذكاء الاصطناعي (digital-strategy.ec.europa.eu).
- CNIL، توصيات بشأن الذكاء الاصطناعي (cnil.fr).
- INESIA، عرض للمعهد الوطني لتقييم وأمن الذكاء الاصطناعي (inesia.fr).