English

تنظيم الذكاء الاصطناعي يتقدّم.. والشركات لم يعد أمامها رفاهية الانتظار

English

تنظيم الذكاء الاصطناعي يتقدّم.. والشركات لم يعد أمامها رفاهية الانتظار

بقلم: جاد إليوت ديب، المؤسس والرئيس التنفيذي لشركة PangaeaX

خلال العام الماضي، بدأ مشهد تنظيم الذكاء الاصطناعي يتغيّر بوضوح. فقد شرعت حكومات كثيرة حول العالم في وضع أطر تنظيمية شاملة، في إشارة إلى أن التعامل مع الذكاء الاصطناعي لم يعد مجرد مساحة للتجريب، بل أصبح مجالًا يخضع للرقابة والمساءلة.

ومع تسارع هذا التحول، لم يعد ممكنًا التعامل مع حوكمة الذكاء الاصطناعي كأمر ثانوي أو تفصيل لاحق، إذ يصبح الوقت المتاح أمام الشركات لدمج الحوكمة وتقييم المخاطر ومتطلبات الشفافية في أنظمة الذكاء الاصطناعي أقل يومًا بعد يوم.

الشركات التي تؤخر هذه الخطوات تواجه مخاطر حقيقية؛ فكل تأجيل يعني كلفة أعلى لاحقًا، بدءًا من أنظمة تحتاج إلى إعادة بناء، مرورًا بعقوبات تنظيمية محتملة، وصولًا إلى تآكل تدريجي في السمعة والثقة. في المقابل، لا تحمي الشركات التي تتحرك مبكرًا نفسها فقط من هذه المخاطر، بل تفتح أمامها فرصة لبناء الثقة وترسيخ موقعها كجهات تجمع بين الابتكار والالتزام.

تطوّرات تنظيمية بارزة

في الاتحاد الأوروبي، بدأ قانون الذكاء الاصطناعي (AI Act) في الدخول حيّز التطبيق تدريجيًا خلال عام 2025، مع إدخال مجموعة من البنود الأساسية.

وتشمل هذه البنود قيودًا على استخدام تقنيات المراقبة البيومترية في إنفاذ القانون، وفرض متطلبات للشفافية تخص الأنظمة ذات المخاطر المحدودة ونماذج الذكاء الاصطناعي العامة، إلى جانب مجموعة كاملة من الالتزامات الخاصة بالأنظمة عالية المخاطر، والمقرر دخولها حيّز التنفيذ في عام 2026.

أما في الولايات المتحدة، فقد صدر في ديسمبر 2025 أمرٌ تنفيذي أرسى إطارًا وطنيًا لتنظيم الذكاء الاصطناعي، في محاولة لتوحيد المعايير وتقليل التباين بين القوانين المعمول بها على مستوى الولايات.

وعلى المستوى الإقليمي، أعلنت دولة الإمارات العربية المتحدة في منتصف عام 2024 عن ميثاقها لتطوير واستخدام الذكاء الاصطناعي، والذي حدّد مجموعة من المبادئ المرتبطة بالسلامة وحماية الخصوصية والحد من التحيّز وضمان الإشراف البشري. ويعزّز هذا الإطار وجود قوانين اتحادية لحماية البيانات، إلى جانب هيئات متخصصة في الحوكمة، من بينها مجلس الذكاء الاصطناعي والتكنولوجيا المتقدمة. وتعكس هذه الخطوات توجّه الإمارات نحو تحقيق توازن بين الاعتبارات الأخلاقية وبيئة تنظيمية داعمة للابتكار.

الحوكمة هي الأساس

حوكمة الذكاء الاصطناعي أوسع من مجرد إجراءات امتثال شكلية. ومع بدء تطبيق الأطر التنظيمية، تحتاج الشركات إلى أُطر واضحة تنظّم طريقة اتخاذ القرار وتحدّد كيف تُدار المخاطر ومن يتحمّل المسؤولية عبر مختلف مراحل تطوير واستخدام أنظمة الذكاء الاصطناعي. ويبدأ ذلك بسياسة حوكمة واضحة تتناول مبادئ العدالة والشفافية والأمن، وتدعمها إجراءات موثّقة تتعلق بمصادر البيانات والتحقق من النماذج والحد من التحيّز.

وتتطلب الحوكمة الفعّالة أيضًا تعاونًا بين فرق مختلفة داخل المؤسسة. فاللجان التي تجمع بين الخبرات القانونية والتقنية والإدارية تساعد الشركات على الموازنة بين الابتكار والالتزامات التنظيمية، ومواكبة المتطلبات المتغيّرة، والحفاظ على المعايير الأخلاقية. وعندما تُؤخذ الحوكمة في الاعتبار وتُدمَج منذ المراحل الأولى، فإنها تقلل كلفة الامتثال لاحقًا، وتحوّل الذكاء الاصطناعي من عبء تنظيمي محتمل إلى أداة ذات قيمة استراتيجية.

الفهم قبل الاستخدام

الشفافية في الذكاء الاصطناعي تعني ببساطة أن نعرف كيف تعمل هذه الأنظمة، وعلى أي نوع من البيانات تعتمد. ويرتبط بذلك وضوح طريقة عمل النماذج، أي إمكانية فهم وشرح سبب وصول نموذج الذكاء الاصطناعي إلى نتيجة معيّنة، بما يشمل المنطق الذي يستند إليه والمدخلات المستخدمة وما قد ينطوي عليه من تحيّزات محتملة.

ووفقًا لأبحاث صادرة عن جامعة ستانفورد، ما تزال محدودية وضوح طريقة عمل النماذج من أبرز العوائق أمام توسيع استخدام الذكاء الاصطناعي، لا سيما في القطاعات الخاضعة لتنظيم صارم مثل التمويل والرعاية الصحية. وفي السياق نفسه، أشار تقرير Responsible AI Transparency الصادر عن مايكروسوفت لعام 2025 إلى أن أكثر من 75% من المؤسسات التي تستخدم أدوات الذكاء الاصطناعي المسؤول في إدارة المخاطر سجّلت تحسّنًا في حماية البيانات وثقة العملاء وسمعة العلامة التجارية وجودة اتخاذ القرار.

ومع تزايد التدقيق التنظيمي، لم تعد الشفافية ووضوح طريقة عمل النماذج ممارسات اختيارية، بل أصبحت جزءًا أساسيًا من الطريقة التي يُتوقَّع أن يُطوَّر ويُستخدم بها الذكاء الاصطناعي.

رفع كفاءة القوى العاملة

تنظيم الذكاء الاصطناعي لا يقتصر على فرق محددة داخل المؤسسة، بل يعيد تشكيل متطلبات المهارات عبر المؤسسة بأكملها. فالموظفون بحاجة إلى فهم عملي لأخلاقيات الذكاء الاصطناعي والأطر التنظيمية التي تحكمه وممارسات الاستخدام المسؤول، إلى جانب المهارات التقنية اللازمة لاستخدامه بفاعلية.

فرق التسويق، على سبيل المثال، تحتاج إلى استيعاب كيفية توافق أدوات التخصيص المعتمدة على الذكاء الاصطناعي مع قوانين حماية الخصوصية. وفرق الموارد البشرية مطالَبة بالتأكد من أن خوارزميات التوظيف لا تُدخل تحيّزًا غير مقصود. أما مديرو المنتجات، فعليهم أن يكونوا قادرين على توثيق قرارات الذكاء الاصطناعي وآليات عمله بما يتوافق مع متطلبات الجهات التنظيمية. وفي هذا السياق، فإن ترسيخ الوعي بالذكاء الاصطناعي عبر مختلف الوظائف لا يدعم الالتزام بالقواعد فحسب، بل يتيح للمؤسسات الابتكار بثقة ضمن الأطر التنظيمية القائمة.

من التوجيه إلى التطبيق

مع انتقال كثير من الدول من مرحلة التوجيه إلى مرحلة التطبيق، بات من الضروري أن تستثمر الشركات مبكرًا في أطر واضحة لتحديد المسؤوليات والمساءلة وتطوير الكفاءات وآليات التتبّع والتدقيق. فهذه الضوابط ينبغي أن تكون جزءًا من تصميم أنظمة الذكاء الاصطناعي منذ البداية، لا إضافات تُلحق بها بعد إطلاقها.

وفي ظل اتساع نطاق التنظيم عالميًا، أصبحت متطلبات الشفافية، وإمكانية الشرح، والإشراف البشري عناصر أساسية في القواعد التي تنظّم استخدام الذكاء الاصطناعي. الشركات التي تُدرج هذه المبادئ بشكل استباقي لا تقلّل فقط من المخاطر التنظيمية، بل تميّز نفسها أيضًا بوصفها جهات جدّية وجديرة بالثقة، وقادرة على البناء والعمل بانضباط في سوق يزداد تنافسًا.

شكرا

يرجى التحقق من بريدك الالكتروني لتأكيد اشتراكك.