حوكمة الذكاء الاصطناعي: المفتاح لمستقبل رقمي آمن

وقت القراءة 7 دقيقة

حوكمة الذكاء الاصطناعي حوكمة الذكاء الاصطناعي: المفتاح لمستقبل رقمي آمن مجموعة ريناد المجد لتقنية المعلومات RMG

لا شك أنك سمعت مسبقاً عن الذكاء الاصطناعي وهو العلم الذي يساهم في تحويل الآلة لتصبح قادرة على تقديم قدرات مشابهة للبشر في مختلف المجالات، وقد أضحى الذكاء الاصطناعي كنزاً في عالم الأعمال، تتسابق على اكتشافه واستخدامه معظم المؤسسات اليوم لتجني منه أرباحاً مادية إضافة لعوائد عظيمة على سمعة المؤسسة ووصولها للتميز والانتقال بها لحلبة المنافسة القوية في السوق.

ارتبط الذكاء الاصطناعي بمصطلح الحوكمة ككل العلوم التي جاءت بها التقنية، ومن المؤكد أنك صادفت مصطلح حوكمة الذكاء الاصطناعي مسبقاً وترغب بمعرفة المزيد عنه.

سنبدأ أولاً بالتعرف على ما تعنيه حوكمة الذكاء الاصطناعي، ثم سننتقل إلى المساءلة، فيجب أن نكون واضحين بتحديد المسؤول عن حوكمة الذكاء الاصطناعي، ثم سنكتشف معاً كيف يتم قياس حوكمة الذكاء الاصطناعي، وأخيراً سنتعرف على نموذج إطار حوكمة الذكاء الاصطناعي.

إذاً ما هي حوكمة الذكاء الاصطناعي؟

أصبحت كلمة “الحوكمة”، في الثلاثين عامًا الماضية، جزءًا لا يتجزأ من مفردات الأعمال القياسية، فماذا تعني الحوكمة؟

الحوكمة هي شيء يشمل جميع عمليات الحكم، أي هي الطريقة التي يتم بها تنظيم القواعد أو الإجراءات والحفاظ عليها وغالبًا ما يتم فيها تحديد المساءلة.

يمكننا القول بأن حوكمة الذكاء الاصطناعي تغطي تعريف الحوكمة السابق أيضًا، كما تتصف حوكمة الذكاء الاصطناعي بكونها قابلة للتفسير وشفافة وأخلاقية.

حوكمة الذكاء الاصطناعي

ومع ذلك، فإن هذه الكلمات الثلاث تعني أشياء مختلفة للمنظمات أو الوظائف المختلفة داخل المنظمات، مما ينتج عنه تعريفات أو أوصاف مختلفة قليلاً عن ماهية حوكمة الذكاء الاصطناعي.

على سبيل المثال، هناك فرق بين التعريف الفني والتعريف الرسمي لـ “الشفافية”، حيث سيتضمن التعريف الفني بالتأكيد تفاصيل حول رمز البرنامج ومكونات البيانات الفردية، والتي قد لا يتضمنها التعريف الرسمي، وبالمثل يمكن أن تتضمن الكلمات “القابلة للتفسير” و “الشفافية” القدرة على قياس التكلفة والقيمة وقابلية التدقيق والامتثال.

يمكن تعريف حوكمة الذكاء الاصطناعي أيضاً على أنها: وضع إطار قانوني لضمان أن تقنيات التعلم الآلي (ML) مدروسة جيدًا ومتطورة بهدف مساعدة البشرية على التنقل في اعتماد أنظمة الذكاء الاصطناعي بشكل عادل.

لربما تفكر في كيفية تفاعل حوكمة الذكاء الاصطناعي مع كل ما يحيط بها!

تحتاج سياسة الحوكمة إلى الوجود والتفاعل مع العالم من حولها أو داخل المنظمة، الأمر الذي تتجاهله معظم أوصاف حوكمة الذكاء الاصطناعي.

توضح بعض التعريفات، مثل نسخة الحكومة السنغافورية، أن حل الذكاء الاصطناعي يجب أن يكون محوره الإنسان مما يقلل من الفضاء الذي يخدم فيه حوكمة الذكاء الاصطناعي، ولكن قد لا يكون هذا هو دور حوكمة الذكاء الاصطناعي فقط، حيث يجب أن يتلاءم مع الإطار العام لحوكمة الشركات، وقد يحتاج في بعض الأحيان إلى التركيز على الآلة وليس على البشر.

تقدم لكم شركة ريناد المجد لتقنية المعلومات RMG مجموعة من حلول الذكاء الاصطناعي يمكنكم الاطلاع عليها من هنا.

تحديد حوكمة الذكاء الاصطناعي يجب أن يتم بعناية وبتفكير كبير.

من يجب أن يكون مسؤولاً عن حوكمة الذكاء الاصطناعي؟

هنا سنتحدث عن المساءلة، فتحديد المسؤول عن حوكمة الذكاء الاصطناعي هو أمر معقد، حيث أنه لا يوجد شخص واحد مسؤول عن ذلك بمفرده اليوم، وستختلف الإجابة على هذا السؤال بناءً على تعريف المنظمة لحوكمة الذكاء الاصطناعي.

بوجود البيانات المهمة لجميع وظائف الأعمال، ومشاركة العملاء، والمنتجات، وسلاسل التوريد، يحتاج كل قائد إلى أن يكون على دراية بالذكاء الاصطناعي.

تعد قيادة الذكاء الاصطناعي مهارة جديدة مهمة لجميع القادة، وحوكمة الذكاء الاصطناعي هي عنصر من عناصر تلك القيادة، لذلك، من الواضح أن حوكمة الذكاء الاصطناعي يجب أن تكون ذات صلة وقابلة للتطبيق على جميع القادة في المؤسسة، ومع ذلك، هناك أيضًا أدوار وظيفية مهمة في الإنفاذ والتطور المستمر لحوكمة الذكاء الاصطناعي.

 

الأدوار المهمة في حوكمة الذكاء الاصطناعيسنذكر الآن بعض الأدوار المهمة في تطور حوكمة الذكاء الاصطناعي:

أولاً: يجب أن يكون الرئيس التنفيذي أو القائد الأعلى في مؤسسة حكومية هو الشخص المسؤول في نهاية المطاف عن ميثاق حوكمة الذكاء الاصطناعي بالإضافة إلى تعيين واضح للمسؤولية داخل المؤسسة.

 ثانيًا: بما أن البيانات تعد أصلًا تنافسيًا، فستقع مسؤولية التحكم وربما التدقيق على مجلس إدارة المؤسسة، حيث يجب أن تشمل هذه المسؤولية لجنة التدقيق.

 

ثالثًا: يجب تضمين العديد من الأدوار الوظيفية المحددة داخل المنظمة في حوكمة الذكاء الاصطناعي، فالمستشار العام سيكون مسؤولاً عن الجوانب القانونية والمخاطر، والمدير المالي لعناصر التكلفة والمخاطر المالية، أما مسؤولية كبير مسؤولي البيانات (CDO) ستتمثل في التنسيق والحفاظ على التطور المستمر لحوكمة الذكاء الاصطناعي في المنظمة.

يمكن أن يكون للأدوار التنفيذية الوظيفية الأخرى مسؤوليات محددة حول حوكمة الذكاء الاصطناعي، ولكن هذا هو المكان الذي يصبح فيه الذكاء الاصطناعي، بما في ذلك حوكمة الذكاء الاصطناعي، مهارة قيادية عامة يحتاج كل مدير في المؤسسة إلى إتقانها.

من دون تحديد المسؤول عن جوانب الحوكمة، فسيكون نهج حوكمة الذكاء الاصطناعي متواضعًا، ومن المرجح أن يفشل.

يجب أن يأخذ الرؤساء التنفيذيون دورهم في حوكمة الذكاء الاصطناعي. ومن المرجح أن تصبح الحكومات أكثر انخراطًا من خلال المتطلبات التنظيمية والقانونية وأن تصبح شركات التدقيق كيانًا تابعًا لجهة خارجية يشارك في المراجعة المستمرة لحوكمة الذكاء الاصطناعي.

كيف ينبغي قياس حوكمة الذكاء الاصطناعي؟

يقول المثل، “ما لا يمكنك قياسه، لا يمكنك إدارته”، بالإضافة إلى أهمية تعيين المسؤوليات، تحتاج أيضًا إلى أن تكون قادرًا على قياس حوكمة الذكاء الاصطناعي.

تتجاهل معظم المواضيع التي تغطي حوكمة الذكاء الاصطناعي مسألة القياس، بالرغم من ذكرها في وثائق مثل “نموذج إطار حوكمة الذكاء الاصطناعي” في سنغافورة، ولكن حتى في ذلك النموذج، لا توجد تدابير محددة موصى بها لحوكمة الذكاء الاصطناعي.

سيكون الافتقار إلى هذه المقاييس -الوقائع –نقطة ضعف في أي منظمة لأنه لا يمكن نقلها وإدراجها في العمليات والأنظمة والمنصات. سيصبح نشر حوكمة الذكاء الاصطناعي كعنصر من عناصر بيئة البرامج أمرًا بالغ الأهمية لجميع المؤسسات.

هنا يجب أن نطرح هذا السؤال: ما هي التدابير اللازمة ذات الصلة بعملية القياس؟ تتطلب الإجابة على ذلك أن تكون المنظمة واضحة أولاً في القسمين الأولين أعلاه اللذان يتضمنان تعريف حوكمة الذكاء الاصطناعي الخاص بالمنظمة، وتحديد المسؤول في المنظمة وما هو المسؤول عنه.

ستصبح بعض المقاييس أو المقاييس الخاصة بحوكمة الذكاء الاصطناعي معيارًا لجميع المؤسسات سواء من خلال التنظيم أو من خلال قوى السوق. بالإضافة لذلك، تحتاج المؤسسات إلى التفكير في تدابير أخرى من شأنها أن تدعم توجهها الاستراتيجي وكذلك كيفية عمل الشركة على أساس يومي.

حول موضوع القياس ينصح بقراءة دور قياس التحول الرقمي في رحلة مؤسستك الرقمية نحو النجاح.

بعض المقاييس ومؤشرات الأداء الرئيسية المستندة إلى البيانات التي يجب أن تراعيها هي:

  • البيانات: مقاييس نسب البيانات أو مصدر البيانات، بالإضافة إلى مقاييس حول جودة البيانات.
  • الأمان: المقصد هنا هو أمان النماذج واستخدامها والقدرة على فهم التلاعب أو الاستخدام غير السليم لبيئات الذكاء الاصطناعي.
  • التكلفة / القيمة: يجب أن يكون هناك مؤشرات أداء رئيسية لتكلفة البيانات أو حتى القيمة التي تم إنشاؤها بواسطة البيانات والخوارزمية.
  • التحيز: مؤشرات الأداء الرئيسية التي يمكن أن تظهر هي تحيز الاختيار أو تحيز القياس، من المؤكد أن المنظمات تحتاج إلى مراقبة التحيز من خلال البيانات المباشرة أو المشتقة بشكل مستمر.
  • المساءلة: والتي تعني وضوح المسؤولية وبالتالي مشاركة الأفراد، وذلك عند استخدامهم للأنظمة أو أي قرارات.
  • التدقيق: الجمع المستمر للبيانات، والذي يمكن أن يشكل بشكل إجمالي أساسًا لسجلات التدقيق ومراجعة النظام بشكل دوري. وبالتالي، يمهد الطريق لأطراف ثالثة، مثل شركات التدقيق أو منصة البرامج نفسها، لأداء عمليات التدقيق باستمرار.
  • الوقت: يجب أن تكون مقاييس الوقت جزءًا من جميع مؤشرات الأداء الرئيسية، مما يسمح بفهم أفضل للتأثير بمرور الوقت.

هناك العديد من المقاييس أو مؤشرات الأداء الرئيسية الأخرى التي يجب على المنظمات أخذها في عين الاعتبار.

من المهم للمؤسسات أن تركز على تنفيذ هذا الآن والالتزام برعاية وتطوير بيئة القياس، كما يجب أن تكون حوكمة الذكاء الاصطناعي جزءًا من جميع بيئات الذكاء الاصطناعي والتعلم الآلي.

من الأهمية بمكان أن يتحمل الرؤساء التنفيذيون مسؤولية إنشاء ميثاق حوكمة الذكاء الاصطناعي لمنظمتهم، ويتضمن هذا الجزء من هذا الجهد إسناد المساءلة وإنشاء مقاييس أو مؤشرات أداء رئيسية للمؤسسة.

بدون اتباع نهج شامل لحوكمة الذكاء الاصطناعي، سيفشل الذكاء الاصطناعي في مؤسستك.

نموذج إطار حوكمة الذكاء الاصطناعي

في 23 يناير 2019، أصدرت PDPC الإصدار الأول من نموذج إطار حوكمة الذكاء الاصطناعي (إطار نموذجي)، يوفر إطار العمل النموذجي إرشادات مفصلة وقابلة للتنفيذ بسهولة لمنظمات القطاع الخاص لمعالجة القضايا الأخلاقية والحوكمة الرئيسية عند نشر حلول الذكاء الاصطناعي، وذلك من خلال شرح كيفية عمل أنظمة الذكاء الاصطناعي، وبناء ممارسات جيدة للمساءلة بشأن البيانات، وإنشاء اتصال مفتوح وشفاف، ويهدف إطار النموذج إلى تعزيز فهم الجمهور وثقته في تقنيات الذكاء الاصطناعي.

في 21 يناير 2020، أصدرت PDPC الإصدار الثاني من نموذج الإطار.نموذج حوكمة الذكاء الاصطناعي

يركز الإطار النموذجي بشكل أساسي على أربعة مجالات واسعة وهي كالآتي:

  1. هياكل وتدابير الحوكمة الداخلية
  2. المشاركة البشرية في اتخاذ القرار المعزز بالذكاء الاصطناعي
  3. إدارة العمليات
  4. التفاعل والتواصل مع أصحاب المصلحة.

 

بينما لا يقتصر الطموح على الإطار النموذجي، إلا أنه مقيد في النهاية بالشكل والغرض والاعتبارات العملية للنطاق.

لنتحدث الآن عن إطار النموذج والذي يعد:

  • حيادي الخوارزمية Algorithm-agnostic: وهذا يعني أنه لا يركز على منهجية معينة لتحليل البيانات أو الذكاء الاصطناعي.
  • حيادي التقنية Technology-agnostic: فهو لا يركز على أنظمة أو برامج أو تقنية محددة، وسيتم تطبيقه بغض النظر عن لغة التطوير وطريقة تخزين البيانات.
  • حيادي القطاع Sector-agnostic: وهي بمثابة مجموعة أساسية من الاعتبارات والتدابير التي يتعين على المنظمات العاملة في أي قطاع اعتمادها، قد تختار قطاعات أو منظمات معينة تضمين اعتبارات وتدابير إضافية أو تكييف مجموعة خط الأساس لتلبية احتياجاتها.
  • حيادي المقياس ونموذج العمل Scale- and Business-model-agnostic: لا يركز على منظمات ذات حجم المحدد. يمكن استخدامه أيضًا من قبل المنظمات التي تشارك في الأنشطة والعمليات بين الشركات أو الأعمال التجارية للمستهلكين، أو في أي نموذج أعمال آخر.

كما يهدف إطار العمل النموذجي إلى مساعدة المنظمات على تحقيق الأهداف التالية:

  • بناء ثقة المستهلك في الذكاء الاصطناعي من خلال المنظمات.
  • الاستخدام المسؤول للذكاء الاصطناعي للتخفيف من أنواع مختلفة من المخاطر في نشر الذكاء الاصطناعي.
  • إظهار الجهود المعقولة لمواءمة السياسات والهياكل والعمليات الداخلية مع الممارسات ذات الصلة القائمة على المساءلة في إدارة البيانات وحمايتها، على سبيل المثال قانون حماية البيانات الشخصية لعام 2012 (“PDPA“) ومبادئ الخصوصية لمنظمة التعاون الاقتصادي والتنمية

بالإضافة لذلك حدد الإطار المبادئ التوجيهية على الشكل الآتي:

يعتمد نموذج الإطار على مبدأين إرشاديين رفيعي المستوى يعززان الثقة في الذكاء الاصطناعي وفهم استخدام تقنيات الذكاء الاصطناعي:

  • يجب أن تضمن المنظمات التي تستخدم الذكاء الاصطناعي في صنع القرار أن عملية صنع القرار قابلة للتفسير وشفافة وعادلة.

على الرغم من استحالة تحقيق الشفافية والإنصاف بشكل مثالي، يجب على المنظمات أن تسعى جاهدة لضمان استخدام أو تطبيق الذكاء الاصطناعي بطريقة تعكس أهداف هذه المبادئ إلى أقصى حد ممكن، حيث يساعد هذا في بناء الثقة في الذكاء الاصطناعي.

  • يجب أن تركز حلول الذكاء الاصطناعي على الإنسان.

نظرًا لاستخدام الذكاء الاصطناعي لتضخيم القدرات البشرية، فإن حماية مصالح البشر، بما في ذلك رفاهيتهم وسلامتهم، يجب أن تكون الاعتبارات الأساسية في تصميم وتطوير ونشر الذكاء الاصطناعي.

 

الخلاصة: عندما تشارك خوارزميات التعلم الآلي في اتخاذ القرارات، تصبح حوكمة الذكاء الاصطناعي ضرورة، وقد لوحظت تحيزات التعلم الآلي في التوصيف العرقي، ورفض الأفراد بشكل غير عادل للحصول على قروض، والتعرف بشكل غير صحيح على المعلومات الأساسية عن المستخدمين.

سيساعد تطوير حوكمة الذكاء الاصطناعي في تحديد أفضل السبل للتعامل مع السيناريوهات التي تكون فيها القرارات المستندة إلى الذكاء الاصطناعي غير عادلة أو تتعارض مع حقوق الإنسان.


الأسئلة الشائعة حول حوكمة الذكاء الاصطناعي

ما هو الذكاء الاصطناعي؟

هو عبارة عن مجموعة من الأنظمة التي تهدف إلى جعل الآلات والحواسيب الرقمية والتقنيات الحديثة قادرة على تحقيق أهداف معينة بطريقة مشابهة للبشر أو تتعدى قدرة البشر في أغلب الأحيان، بمعنى آخر هو عبارة عن أنظمة تُحاكي الذكاء البشري لأداء المهام والتي لديها القدرة على أن تُحسن من نفسها باستخدام المعلومات التي تجمعها.

ماذا تعني حوكمة الذكاء الاصطناعي؟

الحوكمة هي شيء يشمل جميع عمليات الحكم، أي هي الطريقة التي يتم بها تنظيم القواعد أو الإجراءات والحفاظ عليها وغالبًا ما يتم فيها تحديد المساءلة. يمكننا القول بأن حوكمة الذكاء الاصطناعي تغطي تعريف الحوكمة السابق أيضًا، كما تتصف حوكمة الذكاء الاصطناعي بكونها قابلة للتفسير وشفافة وأخلاقية. كما يمكن تعريف حوكمة الذكاء الاصطناعي أيضاً على أنها: وضع إطار قانوني لضمان أن تقنيات التعلم الآلي (ML) مدروسة جيدًا ومتطورة بهدف مساعدة البشرية على التنقل في اعتماد أنظمة الذكاء الاصطناعي بشكل عادل.

من المسؤول عن حوكمة الذكاء الاصطناعي في المؤسسة؟

أولاً: يجب أن يكون الرئيس التنفيذي أو القائد الأعلى في مؤسسة حكومية هو الشخص المسؤول في نهاية المطاف عن ميثاق حوكمة الذكاء الاصطناعي بالإضافة إلى تعيين واضح للمسؤولية داخل المؤسسة. ثانيًا: بما أن البيانات تعد أصلًا تنافسيًا، فستقع مسؤولية التحكم وربما التدقيق على مجلس إدارة المؤسسة، حيث يجب أن تشمل هذه المسؤولية لجنة التدقيق. ثالثًا: يجب تضمين العديد من الأدوار الوظيفية المحددة داخل المنظمة في حوكمة الذكاء الاصطناعي، فالمستشار العام سيكون مسؤولاً عن الجوانب القانونية والمخاطر، والمدير المالي لعناصر التكلفة والمخاطر المالية، أما مسؤولية كبير مسؤولي البيانات (CDO) ستتمثل في التنسيق والحفاظ على التطور المستمر لحوكمة الذكاء الاصطناعي في المنظمة.

ما هو نموذج إطار حوكمة الذكاء الاصطناعي؟

يوفر إطار العمل النموذجي إرشادات مفصلة وقابلة للتنفيذ بسهولة لمنظمات القطاع الخاص لمعالجة القضايا الأخلاقية والحوكمة الرئيسية عند نشر حلول الذكاء الاصطناعي، وذلك من خلال شرح كيفية عمل أنظمة الذكاء الاصطناعي، وبناء ممارسات جيدة للمساءلة بشأن البيانات، وإنشاء اتصال مفتوح وشفاف، ويهدف إطار النموذج إلى تعزيز فهم الجمهور وثقته في تقنيات الذكاء الاصطناعي.

ما هي المبادئ التوجيهية المحددة في إطار حوكمة الذكاء الاصطناعي؟

يعتمد نموذج الإطار على مبدأين إرشاديين رفيعي المستوى يعززان الثقة في الذكاء الاصطناعي وفهم استخدام تقنيات الذكاء الاصطناعي: أ‌. يجب أن تضمن المنظمات التي تستخدم الذكاء الاصطناعي في صنع القرار أن عملية صنع القرار قابلة للتفسير وشفافة وعادلة. ب‌. يجب أن تركز حلول الذكاء الاصطناعي على الإنسان.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *