مجلة الأمن الفصلية

• السياساتالتنظيميةحيثيمكنإنشاءإطارقانوني لحوكمــة الــذكاء الاصطناعــي لتحديــد القواعد والمعاييــر الخاصــة بتطويــر الــذكاء الاصطناعي ونشره واستخدامه بشــكل مسؤول ويضمن ذلك الامتثــال للمبــادئ التوجيهية الأخلاقيــة وحماية المصالح العامة في نفس الوقت. • آليات الرقابةفيمكن للهيئات التنظيمية المستقلة أو لجــان الأخلاق، مثــل مجالس أخلاقيــات الذكاء الاصطناعي للمؤسســات، مراقبــة أنظمة الذكاء الاصطناعــي وفــرض الامتثــال لأطــر الحوكمة، ويمكن لهذه المنظماتضمان اســتخدام تقنيات الــذكاء الاصطناعي بشــكل مســؤول وأخلاقي، وســوف يحتاجــون أيضًــا إلــى الدعــم القانونــي لتنظيم الصناعات والقــدرة على مكافأة ومعاقبة المنظمات حسب الحاجة للحفاظ على النظام. • المشــاركة العامــة بمعنى أنه يمكــن دمج أصحاب المصلحــة المتنوعيــن، بما فــي ذلــك المجتمعات المهمشــة، فــي عمليــة الحوكمة، ونتيجــة لذلك، ســتعكس تقنيات الــذكاء الاصطناعــي مجموعة واسعة من وجهات النظر وتلبي احتياجات المجتمع. • المراقبــة والتقييــم المســتمران فمــن شــأن المراقبــة والتقييم المنتظمين والمســتمرين أن يســمحا بتقييم تأثير أنظمة الــذكاء الاصطناعي بمرور الوقــت. ومن ثم يمكن تعديل السياســات والمبــادئ التوجيهيــة حســب الحاجــة لمعالجة . )6( التحديات الناشئة المطلب الثالث: مبادئ ومعايير حوكمة الذكاء الاصطناعي المسؤولة إن حوكمــة الــذكاء الاصطناعــي ضروريــة لإدارة التطــورات الســريعة في تكنولوجيــا الذكاء الاصطناعي، وخاصة مع ظهــور الذكاء الاصطناعي التوليــدي الذي يشــمل تقنيات قادرة على إنشــاء محتــوى وحلول جديــدة، مثــل النصــوص والصور والرمــوز، ويتمتــع بإمكانــات هائلة عبــر العديد من حالات الاســتخدام، ومــع قابلية تطبيقه الواســعة تأتي الحاجة إلىحوكمة الذكاء الاصطناعي القوية. إن مبادئحوكمة الذكاء الاصطناعي المسؤولة ضرورية للمنظمات لحماية نفسها وعملائها ويمكن لهــذه المبــادئ أن توجــه المنظمات فــي التطوير الأخلاقي وتطبيق تقنيات الذكاء الاصطناعي، والتي تشمل: يجب على المنظمــات أن تفهم الآثار التعاطــف: – 1 المجتمعيــة للــذكاء الاصطناعــي، وليسفقط الجوانــب التكنولوجيــة والمالية ومــن ثم فهم يحتاجــون إلــى توقــع ومعالجــة تأثيــر الذكاء الاصطناعي على جميع أصحاب المصلحة. من الضروريفحصبيانات السيطرة على التحيز: – 2 التدريــب بدقة لمنع تضمين التحيزات في العالم الحقيقي في خوارزميات الذكاء الاصطناعي، ما يســاعد علىضمان عملياتصنــع القرار العادلة وغير المتحيزة. يجب أن يكون هناك وضوح وانفتاح الشــفافية: – 3 في كيفية عمل خوارزميات الذكاء الاصطناعي واتخاذ القرارات، مع اســتعداد المنظمات لشرح المنطــق والأســباب وراء النتائج التــي يقودها الذكاء الاصطناعي. يجــب علــى المنظمــات أن تضــع المســاءلة: – 4 معايير عالية بشــكل اســتباقي وتلتزم بها لإدارة التغييرات المهمــة التي يمكن أن يجلبها الذكاء الاصطناعــي، مع الحفاظ على المســؤولية عن تأثيرات الذكاء الاصطناعي. ، أصدر البيــت الأبيض أمراً 2023 في أواخــر عــام تنفيذياً للمســاعدة في ضمان سلامة وأمن الذكاء الاصطناعي. توفر هذه الاســتراتيجية الشــاملة إطاراً لإنشــاء معايير جديدة لإدارة المخاطر الكامنة في تكنولوجيا الذكاء الاصطناعي.

RkJQdWJsaXNoZXIy MjIwNTU=