جارتنر: 4 خطوات لإعداد مشاريع الذكاء الاصطناعي التوليدي لتناسب المستقبل
استعرضت أنوشري فيرما، مديرة التحليلات لدى شركة جارتنر اليوم، مجموعة من الخطوات التي تتيح إعداد مشاريع الذكاء الاصطناعي التوليدي لتتناسب مع المستقبل.
وقد أدى التوسع المطّرد الذي شهده الذكاء الاصطناعي وانتشاره في المؤسسات المختلفة إلى تحرك عالمي واسع النطاق لتنظيم الذكاء الاصطناعي.
وتتوقع جارتنر أن يقوم 50% من الحكومات في جميع أنحاء العالم بحلول عام 2026 بتطبيق قوانين تنظم استخدام الذكاء الاصطناعي المسؤول من خلال لوائح وسياسات والتأكيد على الحاجة إلى ضمان خصوصية البيانات.
وستسهم التشريعات المتعلقة بالذكاء الاصطناعي المسؤول في إنشاء حدود جغرافية في العالم الرقمي، وشبكة من القوانين المتنافسة الموضوعة من قبل الحكومات المختلفة من أجل حماية الدول وشعوبها من تبعات تطبيقات الذكاء الاصطناعي والذكاء الاصطناعي التوليدي غير الأخلاقية أو غير المرغوبة.
وسيؤدي هذا الأمر إلى تقييد قدرة قادة تكنولوجيا المعلومات على زيادة منتجات الذكاء الاصطناعي والذكاء الاصطناعي التوليدي الأجنبية في جميع أقسام مؤسساتهم.
وتحتاج هذه القوانين إلى قيام مطوري الذكاء الاصطناعي بالتركيز على الأخلاقيات والشفافية والخصوصية المرتبطة بالذكاء الاصطناعي من خلال استخدام الذكاء الاصطناعي المسؤول على امتداد المؤسسات.
ويشكل “الذكاء الاصطناعي المسؤول” مظلة جامعة للجوانب المتعددة والمتعلقة باتخاذ الخيارات الأخلاقية والتجارية المناسبة عند اعتماد الذكاء الاصطناعي في المؤسسات. ومن أمثلة ذلك الشفافية في استخدام الذكاء الاصطناعي، وتقليل التحيز في الخوارزميات المستخدمة، وتأمين نماذج مضادة للتخريب وسوء الاستخدام، وحماية خصوصية معلومات العملاء، وضمان الامتثال التنظيمي.
ويسهم الذكاء الاصطناعي المسؤول في تفعيل المسؤوليات والممارسات التنظيمية التي تضمن تطوير واستخدام الذكاء الاصطناعي بطريقة إيجابية وخاضعة للمساءلة.
ولن يكون تطوير الذكاء الاصطناعي المسؤول واستخدامه مهماً بالنسبة لمطوري منتجات وخدمات الذكاء الاصطناعي فحسب، بل أيضاً للمؤسسات التي تستخدم أدوات الذكاء الاصطناعي كذلك. ولذلك، فإن الفشل في الالتزام سيجعل المؤسسات عرضة للتدقيق الأخلاقي الصارم من قبل المواطنين بشكل عام، ما سيؤدي إلى مواجهتها لمخاطر كبيرة مالية وقانونية وأخرى متعلقة بسمعة المؤسسات.
متى سيصبح الذكاء الاصطناعي المسؤول هو النموذج الرئيسي السائد؟
لا يزال أمام الذكاء الاصطناعي المسؤول نحو ثلاثة أعوام للوصول إلى مستويات الاعتماد المبكر من قبل غالبية المؤسسات وذلك بسبب التبني المتسارع للذكاء الاصطناعي وخاصة الذكاء الاصطناعي التوليدي، والاهتمام المتزايد بالآثار التنظيمية المرتبطة به.
وسيؤثر الذكاء الاصطناعي المسؤول افتراضياً على جميع تطبيقات الذكاء الاصطناعي على امتداد القطاعات المختلفة.
وعلى المدى القصير، فإن القطاعات التي ستشهد مستويات تشريعات وتنظيم أكبر مثل الخدمات المالية والرعاية الصحية والتكنولوجيا والقطاع العام ستبقى هي القطاعات التي ستتبنى الذكاء الاصطناعي المسؤول مبكراً. وسيؤدي الذكاء الاصطناعي المسؤول كذلك دوراً مهماً في القطاعات ذات مستويات التنظيم الأقل من خلال المساعدة في بناء ثقة العملاء وتعزيز الاعتماد إلى جانب تقليل المخاطر المالية والقانونية.
التعامل مع التشريعات المستقبلية: كيفية إعداد مشاريع الذكاء الاصطناعي التوليدي لتناسب المستقبل
هناك عدد من الخطوات التي يمكن للمؤسسات القيام بها عندما يتعلق الأمر بإعداد مشاريع الذكاء الاصطناعي التوليدي لتناسب المستقبل:
1- مراقبة وإدراج متطلبات الامتثال الخاصة بالذكاء الاصطناعي المسؤول والتي تتطور باستمرار من قبل الحكومات المختلفة من خلال تطوير إطار عمل يخطط محفظة منتجات وخدمات الذكاء الاصطناعي التوليدي للمؤسسة بما يتلاءم مع المتطلبات التنظيمية للدول الأخرى.
2- فهم ممارسات الذكاء الاصطناعي المسؤول وتنفيذها وتوظيفها في سياق المؤسسة. ويمكن القيام بهذا الأمر من خلال تحديد منهج للذكاء الاصطناعي المسؤول، ومن ثم إنشاء نهج منظم للتثقيف والاطلاع على سير العمل في هذا السياق في أرجاء المؤسسة، وإشراك أصحاب العلاقة وتحديد الحلول وحالات الاستخدام الملائمة للتنفيذ.
3- تفعيل إدارة الثقة والمخاطر والأمن الخاص بالذكاء الاصطناعي (AI TRiSM) في الحلول المتمحورة على المستخدم من خلال دمج الذكاء الاصطناعي المسؤول بهدف تسريع اعتماد وتحسين تجربة المستخدم.
4- ضمان مسؤولية مزود الخدمة عن حوكمة الذكاء الاصطناعي المسؤول من خلال تطبيق التزامات تعاقدية وتخفيف آثار المخاطر الناتجة عن السلوكيات غير الأخلاقية أو عدم الامتثال أو عن التحيزات غير المنضبطة أو غير القابلة للتفسير لحلول الذكاء الاصطناعي.