الهيئات التنظيمية المالية الأميركية تحذر من مخاطر الذكاء الاصطناعي
حذَّرت لجنةٌ من المنظِّمينَ من أنَّ التبني السريع للذكاء الاصطناعي يمكن أن يمثِّل مخاطرَ جديدةً على النظام المالي للولايات المتحدة إذا لم يُشرَف على التكنولوجيا بشكلٍ كافٍ.
وقد أشار مجلس الإشراف على الاستقرار المالي (FSOC)، الذي يتألَّف من كبار المنظِّمين الماليين، برئاسة وزيرة الخزانة الأمريكية جانيت يلين، إلى المخاطر التي يمثّلها الذكاء الاصطناعي للمرة الأولى في تقريره السنوي عن الاستقرار المالي الذي نُشر في 14 ديسمبر كانون الأول.
أقرَّ المجلس بإمكانية الذكاء الاصطناعي في دفع الابتكار والكفاءة في المؤسسات المالية، لكنَّه شدَّد على الحاجة إلى أن تظلَّ الشركات والهيئات التنظيمية متيقظةً بسبب التقدُّم التكنولوجي السريع.
كما أكَّدت المنظمة في تقريرها السنوي أنَّ الذكاء الاصطناعي ينطوي على مخاطر محدَّدة، مثل الأمن السيبراني والمخاطر النموذجية. لذا اقترحت أن تعزز الشركات والهيئات التنظيمية معرفتَها وقدراتها على مراقبة الابتكار في مجال الذكاء الاصطناعي واستخدامه وتحديد المخاطر الناشئة.
وفقاً للتقرير، فإنَّ أدوات الذكاء الاصطناعي المحدَّدة تقنيةٌ ومعقدةٌ للغاية، ما يمثِّل تحدياتٍ للمؤسَّسات لشرحها أو مراقبتها بشكل فعَّال، حيث يحذِّر التقرير من أنَّ الشركات والهيئات التنظيمية قد تتجاهل النتائج المتحيزة أو غير الدقيقة دون فهم شامل.
كما سلَّط التقريرُ الضوءَ على أنَّ أدوات الذكاء الاصطناعي تعتمد بشكل متزايد على مجموعات البيانات الخارجية الواسعة والمورِّدين الخارجيين، ما يثير مخاوفَ ترتبط بالخصوصية والأمن السيبراني.
إلى جانب ذلك، فإنَّ بعض المنظمين، بما في ذلك هيئة الأوراق المالية والبورصات الأميركية، التي يشغل رئيسها منصب رئيس مجلس مراقبة الاستقرار المالي، فحصوا استخدام الشركات للذكاء الاصطناعي، في حين أصدر البيت الأبيض أمراً تنفيذياً لمعالجة مخاطر الذكاء الاصطناعي والحدِّ منها.