يجد الخبراء عيوبًا في مئات الاختبارات التي تتحقق من سلامة وفعالية الذكاء الاصطناعي | الذكاء الاصطناعي (AI)

0 Comments


اكتشف الخبراء نقاط ضعف، بعضها خطير، في مئات الاختبارات المستخدمة للتحقق من سلامة وفعالية نماذج الذكاء الاصطناعي الجديدة التي يتم إطلاقها في العالم.

علماء الكمبيوتر من الحكومة البريطانية معهد أمن الذكاء الاصطناعيوقام خبراء من جامعات مثل ستانفورد وبيركلي وأكسفورد بفحص أكثر من 440 معيارًا توفر شبكة أمان مهمة.

لقد وجدوا عيوبًا “تقوض صحة الادعاءات الناتجة”، وأن “كلها تقريبًا … لديها نقاط ضعف في مجال واحد على الأقل”، وقد تكون النتائج الناتجة “غير ذات صلة أو حتى مضللة”.

وقال المؤلف الرئيسي للدراسة، أندرو بين، الباحث في معهد أكسفورد للإنترنت، إن العديد من المعايير تُستخدم لتقييم أحدث نماذج الذكاء الاصطناعي التي أصدرتها شركات التكنولوجيا الكبرى.

في ظل غياب تنظيم الذكاء الاصطناعي على المستوى الوطني في المملكة المتحدة والولايات المتحدة، يتم استخدام المعايير للتحقق مما إذا كانت أنظمة الذكاء الاصطناعي الجديدة آمنة وتتوافق مع المصالح البشرية وتحقق قدراتها المزعومة في التفكير والرياضيات والترميز.

ويأتي التحقيق في الاختبارات وسط تزايد المخاوف بشأن سلامة وفعالية الذكاء الاصطناعي، والتي يتم إصدارها بوتيرة عالية من قبل شركات التكنولوجيا المنافسة. وقد أُجبر البعض مؤخرًا على سحب أو تشديد القيود المفروضة على أنظمة الذكاء الاصطناعي بعد أن ساهموا في أضرار تتراوح بين التشهير بالشخصية والانتحار.

قال بين: “تدعم المعايير جميع الادعاءات تقريبًا حول التقدم في مجال الذكاء الاصطناعي”. “ولكن بدون تعريفات مشتركة وقياس سليم، يصبح من الصعب معرفة ما إذا كانت النماذج تتحسن حقًا أم أنها تبدو كذلك فقط.”

جوجل في نهاية هذا الاسبوع سحبت واحدة من أحدث أنظمة الذكاء الاصطناعي لديها، جيما، بعد أن اختلقت ادعاءات لا أساس لها من الصحة بشأن إقامة عضو مجلس الشيوخ الأمريكي علاقة جنسية غير رضائية مع أحد جنود الدولة، بما في ذلك روابط مزيفة لقصص إخبارية.

وقالت مارشا بلاكبيرن، السيناتور الجمهوري عن ولاية تينيسي، لسوندار بيتشاي، الرئيس التنفيذي لشركة جوجل، في رسالة: “لم يكن هناك مثل هذا الاتهام من قبل، ولا يوجد مثل هذا الشخص، ولا توجد مثل هذه القصص الجديدة”.

“هذه ليست هلوسة غير ضارة. إنها عمل من أعمال التشهير التي يتم إنتاجها وتوزيعها بواسطة نموذج الذكاء الاصطناعي المملوك لشركة جوجل. إن الأداة المتاحة للجمهور والتي تختلق ادعاءات جنائية كاذبة حول عضو في مجلس الشيوخ الأمريكي تمثل فشلا ذريعا في الرقابة والمسؤولية الأخلاقية”.

وقالت جوجل إن نماذج جيما الخاصة بها صُممت لمطوري وباحثي الذكاء الاصطناعي، وليس للمساعدة الواقعية أو للمستهلكين. وسحبتها من منصتها AI Studio بعد ما وصفته بـ”تقارير عن أشخاص غير مطورين يحاولون استخدامها”.

وقالت: “الهلوسة – حيث تقوم النماذج ببساطة باختلاق الأشياء حول جميع أنواع الأشياء – والتملق – حيث تخبر النماذج المستخدمين بما يريدون سماعه – تمثل تحديات عبر صناعة الذكاء الاصطناعي، وخاصة النماذج المفتوحة الأصغر مثل جيما”. “نحن ملتزمون بالتقليل من الهلوسة ومواصلة تحسين جميع نماذجنا.”

تخطي ترويج النشرة الإخبارية السابقة

في الأسبوع الماضي، قامت شركة Character.ai، شركة الدردشة الآلية الشهيرة الناشئة، المراهقين المحظورين من الانخراط في محادثات مفتوحة مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. وجاء ذلك في أعقاب سلسلة من الجدل، بما في ذلك طفل يبلغ من العمر 14 عامًا يقتل نفسه في فلوريدا بعد أن أصبح مهووسًا ببرنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي ادعت والدته أنه تلاعب به ليقتل حياته، و دعوى قضائية أمريكية من عائلة مراهق الذي ادعى أن برنامج الدردشة الآلي تلاعب به لإيذاء نفسه وشجعه على قتل والديه.

وقد فحص البحث المعايير المتاحة على نطاق واسع، لكن شركات الذكاء الاصطناعي الرائدة لديها أيضًا معاييرها الداخلية الخاصة التي لم يتم فحصها.

وخلصت إلى أن هناك “حاجة ملحة للمعايير المشتركة وأفضل الممارسات”.

وقال بين إن النتيجة “الصادمة” هي أن أقلية صغيرة فقط (16٪) من المعايير استخدمت تقديرات عدم اليقين أو الاختبارات الإحصائية لإظهار مدى احتمالية دقة المعيار. وفي حالات أخرى، حيث تم وضع معايير مرجعية لتقييم خصائص الذكاء الاصطناعي – على سبيل المثال “عدم ضرره” – كان تعريف المفهوم الذي يتم فحصه محل نزاع أو لم يتم تعريفه بشكل جيد، مما جعل المعيار أقل فائدة.



Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *