يقول الخبراء إن الذكاء الاصطناعي قد يزيد من صعوبة تحديد المسؤول عن الإخفاقات الطبية | الذكاء الاصطناعي (AI)

0 Comments


حذر الخبراء من أن استخدام الذكاء الاصطناعي في الرعاية الصحية يمكن أن يخلق لعبة إلقاء اللوم معقدة من الناحية القانونية عندما يتعلق الأمر بتحديد المسؤولية عن الإخفاقات الطبية.

لقد ازدهر تطوير الذكاء الاصطناعي للاستخدام السريري، حيث ابتكر الباحثون مجموعة من الأدوات، بدءًا من الخوارزميات ووصولاً إلى المساعدة تفسير عمليات المسح للأنظمة التي تستطيع المساعدة في التشخيص. ويجري أيضًا تطوير الذكاء الاصطناعي للمساعدة في إدارة المستشفيات، بدءًا من تحسين سعة الأسرة وحتى معالجة سلاسل التوريد.

ولكن بينما يقول الخبراء إن التكنولوجيا يمكن أن تحقق فوائد لا تعد ولا تحصى للرعاية الصحية، فإنهم يقولون أيضًا إن هناك سببًا للقلق، بدءًا من الافتقار إلى اختبار فعالية أدوات الذكاء الاصطناعي إلى الأسئلة حول من المسؤول في حالة حصول المريض على نتيجة سلبية.

وقال البروفيسور ديريك أنجوس، من جامعة بيتسبرغ: “من المؤكد أنه ستكون هناك حالات يكون فيها تصور بأن شيئًا ما حدث خطأ، وسينظر الناس حولهم لإلقاء اللوم على شخص ما”.

جمعت قمة جاما حول الذكاء الاصطناعي، التي استضافتها مجلة الجمعية الطبية الأمريكية العام الماضي، مجموعة كبيرة من الخبراء بما في ذلك الأطباء وشركات التكنولوجيا والهيئات التنظيمية وشركات التأمين وعلماء الأخلاق والمحامين والاقتصاديين.

ال التقرير الناتج، الذي كان أنجوس هو مؤلفه الأول، لا ينظر فقط إلى طبيعة أدوات الذكاء الاصطناعي ومجالات الرعاية الصحية التي يتم استخدامها فيها، ولكنه يدرس أيضًا التحديات التي تمثلها، بما في ذلك المخاوف القانونية.

وقال البروفيسور جلين كوهين من كلية الحقوق بجامعة هارفارد، والذي شارك في إعداد التقرير، إن المرضى قد يواجهون صعوبات في إظهار الخطأ في استخدام أو تصميم منتج الذكاء الاصطناعي. قد تكون هناك عوائق أمام الحصول على معلومات حول أعماله الداخلية، في حين قد يكون من الصعب أيضًا اقتراح تصميم بديل معقول للمنتج أو إثبات أن النتيجة السيئة كانت بسبب نظام الذكاء الاصطناعي.

وقال: “قد يشكل التفاعل بين الأطراف أيضًا تحديات أمام رفع دعوى قضائية – فقد يشيرون إلى بعضهم البعض باعتبارهم الطرف المخطئ، وقد يكون لديهم اتفاق قائم على إعادة توزيع المسؤولية تعاقديًا أو لديهم دعاوى تعويض”.

وقالت البروفيسور ميشيل ميلو، وهي كاتبة أخرى للتقرير، من كلية الحقوق بجامعة ستانفورد، إن المحاكم مجهزة جيدًا لحل القضايا القانونية. وقالت: “المشكلة هي أن الأمر يستغرق وقتًا وسيتضمن تناقضات في الأيام الأولى، وهذا عدم اليقين يزيد التكاليف على الجميع في النظام البيئي لابتكار الذكاء الاصطناعي واعتماده”.

ويثير التقرير أيضًا مخاوف بشأن كيفية تقييم أدوات الذكاء الاصطناعي، مشيرًا إلى أن الكثير منها يقع خارج إشراف الجهات التنظيمية مثل إدارة الغذاء والدواء الأمريكية (FDA).

قال أنجوس: “بالنسبة للأطباء، تعني الفعالية عادةً تحسين النتائج الصحية، ولكن ليس هناك ما يضمن أن السلطة التنظيمية ستطلب إثباتًا (على ذلك). ثم بمجرد نشرها، يمكن نشر أدوات الذكاء الاصطناعي بعدة طرق لا يمكن التنبؤ بها في بيئات سريرية مختلفة، مع أنواع مختلفة من المرضى، بواسطة مستخدمين ذوي مستويات مختلفة من المهارات. ليس هناك سوى ضمان ضئيل للغاية بأن ما يبدو فكرة جيدة في حزمة الموافقة المسبقة هو في الواقع ما تحصل عليه في الممارسة العملية.”

ويوضح التقرير أنه في الوقت الحاضر هناك العديد من العوائق التي تحول دون تقييم أدوات الذكاء الاصطناعي، بما في ذلك أنها تحتاج في كثير من الأحيان إلى الاستخدام السريري ليتم تقييمها بشكل كامل، في حين أن الأساليب الحالية للتقييم مكلفة ومرهقة.

وقال أنجوس إنه من المهم توفير التمويل لتقييم أداء أدوات الذكاء الاصطناعي في مجال الرعاية الصحية بشكل صحيح، مع اعتبار الاستثمار في البنية التحتية الرقمية مجالًا رئيسيًا. “أحد الأشياء التي تم طرحها خلال القمة هو أن الأدوات التي تم تقييمها بشكل أفضل كانت الأقل اعتماداً. والأدوات الأكثر اعتماداً كانت الأقل تقييماً.”



Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *