مع التوسع السريع في استخدام تقنيات الذكاء الاصطناعي داخل القطاع الصحي، يطرح خبراء القانون والتأمين تساؤلات معقدة حول المسؤولية القانونية عندما يحدث خطأ ناتج عن نظام ذكاء اصطناعي. فبينما تَعِد الأنظمة الذكية بتحسين جودة التشخيص وتسريع العمل الطبي، فإنها تفتح الباب أمام تحديات قانونية غير مسبوقة.
تحول رقمي متسارع داخل القطاع الصحي
تتجه الحكومات في أوروبا والمملكة المتحدة نحو رقمنة الرعاية الصحية، في وقت أصبحت فيه تقنيات الذكاء الاصطناعي جزءًا من العمليات اليومية للمؤسسات الطبية.
وتُستخدم هذه التقنيات في تحليل الصور الطبية، وتسجيل الملاحظات، ودعم الأطباء في تفسير نتائج الفحوصات.
ورغم الفوائد الكبيرة المتوقعة، فإن اعتماد الذكاء الاصطناعي بشكل واسع يستدعي مراجعة دقيقة للبيانات التي تُدرّب عليها هذه الأنظمة، لضمان دقتها وخلوها من الانحيازات التي قد تؤثر على صحة النتائج.
من يتحمل المسؤولية عند حدوث خطأ؟
عندما يخطئ طبيب في تشخيص أو علاج، تكون المسؤولية واضحة. لكن دخول الذكاء الاصطناعي في اتخاذ القرار يجعل خريطة المسؤولية أكثر تعقيدًا.
وقد تقع المسؤولية على:
- الطبيب الذي أدخل البيانات أو اعتمد على التوصية
- المؤسسة الصحية التي تبنّت النظام
- الشركة المصنّعة للتقنية
- الجهة الرقابية التي وافقت على استخدامها
وقد تنظر المحاكم في قضايا عبر أطر قانونية مختلفة مثل الإهمال الطبي، ومسؤولية المنتج، والمسؤولية غير المباشرة.
اختبار بولام.. هل ما زال صالحًا؟
لطالما اعتمدت المحاكم على رأي الخبراء الطبيين لتحديد معيار الرعاية. لكن السؤال اليوم:
- هل يستطيع الطبيب الخبير تقييم قرار شارك فيه الذكاء الاصطناعي؟
- أم يجب الاستعانة بخبير في الذكاء الاصطناعي لشرح كيفية اتخاذ هذه الأنظمة لقراراتها؟
- وهل يظل معيار بولام صالحًا إذا قدمت خوارزمية توصية تختلف عن رأي الأطباء؟
هذه الأسئلة تعكس التحديات الجديدة التي يفرضها الذكاء الاصطناعي على بيئة التقاضي.
هل يصبح عدم استخدام الذكاء الاصطناعي إهمالًا طبيًا؟
مع تطور التكنولوجيا وتحقيقها دقة أعلى في التشخيص، قد يصبح اللجوء إليها إلزاميًا، وقد يُعتبر عدم استخدامها قصورًا في الرعاية.
بل إن بعض المرضى قد يطالبون باستخدامها ضمن رحلة علاجهم.
كما قد تحتاج نماذج الموافقة الطبية إلى إدراج معلومات حول مزايا ومخاطر استخدام الذكاء الاصطناعي أو عدم استخدامه.
تأثير طريقة الاستخدام على تحديد المسؤولية
إذا استخدم الطبيب الذكاء الاصطناعي كأداة مساعدة فقط، تبقى المسؤولية عليه.
لكن إذا كانت الخوارزمية هي التي اتخذت القرار بشكل مستقل، فهنا يُطرح السؤال:
هل يمكن تحميل الطبيب مسؤولية قرار لا يستطيع تفسير كيفية صدوره؟
ولهذا تُطالب المؤسسات بتوثيق دور الذكاء الاصطناعي في السجلات الطبية ووضع سياسات واضحة بشأن استخدامه.
حتى الآن… القرار النهائي ما زال بيد الطبيب
رغم التقدم الكبير، تؤكد توجيهات هيئة NHS England أن الطبيب يظل صاحب القرار النهائي بشأن رعاية المريض. لكن انتشار الذكاء الاصطناعي، قد تتغير هذه القاعدة، وقد تتغير معها قواعد المسؤولية القانونية عند وقوع الأخطاء الطبية.




