من المسؤول عندما يرتكب الذكاء الاصطناعي المستخدم في التشخيص الطبي خطأ؟
سؤال مهم جدًا—والإجابة القصيرة: المسؤولية غالبًا مشتركة، لكنها في النهاية تميل إلى الجهة البشرية، وليس الذكاء الاصطناعي نفسه.
خليني أوضحها بدون تعقيد 👇
⚖️ هل الذكاء الاصطناعي “مسؤول” قانونيًا؟
حاليًا: ❌ لا
الأنظمة المبنية على تعلم الآلة تُعتبر أدوات، وليست كيانًا قانونيًا.
👉 يعني:
الذكاء الاصطناعي لا يُحاسب… البشر والشركات يُحاسبون.
👨⚕️ من يتحمل المسؤولية إذًا؟
1. الطبيب (المستخدم النهائي)
في أغلب الحالات:
- الطبيب هو صاحب القرار النهائي
- إذا اعتمد على AI بدون مراجعة كافية → ممكن يتحمل المسؤولية
📌 لأن دوره الأساسي هو الحكم الطبي، وليس مجرد تنفيذ توصية
🏥 2. المستشفى أو الجهة الطبية
- مسؤولة عن اختيار النظام
- تدريب الموظفين عليه
- التأكد من استخدامه بشكل صحيح
👉 لو فيه إهمال أو سوء تطبيق → تتحمل جزء من المسؤولية
🏢 3. الشركة المطورة للنظام
- لو فيه خطأ تقني أو تصميمي
- أو بيانات تدريب غير مناسبة أدت لنتائج خاطئة
📌 هنا الشركة ممكن تتحاسب (خصوصًا لو ثبت الإهمال)
⚙️ 4. الجهة التنظيمية (بشكل غير مباشر)
- مسؤولة عن وضع القوانين والمعايير
- لو التنظيم ضعيف → تزيد الأخطاء والمشاكل
🧩 سيناريو بسيط
تخيل:
- AI أخطأ في تشخيص مرض زي سرطان
- الطبيب اعتمد عليه بدون مراجعة
👉 هنا:
- الطبيب: مسؤول جزئي أو كامل
- المستشفى: حسب التدريب والسياسات
- الشركة: لو الخطأ من النظام نفسه
⚠️ المشكلة الحقيقية
1. “الصندوق الأسود”
بعض أنظمة AI:
- صعب تفهم كيف وصلت للقرار
👉 ده يعقّد تحديد المسؤولية
2. الاعتماد الزائد
كل ما الأطباء يثقوا أكثر في AI:
- يزيد خطر الأخطاء غير المكتشفة
3. غموض قانوني
القوانين لسه بتتطور:
- مين المسؤول بالضبط؟
- إلى أي درجة؟
👉 مفيش إجابة موحدة عالميًا حتى الآن
🌍 الاتجاه في 2026
- قوانين بتظهر لتحديد المسؤوليات بشكل أوضح
- التركيز على:
- الشفافية
- إمكانية تفسير قرارات AI
- إشراف بشري إلزامي
🔮 الخلاصة
المسؤولية ليست على طرف واحد:
- ❌ مش الذكاء الاصطناعي
- ✅ بل:
- الطبيب
- المؤسسة
- الشركة المطورة
👉 وكل حالة بتتقيم حسب:
من أخطأ؟ وكيف؟ ولماذا؟
💡 الفكرة الأهم
الذكاء الاصطناعي قد يساعد في القرار…
لكنه لا يجب أن يكون القرار نفسه.