الذكاء الاصطناعي: تحديات من منظور أخلاقيات الطب

احترام الاستقلال

يتطلب مبدأ احترام الاستقلالية أن يكون للمرضى الحق في اتخاذ قراراتهم الخاصة بشأن التدخلات الطبية التي قد يتلقونها. يُظهر ممارسو الرعاية الصحية التزامهم بذلك من خلال مساعدة المرضى على اتخاذ قرارات مستنيرة ، وهي عملية تُعرف باسم “الموافقة المستنيرة”. قبل إجراء أي فحص أو تقديم العلاج ، يجب على الطاقم الطبي الحصول طواعية على إذن المريض (المؤهل) وإبلاغ المريض بجميع مزايا ومخاطر الإجراء الطبي [2]. من خلال مشاركة هذه المعلومات وإشراك المرضى في عملية صنع القرار المشتركة ، يوجه الموظفون المرضى لاتخاذ قرارات تتماشى مع أهدافهم وقيمهم. ومع ذلك ، مع دمج أنظمة الذكاء الاصطناعي في الرعاية الصحية ، تثار أسئلة حول ما إذا كان من الضروري إبلاغ المرضى باستخدام التكنولوجيا لتوجيه عملية اتخاذ القرار الطبي ، وما إذا كانت موافقتهم مطلوبة.

تشكل الموافقة المستنيرة في سياق الذكاء الاصطناعي تحديات عملية أمام تفسير المريض ، حيث قد يكون من الصعب تفسير ناتج النظام [3]. على سبيل المثال ، عند نشر خوارزمية مدربة على اكتشاف الخلايا السرطانية ، قد لا يتمكن الأطباء من تحديد الميزات التي تستخدمها الخوارزمية للكشف عن الخلايا الخبيثة. في حين أنه قد تكون هناك معلومات محدودة حول كيفية اشتقاق مخرجات الذكاء الاصطناعي ، يجب في معظم الحالات مشاركة بعض الخصائص المهمة مع المريض. تفاصيل حساسية الخوارزمية وخصوصية بعض المرضى ، ومعدل الخطأ فيها ، وكيف تقارن دقة الخوارزمية بقرارات الأطباء ، والضمانات لاكتشاف الأخطاء ومنعها ، والعواقب المترتبة على صحتهم إذا كانت الخوارزمية متحيزة.

من المهم أن يفهم المرضى كيف تتخذ الخوارزميات القرارات. في هذا السياق أجريت دراسة نشرت نتائجها في مجلة Nature Medicine ، مقابل خوارزمية يمكن أن تحدد 50 نوعاً مختلفاً من أمراض العيون بمعدل تمييز 94.5٪ ، وهي دقيقة مثل أطباء العيون ، وهي ليست كذلك. اتخاذ قرارات خاطئة وخطيرة سريريًا [4]. هذه المعلومات حول أداء الخوارزمية مفيدة لاتخاذ قرارات الرعاية الصحية وهي مهمة لمشاركتها مع المرضى.

يجب أن يكشف أيضًا عن قيود الخوارزمية للمرضى الذين يتعلمون من بيانات التدريب. يجب أن يحرص الأطباء على عدم الاعتماد بشكل كبير على التوصيات الخوارزمية ، مثل استنتاج فائدة الدواء ، لأنه يجب فهم البيانات التي يتم تدريب الخوارزمية على أساسها حتى يتمكن الطبيب من التنبؤ وإبلاغ المريض بما إذا كانت النتيجة ذات قيمة للمريض [5]. من المفيد أيضًا مشاركة الأدلة على فعالية خوارزميات محددة في التجارب السريرية. قد يكون النطاق الكامل للمعرفة حول فوائد ومخاطر الذكاء الاصطناعي في الرعاية السريرية واضحًا ومفيدًا عند دمج الخوارزميات في الإعدادات السريرية المعقدة. كجزء من عملية الحصول على موافقة المريض قبل أي إجراء ، يجب على الأطباء تزويدهم بمعلومات حول خصائص وطبيعة بيانات المرض التي تم تطوير الخوارزمية بناءً عليها ، مع ملاحظة مدى احتمالية التقليل من أداء السكان الذين تم استخدامها فيها. نظرًا لأن خوارزميات الذكاء الاصطناعي يتم توسيعها لتشمل مجموعات سكانية مختلفة لتحسين النتائج ، فإننا نفترض أنها ستصبح جزءًا من بنية الرعاية الصحية المستقبلية دون موافقة مستنيرة صريحة.

لصالح

هذا هو مبدأ أساسي للرعاية الصحية. يتحمل ممارسو التمريض مسؤولية أخلاقية للعمل في هذا الاتجاه لصالح المرضى والتصرف في مصلحتهم الفضلى. العديد من التدخلات الطبية لها بعض الضرر المحتمل ، الأمر الذي يتطلب تقييم المخاطر وموازنة الفوائد والأضرار المحتملة على المريض.

يعد الذكاء الاصطناعي بتحسين صحة المرضى وجودة الرعاية. تم استخدامه لتقييم الأعراض وتوجيه ما إذا كان يجب على المرضى طلب العلاج في غرفة الطوارئ [6]. كما أنه يتكامل مع الأنظمة التي تقيم مدى اعتلال الشبكية السكري لدى المرضى [7] ، ويحسن الكشف عن حالات سرطان الثدي ويظهر الكفاءة في تقليل الأخطاء [8] ، ويساعد الأطباء على تشخيص الأمراض الجلدية [9]. سيسمح أيضًا للتعلم الآلي (مجموعة فرعية من الذكاء الاصطناعي) بتحديد الأنماط في التشخيصات المعقدة التي لا يفعلها حتى أفضل الأطباء ، وسيسمح لهم بضبط أنظمة الفحص والوقاية لفائدة المرضى ، وبالتالي فإن اجتياز التشخيص المبكر يقلل بشكل كبير عبء المرض من خلال الكشف عن السرطان.نظرًا لأن أنظمة الرعاية الصحية تتضمن الذكاء الاصطناعي لدعم اتخاذ القرارات السريرية ، فإن الفوائد المحتملة للسكان ، بما في ذلك تحسين جودة الرعاية ودقة التشخيص والكفاءة وتكلفة الرعاية ، قد تتناقض مع الضرر المحتمل للمرضى الأفراد. قد توصي الخوارزمية بتدخل من شأنه زيادة الفوائد الإجمالية ، ولكن قد يضر ذلك بمجموعة من المرضى ربما لم تضعها الخوارزمية في الاعتبار. في حين أن الذكاء الاصطناعي لديه القدرة على تحسين صحة السكان ، فمن المهم أيضًا النظر في كيفية التخفيف من المخاطر المحتملة على الأفراد ، والتي لا ينبغي أن تفوق المخاطر التي قد تنشأ عن عدم استخدام التكنولوجيا.

لا تؤذي

هذا هو المبدأ الثالث في مبادئ أخلاقيات مهنة الطب. ينبغي النظر في فوائد الذكاء الاصطناعي للرعاية الصحية في سياق الأضرار المحتملة. في هذا القسم ، سأركز على إمكانية حدوث ذلك بناءً على مفاهيم الخصوصية والأمان:

 

الذكاء الاصطناعي: تحديات من منظور أخلاقيات الطب