الذكاء الاصطناعي في الرعاية الصحية: الاعتبارات الأخلاقية
هناك نوعان من الذكاء الاصطناعي في الرعاية الصحية. الفئة الأولى هي الأدوات الإلكترونية التي يستخدمها العاملون الصحيون لمساعدتهم على أداء واجباتهم. النوع الثاني هو كيان مستقل يعمل مثل الإنسان إلى حد كبير ، باستثناء أنه ليس بيولوجيًا بطبيعته ولكنه إلكتروني.
هناك أشكال مختلفة من النوع الأول نسميها الذكاء الاصطناعي “المحدود” أو غير المكتمل. بعضها تشخيصي بطبيعته ، مثل تلك المستخدمة في تحديد السرطان ، وتحليل الصور الشعاعية ، والتعرف على الالتهابات البكتيرية … بشكل عام ، هذا النوع من الذكاء الاصطناعي لديه القدرة على فرز وترتيب الخيارات المتاحة للتعامل مع المرض ، بحيث يشكل يتم تحديد النتيجة. ، والتي من خلالها تمت برمجته في هيكل “القيمة”.
كما أنها تستخدم لتطوير خطط العلاج ، ولرصد ورعاية المرضى في المستشفيات. يوجد أيضًا في هذه الفئة مدربون صحة شخصية افتراضيون يمكن للمرضى الوصول إليها عبر الأجهزة اللوحية أو أجهزة تلفزيون المستشفى للتفاعل بلغة طبيعية 2. أحد الأمثلة على ذلك هو iCare Navigator ، الذي يعتمد على السجل الطبي الإلكتروني للمريض ويستخدم التعلم الآلي لتطوير علاقة شخصية مع المريض ، وتحديد متى يرغبون في معرفة المزيد عن صحتهم أو أفضل طريقة لإدارة الرعاية. ضمن هذه الفئة أيضًا ، توجد تلك المصممة لمسح مجموعات البيانات الكبيرة لتحديد الأنماط والاتجاهات والارتباطات ، والتي تكون مفيدة بشكل خاص في البحث وتخطيط الرعاية الصحية والمزيد. يمكنه حتى إجراء التدخلات الطبية مثل الجراحة 3. وكتابة أي برنامج من هذا النوع يحسن من أدائه لأنه يتم تغذية المزيد من البيانات إليه ، فتصبح استنتاجاته أكثر دقة ، وكل هذا يتم تحت إشراف بشري 4.
أما النوع الثاني من الذكاء الاصطناعي فهو “الذكاء الاصطناعي الكامل” الذي أشار إليه الفيزيائي البريطاني “ستيفن هوكينج” ، وهو يختلف جوهريًا عن النوع الأول ، فهو جهاز إلكتروني مستقل ، وليس مجرد عمل يدوي محدود. يمكن للمخابرات أن تفعل وتعمل بمفردها ، مثل HAL في الفيلم الأمريكي “A Space Odyssey: 2001” الذي أنتج عام 19685. المرضى واستخدام الأدوات المتاحة لتقييم حالتهم الصحية ، والتوصل إلى التشخيص الطبي ، واقتراح خيارات العلاج الممكنة للمريض. بالطبع ، لا يتعلم فقط من أخطائه ، بل يتغير إطار تقييمه نتيجة للبيانات الجديدة التي تم تلقيها ونتائج أفعاله السابقة. لديه أيضًا وصية مستقلة تستند إلى مفاهيم القيمة ، والتي تمكنه من الاختيار من بين الأدوات الممكنة وتقييم خيارات العلاج وتوفيرها للمرضى وفقًا لأنظمة القيم ، بدلاً من اتباع التعليمات الإجرائية البحتة.ومع ذلك ، لا يوجد مثل هذا الذكاء الاصطناعي الكامل حتى الآن ، ولكن هناك
الاعتبارات الأخلاقية
تتداخل القضايا الأخلاقية التي تنشأ عن نوعي أنظمة الذكاء الاصطناعي إلى حد ما. لكنهم يختلفون في نواحٍ مهمة. الأسئلة الأخلاقية التي أثارها تركيز الذكاء الاصطناعي المحدود على مصمميه ومستخدميه ، وليس على النظام نفسه. بعد كل شيء ، هم مجرد أدوات ، والصفات الأخلاقية لا يمكن أن تنسب إلى الأدوات نفسها ، لأنهم ليسوا بشرًا. هذا يختلف عن أنظمة الذكاء الاصطناعي الكاملة لأنها أنظمة قائمة بذاتها ، لذا فإن الأسئلة التي تطرأ هي تلك المتعلقة بالعملاء البشريين. بوضع هذا في السياق ، قد يكون من المفيد معرفة السبب وراء ذلك.
العلاقة بين الطبيب والمريض
في سياق الرعاية الصحية الفعلية ، يطور الأطباء علاقة بين الطبيب والمريض عند التفاعل مع المرضى 7. هذه العلاقة لها الطبيعة الائتمانية للثقة الأخلاقية ، ويمكن للمريض أن يثق في أن الطبيب سيتصرف دائمًا في مصلحة المريض. ولأن الذكاء الاصطناعي الناضج في المستقبل سيتصرف كطبيب ، فهذا يعني أنه سيخضع لنفس الاعتبارات الأخلاقية مثل الأطباء البشريين ، وسيتم قياس العلاقة مع المرضى وفقًا لنفس المعايير. لا يجب عليهم فقط التأكد من أن مؤهلات النظام الذكي مناسبة للتعامل مع الحالة التي يواجهونها ، ولكن يجب أيضًا أن يكونوا قادرين على طلب المشورة عند تجاوز تلك المؤهلات أو عندما يكون هناك شك حول التشخيص ، وكذلك القدرة لإجراء الإحالة عند الاقتضاء 9. والأهم من ذلك – من وجهة نظر أخلاقية – أن الذكاء الاصطناعي يجب أن يكون قادرًا على ضمان السرية والخصوصية وغيرها من القضايا. بمعنى آخر ، لا يحتاج النظام إلى القدرة على حل المشكلات الطبية المتعلقة بالمرضى فحسب ، بل يتعين عليه أيضًا التعامل مع القضايا الأخلاقية والقانونية ،
والقدرة على معاملتهم بشكل مناسب. وبما أن العلاقة الائتمانية بين الطبيب والمريض تتطلب أن يتصرف الأطباء البشريون دائمًا في مصلحة المريض ، يجب أن يكون نظام الذكاء الاصطناعي الكامل قادرًا أيضًا على تحديد ما هو في مصلحة المريض ، بدلاً من الاعتماد على القيم المبرمجة مسبقًا من منظور طبي بحت يدخلهم ، ولكن على أساس فهم القيم الفعلية واحتياجات المرضى 10.
من ناحية أخرى ، هذا لا يعني أن الأنظمة ذات الذكاء الاصطناعي المحدود لن تواجه مشكلات مماثلة. ومع ذلك ، نظرًا لأنها مجرد أدوات ، فإن أي شخص يستخدم الأداة سيواجه أي أسئلة قد تطرأ في هذا الموقف: هل هي الأداة التقنية الصحيحة؟ هل تم التحقق منه؟ هل هي دقيقة بما فيه الكفاية؟ هل يتوافق استخدامه مع القيود الأخلاقية التي تحكم سلوك المستخدم؟ لن يتم حل أي من هذه المشكلات من خلال تعزيز التعلم الذاتي لمثل هذه الأنظمة الذكية ، أو عن طريق تحسين دقة وموثوقية هذه الأنظمة ، حتى لو كانت متفوقة على المستخدمين البشريين في هذا الصدد.لذا فإن هذه القضايا الأخلاقية تقع على عاتق الأطباء الذين يستخدمونها ، وليس الأطباء الذين يستخدمونها
نظام الذكاء الاصطناعي نفسه.
2.2 مسألة القيمة
ترتبط ارتباطا وثيقا القضايا الأخلاقية التي تنشأ في المستوى الأعلى للتصميم. وتشمل هذه القضايا مثل نوع البيانات التي سيتعرف عليها نظام الذكاء الاصطناعي ، والوزن الذي سيتم منحه وفقًا للنظرية العلمية الحالية. كل هذا مكتوب في “المنطق” المحدود للذكاء الاصطناعي ، والذي يشكل تحيزًا في القيمة لا يستطيع النظام نفسه التغلب عليه. وبالتالي ، يمكن أن يؤدي التصميم غير الكامل أو المعيب إلى تشخيصات مشكوك فيها أو توصيات متحيزة أو إجراءات غير مناسبة. وخير مثال على ذلك هو كارثة بوينج 737 ماكس ، حيث تم إجراء تغييرات “جذرية وأكثر خطورة” على أنظمة السلامة الذكية.
ساهمت هذه التغييرات في حوادث العام الماضي و 2018. يعمل النظام كما تم تصميمه ، لكن المشكلة تكمن في منطق التصميم نفسه. العبء الأخلاقي ليس مرتبطًا بالبرنامج ، بل على المصممين وأولئك الذين يضعونه في الإطار العام لاستخدامه. وبالمثل ، فإن المشكلة العامة لتحيز القيمة والقضايا ذات الصلة تنشأ في أنظمة الذكاء الاصطناعي الناضجة وكذلك في الأطباء البشريين الذين ، نتيجة لتدريبهم وخبراتهم ، يطورون ويكتسبون منظورًا معينًا. ومع ذلك ، فإن الأطباء البشريين لديهم القدرة على الفحص الذاتي ، ويجب أن يزودهم التدريب بالأدوات اللازمة للقيام بذلك حتى يتمكنوا من تحديد وقت التخلي عن القيم التي تعلموها واحترام القضايا. لذلك يجب أن تتمتع أنظمة الذكاء الاصطناعي الكاملة بقدرات مماثلة ، وبالتالي يجب تصميمها على أعلى مستوى ، بحيث يمكنها إجراء فحص ذاتي مماثل وتعديل ذاتي على أسئلة القيمة كما يفعل الأطباء البشريون.
ختاماً
في النهاية ، الإجابة على السؤال الشائع حول ما إذا كان من الأخلاقي استخدام الذكاء الاصطناعي في الممارسة الحقيقية واضح: كل هذا يتوقف على الطريقة التي نقرر استخدامها. أنظمة الذكاء الاصطناعي الحالية هي أدوات ، والسؤال هو ما إذا كان من الأخلاقي استخدامها. أما بالنسبة للذكاء الاصطناعي الكامل – إذا كان هناك واحد – فهذه قصة أخرى. لكن المؤكد أن الذكاء الاصطناعي سيكون له القدرة على إحداث تغييرات في مجال الطب ، لكن هذا لا يزال يعتمد على مستوى الالتزام بالأخلاقيات ، خاصة في مجال الرعاية الصحية الحساس والمهم.