الذكاء الاصطناعي لن يحل محل البشر
أصبح الذكاء الاصطناعي متأصلاً بشكل متزايد في مجتمعنا. إنه يهدد الموظفين المؤهلين تأهيلا عاليا ويتسلل بشكل متزايد إلى حياتنا الخاصة. لكن مركزًا جديدًا لأبحاث الذكاء الاصطناعي في ETH زيورخ حريص على وضع الذكاء الاصطناعي في وضع يسمح له بدعم البشر بدلاً من استبدالهم.
مكبرات صوت ذكية ومقاطع فيديو مزيفة للغاية وإعلانات مخصصة حسب اهتماماتنا: الذكاء الاصطناعي موجود في كل مكان ولا يكاد يتفوق عليه في الحياة اليومية. أنشأت ETH Zurich مركزًا جديدًا يأمل في إعادة هيكلة أبحاث الذكاء الاصطناعي في سويسرا. بالنسبة إلى ألكسندر إيليتش ، الذي يرأس المعهد ، يجب أن يكون التركيز على استخدام الذكاء الاصطناعي لمساعدة البشر ، وليس استبدالهم.
يؤثر الذكاء الاصطناعي بشكل متزايد على حياتنا اليومية. لكن ما مدى أهميتها لمجتمعنا؟
ألكساندر إيليتش: أصبحت الآلات قادرة أكثر فأكثر على أداء المهام التي كان يعتقد سابقًا أن البشر فقط هم من يستطيعون القيام بها. في الوقت الحالي ، تجتمع العديد من عناصر التكنولوجيا الجديدة المختلفة لتسريع هذه العملية.
كانت ETH Zurich نشطة للغاية في أبحاث الذكاء الاصطناعي لعقود. ما نحتاجه الآن هو حوار بين المنظمات والمجتمع وقطاع الأعمال ، ويجب أن نقوم به بمسؤولية.
swissinfo.ch: هل نحن الآن عند نقطة تحول؟
ألكساندر إيليتش: هناك دائمًا تطورات تكنولوجية مختلفة تعزز بعضها البعض. على سبيل المثال ، لقد غيرت الهواتف المحمولة مجتمعنا إلى الأبد. يقول البعض أنه بعد عشرين عامًا ، سيكون تأثير الذكاء الاجتماعي مشابهًا لاكتشاف الكهرباء ، ومن الصعب تخيل كيف ستكون الحياة بدون كهرباء.
هناك بالفعل العديد من المؤسسات المكرسة لأبحاث الذكاء الاصطناعي. هل من الضروري إنشاء معهد فيدرالي للتكنولوجيا في زيورخ من أجل المركز؟
ألكساندر إيليتش: ما يميز مركز الذكاء الاصطناعي الجديد هو أنه يجري الأبحاث بطريقة متعددة التخصصات. لا يتعلق الأمر فقط بتطبيق أساليب الذكاء الاصطناعي الحالية على القضايا المجتمعية المعقدة مثل تغير المناخ. هناك مشاكل تتطلب إعادة تعريف أساسيات الذكاء الاصطناعي ونريد حلها.
كيف تبدو بالضبط؟
ألكساندر إيليتش: في مركزنا ، لا نريد أن نسير في اتجاه واحد فقط. بالنسبة لنا ، يجب أن يكون هناك تفاعل بين مجالات التطبيق التي نريد تغييرها وأسس الذكاء الاصطناعي. بمعنى آخر: سيتغير الذكاء الاصطناعي مع تغييرات التطبيق ، وسيؤدي هذا التغيير في الذكاء الاصطناعي إلى مجالات تطبيق جديدة.
من أجل تحقيق ذلك ، أنشأنا هذا المركز ، حيث تجري مختلف الإدارات المهنية التي كانت في السابق كيانات منفصلة محادثات. ومع ذلك ، وبسبب تأثير فيروس كورونا الجديد ، لم يتحقق التأثير المطلوب بعد.
نسعى إلى جعل هذا المركز نقطة مركزية للحوار ، ليس فقط مع المعهد التقني العالي ، ولكن أيضًا مع العالم الخارجي. نأمل في إنشاء شبكة اتصال بين مختلف الإدارات والمجالات الوظيفية ، وأن نصبح نقطة الاتصال المركزية للتعاون بين الصناعة والجامعة والبحث. نريد أيضًا مرافقة ودعم العديد من الشركات الناشئة عند تشكيلها.
يتعرض المستهلكون اليوم لكميات هائلة من المعلومات والتطبيقات الرقمية. في الوقت نفسه ، يصعب عليهم فهم التكنولوجيا التي تقف وراءها والغرض من استخدامها. كيف تواجه هذا الواقع؟
ألكساندر إيليتش: نريد أن نظهر ما يمكن للذكاء الاصطناعي أن يحققه بالفعل من خلال الحوار مع الجمهور. هناك العديد من الأمثلة الملموسة على ذلك. ما يحدث في الطب والصحة الرقمية على وجه الخصوص مناسب للجميع ، ويسهل فهمه ، ويجلب الكثير من التغيير الإيجابي. لكننا نريد أيضًا أن نظهر أن الذكاء الاصطناعي يساعد الناس ، وليس استبدالهم
هل يمكنك إعطاء مثال على محادثة مع جمهور؟
ألكسندر إيليتش: نخطط لتنظيم سلسلة من الأحداث المختلفة حول هذه المواضيع. من ناحية ، نريد توضيح التطبيقات الموجودة بالفعل وكيف تؤثر على المجتمع ، ومن ناحية أخرى ، نريد معالجة التأثير الاجتماعي لهذه التطبيقات. لذلك ، مهمتنا هي أن نكون قائدًا شاملاً وموثوقًا في مجال الذكاء الاصطناعي.
كما يعني أيضًا المشاركة المتساوية لمجموعات مختلفة من الناس واحترام الحقوق الفردية. الاستخدام المكثف لهذه التكنولوجيا الأساسية مهم أيضًا. باختصار: يجب أن تكون موثوقة وشاملة ومتاحة للجميع. لا ينبغي تطبيق الذكاء الاصطناعي على الشركات الكبيرة فحسب ، بل على الشركات الصغيرة والمتوسطة أيضًا.
تريد تحقيق التحول الرقمي في المجتمع من خلال المحادثات مع الناس. هل تعتقد أنهم سيعترضون؟
ألكسندر إيليتش: يأتي التغيير دائمًا بدرجة معينة من عدم اليقين. من المهم أن نفهم أن التقدم التكنولوجي سيغير مجتمعنا. نريد دعم إنشاء هذا التغيير وإظهار أننا نقوم به بطريقة مسؤولة في ETH Zurich.
وهذا يعني ، على سبيل المثال ، وجود أستاذة أخلاقيات في اللجنة التوجيهية تضمن أن عملنا يتماشى مع المبادئ الأساسية المهمة. خاصة فيما يتعلق بموضوع الذكاء الاصطناعي ، يجب علينا التأكيد على الممارسات التجارية الأخلاقية وإظهار أمثلة على كيفية القيام بذلك.
في دورك الجديد ، ما هي الأسئلة الأخلاقية التي قد تطرحها على نفسك؟
ألكسندر إيليتش: السؤال الأول هو هل نحتاج إلى أساس أخلاقي جديد للذكاء الاصطناعي؟ في ETH ، غالبًا ما يعتمد العمل في مجالات أخرى بالفعل على المبادئ الأخلاقية. لكن هناك أسئلة أخرى ، مثل الخوارزميات: هل هذه الخوارزميات عادلة؟ كيف نحكم؟ هل هو شامل؟ هناك حاجة إلى الكثير من التوضيح حول هذه المسألة.
هناك قضية أخلاقية أخرى تتعلق بمن يمكنه استخدام تقنيات معينة للذكاء الاصطناعي ، مثل التطبيقات العسكرية. إلى أي مدى سيعالج المركز هذه القضايا؟ هل سيقدمون المشورة للشركات حول كيفية استخدام وفهم هذه التقنيات؟
ألكساندر إيليتش: أحد أهم الأشياء التي نريد إخبار الناس بها هو أن التكنولوجيا نفسها ليست شيئًا محايدًا. الأشخاص الذين يصممون أشياء جديدة يتحملون أيضًا بعض المسؤولية. لهذا السبب ، يجب علينا المساعدة في تشكيل هذا الحوار والسماح لقيمنا الأوروبية بالتأثير على تطوير تطبيقات الذكاء الاصطناعي.
كيف يعالج المركز بشكل خاص هذه القضايا والمعضلات الأخلاقية؟
ألكساندر إيليتش: نريد أن نكون قدوة حسنة ، وأن ندافع عن قيمنا وثقافتنا ونتركها تؤثر في تطوير مشاريعنا. هذه طريقة فعالة للغاية لأننا نطور الأشخاص الذين يعيشون هذه القيم ويحملونها معهم أثناء خروجهم إلى العالم.
الذكاء الاصطناعي لن يحل محل البشر
الذكاء الاصطناعي الأخلاقي: هل تستطيع سويسرا تطوير المناهج الدراسية؟
على الصعيد المحلي ، على أي حال ، لم يبدأ النقاش الأخلاقي حول الذكاء الاصطناعي إلا للتو ، ولكن نظرًا لأن سويسرا ودول أخرى تواجه مخاوف تتعلق بالخصوصية في استخدام التقنيات الجديدة ، مثل تطبيقات تتبع جهات الاتصال ، لوقف انتشار COVID-19 ، فإن هذه المناقشات تأخذ التكنولوجيا بجدية. الذكاء الاصطناعي أم لا.
تدعو المبادرة الأوروبية – مبادرة عموم أوروبا لتتبع القرب والخصوصية (PEPP-PT) – إلى نهج يركز على البيانات ، مما يثير مخاوف بشأن الشفافية والحوكمة. ومع ذلك ، فإن تنفيذ هذا النظام المركزي ، المسمى DP-3T (تتبع التقارب وحماية الخصوصية اللامركزية) ، لم يكتمل بعد أن قررت بعض البلدان ، بما في ذلك سويسرا ، دعم الأنظمة اللامركزية وتعزيز الخصوصية. يأتي النهج الأوروبي لإنهاء مبادرة التتبع والخصوصية في الوقت الذي تقرر فيه ألمانيا أيضًا عدم التعاون معها.
قال جيم لاروز ، عميد كلية علوم الكمبيوتر والاتصالات (IC) في EPFL ، وعضو في الفريق الذي نفذ برنامج DB -3T العمل في المعهد من البداية. ونهج لامركزي لتتبع القرب. هذه المناقشات مفيدة للغاية لأنها تجعل عددًا كبيرًا من السكان على دراية بهذه المشكلات ويظهر أن لديهم تركيزًا قويًا على طريقة تصميم هذه التطبيقات وبناؤها. لا يستخدم الأشخاص تطبيقات تتبع جهات الاتصال إلا عندما يشعرون بذلك. من المعروف أنهم ليسوا مضطرين للتضحية بخصوصياتهم للهروب من العزلة. ”
يدعم ما يقرب من ثلثي المواطنين السويسريين استخدام تطبيقات تتبع فيروس كورونا وتحديد المواقع للمساعدة في السيطرة على انتشار العدوى ، وفقًا لاستطلاع حديث. تطبيق DP-3T قيد التجربة حاليًا ، بانتظار قرار برلماني بشأن المتطلبات القانونية لاستخدامه على نطاق واسع. ومع ذلك ، فإن النقاش حول هذه القضية يؤكد الحاجة الملحة للإجابة على الأسئلة المتعلقة بأخلاقيات وحوكمة التقنيات غير المنظمة.
“الطريقة السويسرية”
تم دمج الذكاء الاصطناعي لأول مرة في استراتيجية الحكومة السويسرية من أجل خلق الظروف المناسبة لتسريع التحول الرقمي للمجتمع.
في ديسمبر 2019 ، قدمت فرقة عمل تقريرًا إلى الحكومة الفيدرالية بعنوان “تحدي الذكاء الاصطناعي”. قال التقرير إن سويسرا مستعدة للاستفادة من إمكانات الذكاء الاصطناعي ، لكن المؤلفين قرروا عدم تسليط الضوء على القضايا الأخلاقية والأبعاد الاجتماعية للذكاء الاصطناعي ، ولكن التركيز على شرح حالات الاستخدام المختلفة والتحديات التي ينطوي عليها الأمر.
قالت دانييل ، رئيسة الابتكار في الأمانة الوطنية السويسرية: “في سويسرا ، لا تفرض الحكومة المركزية رؤية أخلاقية شاملة للذكاء الاصطناعي ، لأنه إذا فرضت الحكومة الذكاء الاصطناعي من أعلى إلى أسفل ، فإن الأخير سيكون غير متوافق مع تقاليدنا الديمقراطية”. قال دانيال إيجلوف ، المتخصص في التعليم والبحث والابتكار ، لـ swissinfo.ch. وأضاف أنه من الصعب تحديد المبادئ الأخلاقية المطلقة لأنها يمكن أن تختلف من بيئة تكنولوجية إلى أخرى. وأوضح أن “الرؤية الأخلاقية للذكاء الاصطناعي بدأت تتبلور في المشاورات بين أصحاب المصلحة الوطنيين والدوليين ، بما في ذلك الجمهور. كما تقوم الحكومات بدور نشط في هذا النقاش”.
في سياق أوسع ، تصر الحكومة على المشاركة الدولية النشطة في مناقشات الأخلاق وحقوق الإنسان. صرح السفير توماس شنايدر ، مدير الشؤون الدولية في مكتب الاتصالات الفيدرالية لـ swissinfo.ch ، بأن سويسرا “هي واحدة من أكثر الدول نشاطًا في المفوضية الأوروبية والأمم المتحدة والمنتديات الأخرى” ، مضيفًا أن مكتب الطموح التابع لوكالة الاتصالات الفيدرالية والدبلوماسية ستحول الوزارة جنيف إلى مركز عالمي لحوكمة التكنولوجيا.
هل هذه مجرد كلمة طنانة أخرى؟
لذا ، عندما يتعلق الأمر بالتكنولوجيا ، كيف تحدد ما هو أخلاقي وما هو غير أخلاقي؟ وفقًا لباسكال كوفمان ، عالم الأعصاب ومؤسس مؤسسة Mindfire للذكاء الاصطناعي الذي يركز على الإنسان ، فإن مفهوم الأخلاق المطبق على الذكاء الاصطناعي هو مجرد كلمة طنانة أخرى: “هناك الكثير من الالتباس حول معنى الذكاء الاصطناعي. يقول الكثير من الناس” الذكاء الاصطناعي “ليس هو نفسه لأن الذكاء له علاقة كبيرة بقوة الحوسبة العمياء. ولهذا السبب ، ليس من المنطقي التحدث عن الذكاء الاصطناعي الأخلاقي.” وأضاف: “لكي تكون أخلاقيًا ، أوصي بتسريع إنشاء الذكاء الاصطناعي لخدمة الناس ، وليس للحكومات الاستبدادية أو لشركات التكنولوجيا بشكل عام. إن وجود سياسة أخلاقية في هذا المجال لن ينجح ، ولن يساعدنا في إنشاء الذكاء الاصطناعي “.
آنا جوبين ، باحثة ما بعد الدكتوراه في مختبر الأخلاقيات والسياسات الصحية في ETH زيورخ ، لديها وجهة نظر مختلفة. استنادًا إلى بحثها ، تعتقد آنا أن الاعتبارات الأخلاقية يجب أن تكون جزءًا من تطوير الذكاء الاصطناعي: “لا يمكننا التعامل مع الذكاء الاصطناعي على أنه عمل تقني بحت ثم إضافة بعض الأخلاقيات عند الانتهاء منه ، ولكن يجب تضمين الجوانب الأخلاقية والاجتماعية في المناقشة. ابدأ بـ الشغل”. نظرًا لأن تأثير الذكاء الاصطناعي على حياتنا اليومية لن يتضاءل ، يعتقد Jobin أنه من الضروري إشراك المواطنين في المناقشات حول التقنيات الجديدة التي تستخدم الذكاء الاصطناعي ، وأن القرارات المتعلقة باستخدام الذكاء الاصطناعي يجب أن تُتخذ بمشاركة المجتمع المدني. لكنها في الوقت نفسه ، تقر بالقيود المفروضة على دمج المبادئ الأخلاقية في غياب الحوكمة الأخلاقية.
من جانبه ، يعتقد بيتر سيلي ، أستاذ الأخلاق المهنية في جامعة إيطاليانو في سويسرا ، أن مفتاح معالجة هذه القضايا هو وضع الأعمال والأخلاق والقانون على قدم المساواة. “تنجذب الشركات إلى اللوائح ، وتحتاج إلى إطار قانوني لتزدهر. القوانين الجيدة التي تنسق الأعمال والضوابط الأخلاقية تخلق بيئة مثالية لجميع المعنيين. التحدي الحقيقي هو إيجاد توازن بين هذه الركائز الثلاث ،” سيلي ساي.
مزيج مثالي
على الرغم من أن النهج السويسري يعتمد بشكل أساسي على التنظيم الذاتي ، إلا أن سيلي يعتقد أن إنشاء إطار قانوني ذي صلة بهذا المجال سيكون حافزًا كبيرًا للاقتصاد والمجتمع.
إذا كان لسويسرا أن تلعب دورًا رائدًا في وضع المعايير الأخلاقية ، فإن نظامها السياسي القائم على الديمقراطية المباشرة والتعاونيات الخاضعة للسيطرة الديمقراطية يمكن أن تلعب دورًا رئيسيًا في إرساء الأساس لإضفاء الطابع الديمقراطي على اقتصاد البيانات الشخصية والذكاء الاصطناعي. كما اقترحت الأكاديمية السويسرية للهندسة في ورقة عمل في نهاية عام 2019 ، يمكن أن يكون النموذج مشابهًا لنموذج MIDATA السويسري ، وهي جمعية تعاونية غير ربحية تضمن سيادة المواطنين على استخدام بياناتهم وتعمل كوصي على البيانات. مجموعة. يمكن لمالكي حسابات البيانات أن يصبحوا أعضاء في Medata والمشاركة في الحكم الديمقراطي للتعاونية. قد تسمح أيضًا بالوصول الانتقائي إلى بياناتهم الشخصية لأغراض البحث السريري والبحوث الطبية.
سيؤدي ظهور أنظمة البيانات المفتوحة التي تعزز مشاركة المجتمع المدني إلى زيادة الوعي بتأثير استخدام البيانات الشخصية ، لا سيما لأسباب صحية ، مثل تطبيقات تتبع جهات الاتصال. حتى لو اعتبرنا أن النظام اللامركزي مفضل وأفضل في دعم الحقوق الأساسية من النظام المركزي ، فهناك أيضًا إمكانية القرصنة.
قد يؤدي إنشاء أساس قانوني للذكاء الاصطناعي إلى إثارة نقاش عام حول الأمن والرقابة الأخلاقية لاستخدام الأنظمة الرقمية.
الذكاء الاصطناعي الأخلاقي: هل تستطيع سويسرا تطوير المناهج الدراسية؟
الذكاء الاصطناعي: مثال على معضلة أخلاقية
السيارة ذاتية القيادة هي مركبة تستشعر محيطها وتقود بأقل قدر من التدخل البشري أو بدون سائق. من أجل القيادة بأمان وفهم البيئة التي يقودون فيها ، تحتاج هذه المركبات إلى التقاط كميات هائلة من البيانات في جميع الأوقات من خلال عدد لا يحصى من أجهزة الاستشعار المختلفة بداخلها. تقوم السيارة بعد ذلك بمعالجة هذه البيانات باستخدام نظام كمبيوتر داخلي ذاتي القيادة.
بالإضافة إلى ذلك ، يجب أن تخضع السيارات ذاتية القيادة لتدريب مكثف لفهم البيانات التي تجمعها وتكون قادرة على اتخاذ القرارات الصحيحة في أي حالة مرورية يمكن تصورها.
كل شخص يتخذ قرارات أخلاقية كل يوم. على سبيل المثال ، يتخذ السائق قرارًا أخلاقيًا بالفرملة لتجنب اصطدام أحد المشاة ، وبذلك ينقل الخطر من المشاة إلى الشخص الموجود في السيارة.
ولكن ماذا لو واجهت سيارة ذاتية القيادة هذا الموقف أثناء قيادتها بأقصى سرعة نحو جدة وطفل صغير وتعطلت الفرامل؟ يمكن إنقاذ أحدهما إذا انحرفت قليلاً عن مسارها.
ومع ذلك ، فإن القرار في هذه الحالة لا يتم اتخاذه من قبل العامل البشري ، لأن خوارزمية السيارة ذاتية القيادة هي التي تتخذ القرار بمفردها.
إذا كان هذا هو الحال بالنسبة لك؟ من ستختار؟ الجدة أم الطفل؟ هل تعتقد أن هناك إجابة واحدة صحيحة؟
يقدم هذا المنشور أمثلة واقعية للمعضلات الأخلاقية التي توضح أهمية الامتثال الأخلاقي في تطوير التكنولوجيا وتطويرها.
لهذا السبب بادرت اليونسكو إلى صياغة أول وثيقة قانونية وعالمية حول أخلاقيات الذكاء الاصطناعي.
يثير استخدام الذكاء الاصطناعي في الثقافة انعكاسات أخلاقية مثيرة للاهتمام.
في عام 2016 ، بعد أكثر من 351 عامًا من وفاة الرسام ، رأى لوحة رامبرانت التي تم إنشاؤها بواسطة الكمبيوتر والمطبوعة بتقنية ثلاثية الأبعاد والتي أطلق عليها اسم “The Next Rembrandt”.
يتطلب صنع هذه اللوحة بمثل هذه البراعة الفنية والفنية تحليلًا بكسل تلو الآخر لـ 346 لوحة من لوحات رامبرانت ، تم تحسينها بواسطة خوارزميات التعلم العميق ، لإنشاء قاعدة بيانات فريدة من أجل التقاط وتحديد كل جانب من جوانب هوية رامبرانت الفنية. على ذلك. خوارزمية قادرة على إنتاج أعمال فنية غير مسبوقة. تم صنع هذا الفن باستخدام طابعة ثلاثية الأبعاد من خلال إعادة إنتاج نسيج ضربات الفرشاة وطبقات اللون على القماش للحصول على نتائج مذهلة تخدع أي خبير فني.
لكن لمن تنتمي هذه اللوحة؟ هل ستتم تسميته على اسم الشركة التي تنسق المشروع ، وتوظف المهندسين وتطور الخوارزميات اللازمة لإنتاجه ، أم ستسمى على اسم رامبرانت نفسه؟
في سياق آخر ، أعلنت شركة التكنولوجيا الصينية Huawei في عام 2019 أن خوارزمية الذكاء الاصطناعي كانت قادرة على إكمال آخر ملاحظتين من السيمفونية الثامنة ، وهي قطعة غير مكتملة بدأها فرانز شوبرت في عام 1822 ، قبل 197 عامًا. السؤال الذي يطرح نفسه هنا ، ماذا يحدث عندما تستطيع تقنية الذكاء الاصطناعي أن تصنع الفن بنفسها؟ هل ستكون هناك حقوق طبع ونشر إذا استبدلنا المؤلفين البشريين بالآلات والخوارزميات؟ هل يمكن وينبغي الاعتراف بالخوارزميات كمؤلفين ، وبالتالي منح نفس الحقوق التي يتمتع بها الفنانون؟
لذلك ، فإن أي عمل فني يتم إنتاجه بواسطة آلية الذكاء الاصطناعي سيتطلب تعريفًا جديدًا لـ “المؤلف” لإنصاف العمل الإبداعي للمؤلف “الأصلي” والخوارزميات والتقنيات التي تعيد إنتاج العمل الفني نفسه.
يلعب الإبداع ، أي القدرة على إنشاء محتوى جديد وأصلي من خلال الخيال أو الاختراع ، دورًا مركزيًا في المجتمعات المفتوحة والشاملة والمتنوعة. لذلك ، يجب إيلاء اهتمام وثيق لتأثير الذكاء الاصطناعي على الإبداع البشري. لا شك أن الذكاء الاصطناعي هو أداة قوية للإبداع ، لكنه يثير أسئلة مهمة حول مستقبل الفن ، وحقوق الفنانين وأجورهم ، ونزاهة سلسلة القيمة الإبداعية.
نحن بحاجة إلى تطوير أطر عمل جديدة للتمييز بين القرصنة والانتحال ، والعمل الأصلي والإبداعي من ناحية ، والاعتراف بقيمة العمل الإبداعي البشري في تفاعلاتنا مع الذكاء الاصطناعي. هذه الأطر ضرورية لتجنب الاستغلال المتعمد للعمل البشري والإبداع ، لضمان حصول الفنانين على أجور مناسبة والاعتراف الواجب ، وسلامة سلاسل القيمة الثقافية ، وقدرة القطاع الثقافي على توفير العمل اللائق.
يشهد نظام العدالة العالمي زيادة في استخدام الذكاء الاصطناعي ، مما يثير المزيد من القضايا الأخلاقية التي يتعين استكشافها. يمكن للذكاء الاصطناعي تقييم القضايا وتحقيق العدالة بشكل أفضل وأسرع وأكثر كفاءة من القضاة.
يمكن أن يكون لمقاربات الذكاء الاصطناعي تأثير كبير في مجموعة واسعة من المجالات ، من المهنة القانونية والقضاء إلى المساعدة في صنع القرار في الهيئات التشريعية والهيئات الإدارية العامة. على سبيل المثال ، يمكن للذكاء الاصطناعي تحسين كفاءة ودقة المحامين في تقديم المشورة القانونية والتقاضي ، الأمر الذي لا يفيد المحامين أنفسهم فحسب ، بل يفيد أيضًا عملائهم والمجتمع ككل. يمكن استكمال وتعزيز أنظمة البرمجيات المستخدمة حاليًا من قبل القضاة باستخدام أدوات الذكاء الاصطناعي لدعمهم في اتخاذ قرارات جديدة. يُنظر إلى هذا الاستخدام المتزايد للأنظمة المستقلة على أنه محاولة لأتمتة العدالة.
يجادل البعض بأن الذكاء الاصطناعي يمكن أن يساعد في إنشاء نظام عدالة جنائية أكثر إنصافًا حيث يمكن للآلات تقييم وتقييم العوامل ذات الصلة بشكل أفضل من البشر ، والاستفادة من سرعتها وقدرتها على استيعاب كميات كبيرة من البيانات. بهذا المعنى ، يمكن للذكاء الاصطناعي أن يقرر القضايا بناءً على قرارات مستنيرة دون أي تحيز وبموضوعية كاملة.
لكن هناك العديد من التحديات الأخلاقية:
نقص الشفافية في أدوات الذكاء الاصطناعي: لا يستطيع البشر دائمًا فهم القرارات التي تتخذها آليات الذكاء الاصطناعي.
الذكاء الاصطناعي ليس محايدًا: لا يمكن للقرارات التي يحركها الذكاء الاصطناعي تجنب النتائج غير الدقيقة والتمييزية التي تنطوي على التحيز.
ممارسات جمع البيانات والمراقبة لخصوصية موظفي المحكمة.
مخاوف جديدة بشأن العدالة وتعريض حقوق الإنسان والقيم الأساسية الأخرى للخطر.
الذكاء الاصطناعي: مثال على معضلة أخلاقية
الأطفال المولودين من أرحام صناعية … هذا ما ينتظر الإنسان
ما هو الرحم الاصطناعي؟
هو نموذج يحاكي رحم الأم الطبيعي ، حيث يحتوي على صفوف من الحاويات المليئة بالسوائل المغذية الموجودة في الرحم الطبيعي الضروري لتكوين الجنين ، وتغذيته حتى يكتمل بشكل طبيعي. إمكانية التدخل لتصحيحها.
قبل أيام قليلة ، أعلن باحثون صينيون أيضًا عن اختراع تقنية “المربية” ، التي تعتمد على الذكاء الاصطناعي لمراقبة الأجنة المنتجة والمطورة في الأرحام الاصطناعية.
نشرت مجلة الهندسة الطبية الحيوية مقالاً عن الابتكار الجديد وأكدت أن البحث والابتكار الجديد يعتمدان على ثقافة “الأجنة طويلة الأمد” واستبدال الإنجاب التقليدي بعملية إنجابية حديثة لا تتطلب حمل أطفال. رَحِم.
هل سيكون من الممكن إجراء تجارب على الأجنة البشرية قريبًا؟
حتى الآن ، اقتصر هذا على الحيوانات ، وفقًا لصحيفة South China Morning Post ، التي أشارت إلى وجود أجنة الفئران في أرحام اصطناعية أجرى عليها الباحثون تجارب ، لكن هذا لا يزال محظورًا بموجب القانون الدولي إجراء تجارب على الأجنة البشرية.
* ما هي المعضلات الأخلاقية للأرحام الاصطناعية؟
وفي تقرير نُشر في صحيفة نيويورك تايمز ، تناولت المعضلة الأخلاقية للتقنيات الجديدة المستخدمة في تكوين أجنة بشرية في المختبر وتنميتها حتى تصبح أجنة سليمة خارج رحم الأم ، مشيرة إلى أنه على الرغم من الأرحام الاصطناعية ، ربما يرغب كثير من الناس. يمكن تحقيق ذلك للطفل ، ويمكن إنقاذ الأطفال المبتسرين ورعايتهم ، ولكن هذه التقنية تشكل خطراً كاملاً على الرئتين المتطورة بالكامل والنمو العصبي للأطفال الخدج.
يمنع “الرحم الاصطناعي” عملية التواصل الجسدي والعاطفي بين الجنين والأم. لا تعتمد عملية الحمل على اكتمال نمو الجنين وتغذيته الطبيعية ، بل تقوم على علاقة صحية مع الأم. فالطفل وأمه ، هذه الأشياء ما وراء الرحم الاصطناعي. وتجدر الإشارة إلى أن العديد من النساء يلجأن إلى أمهات بديلات للمساعدة بسبب صعوبات في الحمل بشكل طبيعي ، أو بسبب مشاكل صحية أو صعوبات في الحمل ، مما يهدد حياتهن وأجنة.
* ماذا تعني الأم البديلة؟
في حين أن مسألة تأجير الأرحام محظورة في العديد من البلدان ، إلا أنها شائعة في حالات أخرى حيث تستخدم النساء اللواتي يعانين من صعوبة في الحمل رحم المرأة لحمل جنينهن الأول. كيف يتم إنجاز هذه العملية؟ يجب أن توافق الأم البديلة على حمل بويضة امرأة أخرى ، بعد تلقيح صناعي بالحيوان المنوي للأب ، ثم زرعها في رحم الأم البديلة التي تحمل بشكل طبيعي ، كل ذلك وفق الإطار القانوني ، وبعد ولادة الطفل. ، تسليمها إلى والديها البيولوجيين.
ما هي المعضلات الأخلاقية لاستخدام الأم البديلة؟
في بعض الأحيان تتحول إلى مشكلة تجارية بغرض جمع الأموال والأرباح ، مما يسبب مشاكل خطيرة في الدول الفقيرة ، حيث تصبح مشكلة تأجير الرحم عندما يتعلق الأمر باستغلال أجساد النساء هناك. الكثير من المال. يعتبر تأجير الأرحام أو تأجير الأرحام من قبل العديد من الهيئات الدولية والقضائية انتهاكًا جسيمًا لكرامة الإنسان وقيمه. قد تؤثر الرابطة التي يشكلها الطفل مع أمه البديلة أثناء الحمل على مستقبله.
يمكن أن تنشأ المشاكل في بعض الأحيان عندما يرفض بعض الوكلاء التخلي عن أطفالهم للآباء البيولوجيين ، وهو حق ممنوح لهم في بعض البلدان ، مثل المملكة المتحدة ، والذي يسمح للبدائل بالحفاظ على أجنةهم حتى. إذا لم يكن طفلها وراثيًا ، طالما أنها لم توقع على تنازل رسمي لوالديه البيولوجيين.
عارضات الأزياء اللاتي يستخدمن “تأجير الأرحام” لإنجاب الأطفال
تبنى العديد من النجوم والمشاهير هذا النهج ، وآخرهم الممثلة الهندية بريانكا تشوبرا وزوجها المغني الأمريكي نيك جوناس استقبلوا طفلهما الأول من أم بديلة وانتشروا على نطاق واسع على جميع وسائل التواصل الاجتماعي أكدت الخبر.
من المشاهير الذين يستخدمون أمهات بديلات: نيكول كيدمان ، كيم كارداشيان ، سارة جيسيكا باركر.
في إحدى الحالات المثيرة للجدل ، استخدمت كريستينا أوزتورك ، وهي امرأة روسية تبلغ من العمر 24 عامًا ، وزوجها غالب أوزتورك ، 57 عامًا ، هذه الطريقة لإنجاب 21 طفلاً من خلال تأجير الأرحام ، والتي كلفتهم 168 ألف يورو ، أو أكثر من 192 ألف دولار للأم. بدائل.
الأطفال المولودين من أرحام صناعية … هذا ما ينتظر الإنسان
يشرف الروبوتات على الرحم الاصطناعي في الصين ، وليس الأمهات
تحدد الآلة مصير الجنين:
تشير الدراسة ، التي نُشرت في مجلة الهندسة الطبية الحيوية ، إلى أن الآلات أو الروبوتات التي تعتني بالجنين مزودة بأنظمة ذكاء اصطناعي.
وأضافت أنها تعمل بمعدل لا يستطيع الإنسان القيام به ، وتسهل عملية إنماء الأجنة الحيوانية للأغراض العلمية.
وأضافت أن العلماء في معهد (سوتشو) لتكنولوجيا الهندسة الطبية الحيوية اختبروا بالفعل عملية الروبوت على أجنة الفئران.
وفقًا لبحث نُشر مؤخرًا ، من الممكن “نظريًا” استخدام هذا الابتكار في الأجنة البشرية.
من حيث آلية العمل ، يتكون الرحم الاصطناعي الحالي من عدة أوعية تحتوي على خليط المغذيات التي توضع فيها الأجنة.
قام العلماء يدويًا بتتبع وتسجيل حالة الجنين أثناء مرحلة تحضير الرحم لتعديل عمل الروبوت.
يقولون إن جليسة الأطفال تعمل الآن بالذكاء الاصطناعي ويمكنها مراقبة الجنين على مدار الساعة طوال أيام الأسبوع.
أثناء التشغيل ، تلتقط صورًا عالية الدقة من خلال نظام العدسة والمستشعر وينظم درجة الحرارة.
تبدأ جليسة الأطفال الآلية بجلب إمدادات الهواء والمغذيات والماء في الوقت المناسب.
لكن الذكاء الاصطناعي للمربية كان قادرًا على تحديد الأجنة التي تموت أو تتطور بشكل غير صحيح.
تمت إزالتها على الفور من الرحم الاصطناعي ، وبدلاً من الأطباء ، قررت قتل الجنين بالخلل الوراثي.
كيف ظهرت فكرة الرحم الاصطناعي؟
يعود تاريخ تجارب تطوير الرحم الاصطناعي إلى عدة سنوات ، قام خلالها العلماء في جميع أنحاء العالم بخطوات كبيرة في تكوينه.
في عام 2019 ، نجح العلماء في بكين في إنشاء عضو قرد بدون أم في تجربة مثيرة درست البويضات المخصبة.
في الوقت الحالي ، يأمل الباحثون أن تساعد تقنية المربية روبرت في دراسة “نمو وتكوين الأجنة دون عيوب خلقية” بسبب التلوث العالمي.
ومع ذلك ، وفقًا لتقديرات الخبراء الطبيين ، لن تستمر التجارب السريرية على الأجنة البشرية.
يمكن استخدام تقنية الرحم الاصطناعي كأداة لعلاج الأطفال الذين تحاكي ظروف خدهم رحم أمهاتهم في بيئة مفتوحة.
ستظل هناك حاجة إلى الكثير من التجارب والبحث العلمي في المستقبل لتطبيق هذه الابتكارات على البشر.
فيما يتعلق بتجربة الصين ، قال مات كيمب ، رئيس مختبر الفترة المحيطة بالولادة في مركز أستراليا الغربية لأبحاث النساء والأطفال.
أي شخص يدعي أن الرحم الاصطناعي يمكن تنفيذه في غضون عامين يجب أن يكون لديه ثروة من البيانات غير المتوفرة الآن.
أو تحمّسي قليلاً لأن جميع التجارب التي أُجريت حتى الآن كانت في حالات حمل صحية تمامًا.
ابتكر علماء صينيون رحمًا اصطناعيًا يسمح للأجنة بالنمو بأمان ، ومربية آلية يمكنها مراقبتها والعناية بها ، وقد أكد العلماء أنه يمكن أن تكون قفزة إلى الأمام في الخصوبة المستقبلية في بلد يواجه أدنى معدل مواليد منذ عقود ، وفقًا لـ صحيفة “biomedeng” الصينية.
وفقًا للبيان الإماراتي ، قال باحثون في سوتشو ، مقاطعة جيانغسو بشرق الصين ، إنهم طوروا نظام ذكاء اصطناعي يمكنه مراقبة الأجنة ورعايتها أثناء تطورها إلى أجنة في بيئة رحم اصطناعي.
يرعى خبراء التجميل بالذكاء الاصطناعي حاليًا أعدادًا كبيرة من أجنة الحيوانات كجزء من تجارب دقيقة حول آلية العمل.
وقالت الصحيفة إن نفس التكنولوجيا يمكن أن تلغي حاجة المرأة لحمل طفل ، مما يسمح للجنين بالنمو بأمان وكفاءة أكبر خارج الجسم.
تم الآن إنشاء أنظمة روبوتية أو جليسات أطفال يمكنها مراقبة الأجنة بتفاصيل غير مسبوقة على مدار الساعة ، وفقًا للصحيفة.
يشرف الروبوتات على الرحم الاصطناعي في الصين ، وليس الأمهات