الذكاء الاصطناعي الأخلاقي: هل تستطيع سويسرا تطوير المناهج الدراسية؟
على الصعيد المحلي ، على أي حال ، لم يبدأ النقاش الأخلاقي حول الذكاء الاصطناعي إلا للتو ، ولكن نظرًا لأن سويسرا ودول أخرى تواجه مخاوف تتعلق بالخصوصية في استخدام التقنيات الجديدة ، مثل تطبيقات تتبع جهات الاتصال ، لوقف انتشار COVID-19 ، فإن هذه المناقشات تأخذ التكنولوجيا بجدية. الذكاء الاصطناعي أم لا.
تدعو المبادرة الأوروبية – مبادرة عموم أوروبا لتتبع القرب والخصوصية (PEPP-PT) – إلى نهج يركز على البيانات ، مما يثير مخاوف بشأن الشفافية والحوكمة. ومع ذلك ، فإن تنفيذ هذا النظام المركزي ، المسمى DP-3T (تتبع التقارب وحماية الخصوصية اللامركزية) ، لم يكتمل بعد أن قررت بعض البلدان ، بما في ذلك سويسرا ، دعم الأنظمة اللامركزية وتعزيز الخصوصية. يأتي النهج الأوروبي لإنهاء مبادرة التتبع والخصوصية في الوقت الذي تقرر فيه ألمانيا أيضًا عدم التعاون معها.
قال جيم لاروز ، عميد كلية علوم الكمبيوتر والاتصالات (IC) في EPFL ، وعضو في الفريق الذي نفذ برنامج DB -3T العمل في المعهد من البداية. ونهج لامركزي لتتبع القرب. هذه المناقشات مفيدة للغاية لأنها تجعل عددًا كبيرًا من السكان على دراية بهذه المشكلات ويظهر أن لديهم تركيزًا قويًا على طريقة تصميم هذه التطبيقات وبناؤها. لا يستخدم الأشخاص تطبيقات تتبع جهات الاتصال إلا عندما يشعرون بذلك. من المعروف أنهم ليسوا مضطرين للتضحية بخصوصياتهم للهروب من العزلة. ”
يدعم ما يقرب من ثلثي المواطنين السويسريين استخدام تطبيقات تتبع فيروس كورونا وتحديد المواقع للمساعدة في السيطرة على انتشار العدوى ، وفقًا لاستطلاع حديث. تطبيق DP-3T قيد التجربة حاليًا ، بانتظار قرار برلماني بشأن المتطلبات القانونية لاستخدامه على نطاق واسع. ومع ذلك ، فإن النقاش حول هذه القضية يؤكد الحاجة الملحة للإجابة على الأسئلة المتعلقة بأخلاقيات وحوكمة التقنيات غير المنظمة.
“الطريقة السويسرية”
تم دمج الذكاء الاصطناعي لأول مرة في استراتيجية الحكومة السويسرية من أجل خلق الظروف المناسبة لتسريع التحول الرقمي للمجتمع.
في ديسمبر 2019 ، قدمت فرقة عمل تقريرًا إلى الحكومة الفيدرالية بعنوان “تحدي الذكاء الاصطناعي”. قال التقرير إن سويسرا مستعدة للاستفادة من إمكانات الذكاء الاصطناعي ، لكن المؤلفين قرروا عدم تسليط الضوء على القضايا الأخلاقية والأبعاد الاجتماعية للذكاء الاصطناعي ، ولكن التركيز على شرح حالات الاستخدام المختلفة والتحديات التي ينطوي عليها الأمر.
قالت دانييل ، رئيسة الابتكار في الأمانة الوطنية السويسرية: “في سويسرا ، لا تفرض الحكومة المركزية رؤية أخلاقية شاملة للذكاء الاصطناعي ، لأنه إذا فرضت الحكومة الذكاء الاصطناعي من أعلى إلى أسفل ، فإن الأخير سيكون غير متوافق مع تقاليدنا الديمقراطية”. قال دانيال إيجلوف ، المتخصص في التعليم والبحث والابتكار ، لـ swissinfo.ch. وأضاف أنه من الصعب تحديد المبادئ الأخلاقية المطلقة لأنها يمكن أن تختلف من بيئة تكنولوجية إلى أخرى. وأوضح أن “الرؤية الأخلاقية للذكاء الاصطناعي بدأت تتبلور في المشاورات بين أصحاب المصلحة الوطنيين والدوليين ، بما في ذلك الجمهور. كما تقوم الحكومات بدور نشط في هذا النقاش”.
في سياق أوسع ، تصر الحكومة على المشاركة الدولية النشطة في مناقشات الأخلاق وحقوق الإنسان. صرح السفير توماس شنايدر ، مدير الشؤون الدولية في مكتب الاتصالات الفيدرالية لـ swissinfo.ch ، بأن سويسرا “هي واحدة من أكثر الدول نشاطًا في المفوضية الأوروبية والأمم المتحدة والمنتديات الأخرى” ، مضيفًا أن مكتب الطموح التابع لوكالة الاتصالات الفيدرالية والدبلوماسية ستحول الوزارة جنيف إلى مركز عالمي لحوكمة التكنولوجيا.
هل هذه مجرد كلمة طنانة أخرى؟
لذا ، عندما يتعلق الأمر بالتكنولوجيا ، كيف تحدد ما هو أخلاقي وما هو غير أخلاقي؟ وفقًا لباسكال كوفمان ، عالم الأعصاب ومؤسس مؤسسة Mindfire للذكاء الاصطناعي الذي يركز على الإنسان ، فإن مفهوم الأخلاق المطبق على الذكاء الاصطناعي هو مجرد كلمة طنانة أخرى: “هناك الكثير من الالتباس حول معنى الذكاء الاصطناعي. يقول الكثير من الناس” الذكاء الاصطناعي “ليس هو نفسه لأن الذكاء له علاقة كبيرة بقوة الحوسبة العمياء. ولهذا السبب ، ليس من المنطقي التحدث عن الذكاء الاصطناعي الأخلاقي.” وأضاف: “لكي تكون أخلاقيًا ، أوصي بتسريع إنشاء الذكاء الاصطناعي لخدمة الناس ، وليس للحكومات الاستبدادية أو لشركات التكنولوجيا بشكل عام. إن وجود سياسة أخلاقية في هذا المجال لن ينجح ، ولن يساعدنا في إنشاء الذكاء الاصطناعي “.
آنا جوبين ، باحثة ما بعد الدكتوراه في مختبر الأخلاقيات والسياسات الصحية في ETH زيورخ ، لديها وجهة نظر مختلفة. استنادًا إلى بحثها ، تعتقد آنا أن الاعتبارات الأخلاقية يجب أن تكون جزءًا من تطوير الذكاء الاصطناعي: “لا يمكننا التعامل مع الذكاء الاصطناعي على أنه عمل تقني بحت ثم إضافة بعض الأخلاقيات عند الانتهاء منه ، ولكن يجب تضمين الجوانب الأخلاقية والاجتماعية في المناقشة. ابدأ بـ الشغل”. نظرًا لأن تأثير الذكاء الاصطناعي على حياتنا اليومية لن يتضاءل ، يعتقد Jobin أنه من الضروري إشراك المواطنين في المناقشات حول التقنيات الجديدة التي تستخدم الذكاء الاصطناعي ، وأن القرارات المتعلقة باستخدام الذكاء الاصطناعي يجب أن تُتخذ بمشاركة المجتمع المدني. لكنها في الوقت نفسه ، تقر بالقيود المفروضة على دمج المبادئ الأخلاقية في غياب الحوكمة الأخلاقية.
من جانبه ، يعتقد بيتر سيلي ، أستاذ الأخلاق المهنية في جامعة إيطاليانو في سويسرا ، أن مفتاح معالجة هذه القضايا هو وضع الأعمال والأخلاق والقانون على قدم المساواة. “تنجذب الشركات إلى اللوائح ، وتحتاج إلى إطار قانوني لتزدهر. القوانين الجيدة التي تنسق الأعمال والضوابط الأخلاقية تخلق بيئة مثالية لجميع المعنيين. التحدي الحقيقي هو إيجاد توازن بين هذه الركائز الثلاث ،” سيلي ساي.
مزيج مثالي
على الرغم من أن النهج السويسري يعتمد بشكل أساسي على التنظيم الذاتي ، إلا أن سيلي يعتقد أن إنشاء إطار قانوني ذي صلة بهذا المجال سيكون حافزًا كبيرًا للاقتصاد والمجتمع.
إذا كان لسويسرا أن تلعب دورًا رائدًا في وضع المعايير الأخلاقية ، فإن نظامها السياسي القائم على الديمقراطية المباشرة والتعاونيات الخاضعة للسيطرة الديمقراطية يمكن أن تلعب دورًا رئيسيًا في إرساء الأساس لإضفاء الطابع الديمقراطي على اقتصاد البيانات الشخصية والذكاء الاصطناعي. كما اقترحت الأكاديمية السويسرية للهندسة في ورقة عمل في نهاية عام 2019 ، يمكن أن يكون النموذج مشابهًا لنموذج MIDATA السويسري ، وهي جمعية تعاونية غير ربحية تضمن سيادة المواطنين على استخدام بياناتهم وتعمل كوصي على البيانات. مجموعة. يمكن لمالكي حسابات البيانات أن يصبحوا أعضاء في Medata والمشاركة في الحكم الديمقراطي للتعاونية. قد تسمح أيضًا بالوصول الانتقائي إلى بياناتهم الشخصية لأغراض البحث السريري والبحوث الطبية.
سيؤدي ظهور أنظمة البيانات المفتوحة التي تعزز مشاركة المجتمع المدني إلى زيادة الوعي بتأثير استخدام البيانات الشخصية ، لا سيما لأسباب صحية ، مثل تطبيقات تتبع جهات الاتصال. حتى لو اعتبرنا أن النظام اللامركزي مفضل وأفضل في دعم الحقوق الأساسية من النظام المركزي ، فهناك أيضًا إمكانية القرصنة.
قد يؤدي إنشاء أساس قانوني للذكاء الاصطناعي إلى إثارة نقاش عام حول الأمن والرقابة الأخلاقية لاستخدام الأنظمة الرقمية.