روبوت الدردشة “Tay” يجلب تهديدًا قانونيًا لمايكروسوفت من تايلور سويفت
بداية أزمة
المغني الأمريكي تايلور سويفت يحاول منع مايكروسوفت
وفقًا لكتاب جديد أصدره براد سميث ، الرئيس التنفيذي لشركة Microsoft ، فإن استخدام الاسم المستعار “Tay” في أسماء برامج الدردشة الخاصة بهم قد حول إهانات عنصرية فاسدة.
في مارس 2016 ، أطلقت Microsoft برنامج chatbot جديدًا في الولايات المتحدة
إنه مصمم للتحدث إلى الشباب والمراهقين على وسائل التواصل الاجتماعي.
ما هو Tay chatbot؟
وفقًا لكتاب “الأدوات والأسلحة” ، الذي شارك سميث في تأليفه مع كارول آن براون ، مديرة الاتصالات في Microsoft ، أطلقت الشركة في البداية برنامج الدردشة Xiaoice في السوق الصينية ومنذ ذلك الحين تم استخدامه ودمجه في السوق الصينية من قبل الملايين. .
على المنصات المصرفية والأخبار والترفيهية.
“يبدو أن CHAT BOT يلبي الاحتياجات الاجتماعية للصين ، كما يفعل المستخدمون
تحدث إلى XIAOICE لمدة خمسة عشر أو عشرين دقيقة عن يومهم ، ومشاكلهم ، وآمالهم ، وأحلامهم ، “كتب سميث وبراون.” ربما تفي باحتياجات مجتمع بدون أشقاء؟ ”
ومع ذلك ، عندما قررت Microsoft تجربتها في الولايات المتحدة ، فإن برنامج chatbot
الذكاء الاصطناعي الذي يسميه “تاي” ينجح.
تم تصميم الروبوت لتعلم كيفية التحدث من خلال التفاعل مع الآخرين على Twitter.
ينشر ردودًا على التغريدات بناءً على ما قاله الناس له.
ضع روبوت محادثة على تويتر
يعرف أي شخص قضى وقتًا على Twitter أنها تجربة محكوم عليها بالفشل.
يجب أن يكون المتصيدون على Twitter قد أفسدوا “Tay” بعد أقل من 24 ساعة من نشره.
كما كتب The Verge في ذلك الوقت ، “علّم Twitter تاي أن يكون عنصريًا في أقل من يوم”.
على الرغم من أن فيلم “تاي” كان ناجحًا للغاية في الصين وكان مفيدًا للمجتمع هناك ، إلا أن مايكروسوفت فشلت في التنبؤ بأمريكيين عنصريين ومعادين للسامية.
مايكروسوفت أغلقت “تاي” على الفور. في اليوم التالي ، نشرت الشركة مدونة تعتذر فيها عن مخالفة “تاي”.
قالوا:
“إننا نأسف بشدة للتغريدات غير المؤذية من TAY والتي لا تمثل من نحن وما نحن عليه
ما نمثله ، ولا كيف نصمم تاي ”
الحساب لا يزعج الأشخاص الذين تُساء معاملتهم بواسطة روبوتات المحادثة العنصرية ، على ما يبدو
كما أزعجت تايلور سويفت. كما قال سميث في كتابه:
كنت في إجازة عندما أخطأت في هاتفي أثناء العشاء. لقد تلقيت للتو بريدًا إلكترونيًا من محام
في بيفرلي هيلز ، قدم نفسه وأخبرني ، “نحن نمثل تايلور سويفت” … ومضى ليقول “اسم تاي” الذي أنا متأكد من أنك يجب أن تعرف أنه مرتبط ارتباطًا وثيقًا بعملائنا. “… واصل المحامي مستخدما
خلق اسم “تاي” علاقة خاطئة ومضللة بين المغني الشعبي و CHAT BOT العنصري
أنت ، إنه ينتهك القوانين الفيدرالية وقوانين الولايات.
رد فعل Microsoft على حالة روبوت Tay Chat
أضاف سميث أن محامي العلامات التجارية لشركة Microsoft لم يوافقوا على ذلك ، لكن Microsoft لم تكن مهتمة بمقاضاة Swift ، لذلك بدأت الشركة على الفور في مناقشة الاسم الجديد.
خذ هذا الحدث كمثال جدير بالملاحظة على “الممارسات الثقافية المختلفة”
في الولايات المتحدة والصين.
في عام 2018 ، أعيد تشغيل الروبوت باسم Zo ، وهو استنساخ دربه تاي
تم تصميمه للتواصل مع المراهقين ، ولكن تمت برمجته أيضًا لتجنب الحديث عن السياسة والعرق والدين. إذا لم تكن قد سمعت عن Zo ، فهذا لأن Zo ممل.
يبدو أنهم غيروا الاسم لكنهم جعلوا الروبوت يشبه تايلور سويفت.
ورفضت مايكروسوفت التعليق أكثر على هذه المسألة.
لم تستجب Swift لطلبها للتعليق على الموضوع.