اعتذرت شركة مايكروسوفت عن التعليقات العنصرية التي نشرها برنامج الذكاء الاصطناعي الخاص بروبوت الدردشة، تاي Tay، على موقع التواصل الاجتماعي تويتر، مما أجبرها على إيقافه عن العمل.
لكن وجهات نظر الروبوت صادرة عن المعلومات التي تغذى بها وليس بسبب طبيعته، لأن “الناس على شبكة الإنترنت يسبّبون الأذى في كلامهم”، بسحب الروبوت.
و”تاي” هو برنامج ذكاء صناعي على شكل روبوت يجسّد شخصية افتراضية لفتاة مراهقة، يتراوح عمرها بين 18 و24 عاما، يمكن الدردشة معها على موقع تويتر .
وتعرض الروبوت “لهجوم منسق لمجموعة من المستخدمين”، بعد إطلاقه مطلع هذا الأسبوع.
وقررت الشركة إيقافه عن العمل تماما بعد 24 ساعة فقط من إطلاقه، حتى يقوم فريق التشغيل بتعديله.
لكن بيتر لي، رئيس الأبحاث في مايكروسوفت، أكد أن الشركة تشعر بأسف بالغ تجاه الهجوم غير المقصود والتغريدات المؤلمة، وأنها قررت وقف البرنامج خلال المستقبل المنظور.
وقال أمس الجمعة :”تاي لم يعد موجودا على الإنترنت وسننظر في إمكانية إعادته للعمل حال تأكدنا فقط من توقع النوايا الخبيثة بشكل أفضل والتي تتعارض مع مبادئنا وقيمنا.”
وصمم برنامج تاي ليتعلم من التفاعل مع البشر الحقيقيين على موقع تويتر، لكن بعض المستخدمين استغلوا الفرصة وقرروا تغذيته بمعلومات عنصرية وعدائية.