هل المساعدون الرقميون القائمون على الذكاء الاصطناعي يعززون القوالب النمطية الضارة؟

هل المساعدون الرقميون القائمون على الذكاء الاصطناعي يعززون القوالب النمطية الضارة؟

تزعم دراسة جديدة نشرتها منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) أن ثقافة مساعد الصوت التي تعمل بالذكاء الاصطناعي تعزز الصور النمطية الجنسانية الضارة. تقول الصحيفة التي نشرتها الأمم المتحدة أن معظم المساعدين الصوتيين في وضع الأنثى بشكل افتراضي. بالإضافة إلى ذلك ، تتشابه أسمائهم أيضًا مع أنثى - مثل Alexa و Siri و Cortana.

تستكشف الورقة التي تحمل عنوان "استحى إن أمكن ،" بعد استجابة من Siri عند تلقي تعليقات جنسية صريحة معينة نظام التحيز في تطور الذكاء الاصطناعي. وفقًا للأمم المتحدة ، تفتقر شركات التكنولوجيا إلى الأمر عندما يتعلق الأمر ببناء ضمانات مناسبة ضد اللغة العدائية والمسيئة والجنسانية. في الواقع ، يأخذ معظم المساعدين "الأوامر غير المناسبة" بنكات خادعة خاصة بهم.

على سبيل المثال ، اطلب من Siri أن يجعلك ساندوتشًا وسوف يرد عليه ، "لا أستطيع! ليس لدي أي بهارات. "

يشير التقرير إلى أن صوت معظم المساعدين الرقميين هم من الإناث بشكل افتراضي ، كما أن التصرف اللفظي ينظر إلى النساء على أنهن "مطيعات" و "حريصات على إرضاءهن". كما يوضح أن المساعد ليس له سيطرة خارج أوامر المستخدم ويكرم كل استعلام بغض النظر عن لهجة أو حتى العداء.

نحن جميعًا على دراية بشركات التقنية التي تستخدم منصاتًا منظمة العفو الدولية لتعزيز وظائفها. في المستقبل ، يمكننا أن نتوقع استخدامًا محسنًا للمساعدين الصوتيين حتى لأدنى المهام.

ومع ذلك ، بما أن الآلات تلعب دورًا أكثر جوهرية في حياتنا اليومية ، فهل تؤثر طريقة تفاعلنا على كيفية تواصلنا مع البشر الآخرين؟

وفقًا لتقرير Business Insider الذي تم نشره في سبتمبر الماضي ، اختارت أمازون صوتًا نسائيًا لمساعدتهم لأن أبحاثهم أشارت إلى أنه سيتلقى تعاطفًا أكبر من المستخدمين. بدلاً من ذلك ، عيّنت ميكروسوفت مساعدها Cortana للعمل على الاعتراف الحالي بشخصية الذكاء الاصطناعي التي تحدد الأنثى في امتياز لعبة ألعاب الفيديو Halo. لهذا السبب ، لا يمكنك تغيير صوت Cortana إلى صوت ذكر ولم توضح ميكروسوفت أيضًا متى سيسمح هذا التغيير. تعتبر Siri أيضًا اسمًا إسكندنافيًا شائعًا يعني "انتصار جميل" في Old Norse.

ببساطة ، اتخذ قرار دمج مساعدات الأصوات الإناث عن قصد وبعد ما يبدو ردود فعل واسعة النطاق.

ومع ذلك ، تبذل بعض شركات التكنولوجيا جهدًا للابتعاد عن التصميمات التي تم تطويرها في وقت مبكر لكسر الصور النمطية. خذ على سبيل المثال ، جوجل الذي لديه الآن خيارات مساعد مختلفة بما في ذلك لهجات لكل من الذكور والإناث. يتم تعيين ألوان مختلفة أيضًا إلى المساعد الصوتي الثمانية لها بينما أطلقت الشركة أيضًا مبادرة يتم فيها مكافأة الأخلاق الحميدة مثل "من فضلك" و "شكرًا".

طرحت أمازون مفهومًا مشابهًا العام الماضي لمساعدتها في Alexa.

ومع ذلك ، تزعم الأمم المتحدة أن الميزات وخيارات الصوت بين الجنسين يتم إدخالها في صناعات الذكاء الاصطناعى والتكنولوجيا. ووجدت أبحاثهم أن ثمانين في المائة من أكاديميي الذكاء الاصطناعى من الرجال بينما 15 في المائة فقط من الباحثين في الذكاء الاصطناعي في فيسبوك وجوجل هم من النساء ، على التوالي.

تقول اليونسكو إن حل المشكلة هو تطوير مساعدين بأصوات محايدة قدر الإمكان. يقول التقرير أن شركات التكنولوجيا غير قادرة على جعل المستخدمين يتعاملون مع الذكاء الاصطناعي بأدب ، ولهذا من المهم أن يعيدوا تشكيل المساعدين الصوتيين ككيانات غير بشرية عن قصد.


تعليقات