هل يمكننا تعليم الذكاء الاصطناعي للتفكير أخلاقيا؟ (إنفوجرافيك)

Share:

هل يمكننا تعليم الذكاء الاصطناعي للتفكير أخلاقيا؟ (إنفوجرافيك)


نعلم جميعا القول القديم: القمامة في ، القمامة خارج. لقد كان هذا صحيحًا بشكل خاص مع المسارات الأولى للذكاء الاصطناعي. البشر الذين يقومون ببناء الخوارزميات معيبة بطبيعتها ولديهم تحيزات متأصلة بعمق في عمليات التفكير الخاصة بهم ، وهذا يترجم إلى التحيز في إخراج العديد من خوارزميات الذكاء الاصطناعي. لقد رأينا أن إحدى الخوارزميات تعلم أن المرشحين للوظائف الذكور يفضلون على المرشحات للعمل ، ولا يستثننن فقط السير الذاتية للسيدات فحسب ، بل أيضًا تلك التي أدرجت النساء كمراجع. إن بناء الذكاء الاصطناعى الأخلاقي أمر صعب ، لكنه يمكن ، ويجب ، أن يتم.

أحد الأسباب الرئيسية للسيارات ذاتية الحكم هو منع الوفيات المرورية ، لكن السيارات بدون سائق هي واحدة من أهم القضايا التي تدور حول الذكاء الاصطناعي اليوم. كانت هناك بالفعل وفيات مرتبطة بكل من القيادة المستقلة والآلية (شبه المستقلة) ، كل من المشاة والسائق ، على مدى السنوات القليلة الماضية من الاختبار. لدى الناس آراء قوية حول كيف يُفترض أن تقوم منظمة العفو الدولية بإعطاء الأولوية للحياة في حالة وقوع حادث ، وبعض الآراء الأكثر شعبية هي ما تتوقعه: فمعظم الناس سيوفرون حياة الأطفال ولكن من غير المرجح أن يرغبوا في حياة المجرمين والحيوانات تدخر. لدى الذكاء الاصطناعي ميلي ثانية لاتخاذ قرار في حالة وقوع حادث ، ويجب برمجة أخلاقياتها بشكل صريح.

لقد تم استخدام الذكاء الاصطناعي أيضًا لتصميم برنامج التعرف على الوجه ، ودفعت عيوبه الحكومات في جميع أنحاء العالم إلى حظره تمامًا بينما تبنته حكومات أخرى بإخلاص. يمكن لـ Amazon’s Rekognition تحديد ما يصل إلى 100 وجه منفصل في صورة واحدة ، وتتبع الأشخاص في الوقت الفعلي من خلال لقطات المراقبة ، ومسح كاميرات مراقبة إنفاذ القانون. لسوء الحظ ، عندما قام اتحاد الحريات المدنية الأمريكي باختبار التقنية ، قام بتغذية 25000 لقطة من المجرمين الإجراميين في البرنامج وقارنها بأعضاء الكونغرس الأمريكي ، مما أسفر عن 28 مباراة خاطئة ، منها كمية غير متناسبة من الأشخاص ذوي الألوان. من المؤكد أن هذه التكنولوجيا تُشكِّل مشكلة في العديد من الحالات ويدعو الناس إلى تطبيق القانون لحظر استخدامها بسبب الخصوصية ومخاوفهم المتعلقة بالهوية.

ديب فوركس هي مصدر قلق خطير آخر عند استخدام الذكاء الاصطناعي. وقد استخدم هذا في الأفلام بنتائج مختلطة عندما توفي شخص يلعب شخصية أو عندما يكون كبار السن الآن أكبر مما كان عليه في إصدار سابق ويجب أن يكون الجدول الزمني مستمرًا. ولكن الآن يمكن استخدام نفس التكنولوجيا لإنشاء مقاطع فيديو مقنعة للأفراد والسياسيين والمشاهير المؤثرين الذين يلقون الخطب أو يقولون أشياء لم يقلوها أبدًا ، ولن تعرف الفرق أبدًا. في العام الماضي ، قام BuzzFeed بإنشاء شريط فيديو لباراك أوباما يقول: "نحن ندخل حقبة يمكن لأعدائنا أن يجعلوها تبدو وكأن أي شخص يقول أي شيء في أي وقت من الأوقات." حتى أن هناك شريط فيديو يدور الآن مع اللوحات الشهيرة و تتحدث الصور بطريقة مقنعة ونابضة بالحياة ، مما يؤكد الحاجة إلى مراقبة من يستخدم هذه التكنولوجيا ولماذا بعناية.

الذكاء الاصطناعي ، إذا تم استخدامه أخلاقيا وبشكل صحيح ، لديه القدرة على تحسين حياتنا بشكل كبير نحو الأفضل. يمكن أن تتولى مهام ضارة ومتكررة ، وتحرير البشر للقيام بأشياء أكثر إبداعًا وربما قضاء وقت أقل في العمل. لكن يجب بناء التقنية بطريقة جديرة بالثقة حتى يحدث ذلك. كانت تلك السير الذاتية التي تم ردها لكونها من النساء لأن "التعيينات الناجحة" بالفعل كانت في معظمها من الرجال والخوارزمية لا تستطيع التمييز بين الخصائص التي جعلت المرشحين بالفعل ناجحين وأيها غير ذات صلة. تلك الوفيات المشاة؟ واحد على الأقل كان لأن الذكاء الاصطناعي لم يستطع التعرف على لون البشرة الغامق. يجب فهم التحيز في برمجة الذكاء الاصطناعي من أجل الحصول على معلومات غير متحيزة.

تعرف على المزيد حول التحيز في الذكاء الاصطناعي وكيفية إصلاحه من الرسم التوضيحي أدناه.

Ethical AI
المصدر : Cyber Security Degrees

ليست هناك تعليقات