تظهر دراسة جديدة أن المعلومات الخاطئة ترى ارتباطًا أكبر بكثير من الأخبار الحقيقية على الفيسبوك

Share:

تظهر دراسة جديدة أن المعلومات الخاطئة ترى ارتباطًا أكبر بكثير من الأخبار الحقيقية على الفيسبوك 


أحد أكثر الأمور التي تحولت في الآونة الأخيرة هو الطريقة التي أصبحت بها المنصات الاجتماعية أدوات توزيع للأخبار والتقارير المزيفة ، مما يضخم حركات الحياة الواقعية القائمة على مشاركة وإعادة تبادل المعلومات الخاطئة والأكاذيب الصريحة

لقد زاد هذا المحتوى الآن من القدرة على التسلل والتأثير على حياة الناس. على سبيل المثال ، اتخذ كل من الفيسبوك و تويترالآن إجراءات ضد مجموعات مكافحة vax ، بينما وافق جميع عمالقة التكنولوجيا الرئيسيين هذا الشهر فقط على نداء كرايستشيرش ، الذي يهدف إلى توحيد جهودها للحد من انتشار الإرهاب والرسائل المتطرفة.

بالنظر إلى مخاطر هذا التقاسم ، فإن هذه مسألة محورية في التركيز - وهذا الأسبوع ، أكدت دراسة جديدة أجرتها جامعة أكسفورد مرة أخرى على سبب هذا القلق البالغ الأهمية. تحليل بيانات الفيسبوك كما هو مبين أن "الأخبار غير المرغوب فيها" - أو المحتوى من مصادر أقل شهرة - يتم مشاركته بأكثر من 4 مرات من المحتوى من منافذ الأخبار الموثوقة الموثوق بها عبر الشبكة الاجتماعية.


بالطبع ، يكمن الكثير في تعريف "الأخبار غير المرغوب فيها" بالضبط.


"تنشر هذه المصادر عن عمد معلومات مضللة أو خادعة أو غير صحيحة تدعي أنها أخبار حقيقية عن السياسة أو الاقتصاد أو الثقافة. يتضمن هذا المحتوى أشكالًا مختلفة من الدعاية والأخبار والمعلومات المتطرفة إيديولوجياً أو المفرطة الحزبية أو التآمرية."

الآن ، سوف يجادل البعض بأن هذا المحتوى هو ، في الواقع ، أخبار حقيقية ، وأنه هو المنافذ الرئيسية التي تنشر الأكاذيب - والتي هي في حد ذاتها اتجاه مقلق في العصر الحديث.

ولتأهيل ذلك ، يقول فريق البحث في جامعة أكسفورد إن أولئك المدرجين في فئة "الأخبار غير المرغوب فيها" عليهم الوفاء بثلاثة على الأقل من هذه المعايير الخمسة:

الاحترافية - لا تستخدم هذه المنافذ المعايير وأفضل الممارسات للصحافة المهنية. يمتنعون عن تقديم معلومات واضحة عن المؤلفين والمحررين والناشرين والمالكين الحقيقيين. فهي تفتقر إلى الشفافية والمساءلة ولا تنشر تصحيحات المعلومات التي تم الكشف عنها.

النمط - تستخدم هذه المصادر لغة ذات طابع عاطفي تشتمل على التعبيرات الانفعالية ، والإفراط في الأفق ، وهجمات hominem الإعلانية ، والعناوين المضللة ، والحروف الكبيرة ، والتعميمات غير الآمنة ، والمغالطات المنطقية ، والصور المتحركة ، والكثير من الصور وتعبئة الميمات.

المصداقية - تعتمد هذه المنافذ على معلومات خاطئة ونظريات المؤامرة ، التي تستخدمها غالبًا بطريقة استراتيجية. إنهم يقدمون تقارير دون الرجوع إلى مصادر متعددة ولا يقومون بالتحقق من الحقائق. غالبًا ما تكون المصادر غير موثوق بها وتفتقر معايير الإنتاج إلى الموثوقية.

التحيز - تعد التقارير المقدمة من هذه المنافذ منحازة إلى حد كبير أو منحرفة أيديولوجيًا أو مفرطة الحزبية ، وغالبًا ما تتضمن التقارير الإخبارية تعليقًا قويًا.

المزيفة - تحاكي هذه المصادر تقارير الأخبار الثابتة. إنها تزييف الخطوط والعلامات التجارية واستراتيجيات المحتوى الأسلوبية. يتم إخفاء محتوى التعليقات والمحتوى غير الهام كأخبار ، مع وجود إشارات إلى وكالات الأخبار ومصادر موثوق بها ، ويتم كتابة العناوين في نغمة الأخبار مع التاريخ والوقت وطوابع الموقع

مرة أخرى ، قد لا يكون هذا كافياً لإقناع أولئك الذين يفضلون الموافقة على هذا النوع من التقارير على المنافذ التقليدية - ولكن هذا ، في حد ذاته ، يشير إلى سبب فعالية هذا النوع من المحتوى ، لا سيما على الفيسبوك . لأنه يتوافق مع انحيازنا الداخلي الثابت ، ويعزز وجهات النظر الراسخة - والتي هي في الواقع وسيلة مؤكدة لإشعال النار لتعزيز المشاركة.

أكدت الدراسات النفسية عبر التاريخ مرارًا وتكرارًا على قوة تحيز التأكيد ، وهو في الأساس الطريقة التي تبحث بها أدمغتنا عن اختصارات لمعالجة المعلومات ، عن طريق اختيار الأجزاء التي سنؤمن بها والتي سوف نتجاهلها بشكل انتقائي.

كما أوضح عالم النفس والمؤلف سيا مهاجر:

"نبحث عن أدلة تدعم معتقداتنا وآرائنا حول العالم ، ولكنها تستبعد تلك التي تتعارض مع توقعاتنا ... في محاولة لتبسيط العالم وجعله متوافقًا مع توقعاتنا ، لقد منحنا نعمة التحيزات المعرفية ".

هذا ، كما ذكرنا ، بارز بشكل خاص على الفيسبوك ، حيث لا يتمتع المستخدمون فقط بالوصول إلى مصادر معلومات أكثر بديلة ومقبولة ، ولكن حيث تعمل خوارزمية موجز الأخبار لتظهر للمستخدمين أكثر مما يتفقون معه - وأقل مما لا يوافقون عليه " ر. على هذا النحو ، ليس من المفاجئ أن يبذل الأشخاص جهداً أقل للتحقق من المحتوى الذي يجدونه ، والذي يتم مشاركته داخل شبكاتهم القائمة من أقرانهم وأصدقائهم المتشابهين في التفكير. إذا قام شخص ما بنشر محتوى لا توافق عليه ، فيمكنك كتم صوته ، وإغلاقه ، مما يجعل النظام الأساسي ، في الحقيقة ، الأداة المثالية لتضخيم هذا النوع من المحتوى ، وتعزيز تحيزنا المتأصل.

السؤال إذن هو كيف يمكنك إصلاحه؟ يعد الفيسبوك موقعًا جيدًا للغاية في التعامل مع الطبيعة البشرية لتضخيم هذه المشاركة ، وهذا يعمل لصالح الشركة ، لأن المزيد من المشاركة يعني المزيد من المشاركة ، وبالتالي المزيد من الدولارات الإعلانية. إذا رأى الفيسبوك أن خوارزمية موجز الأخبار تعمل على دفع نشاط المستخدم ، فما هو الدافع الذي يجب عليهم تغييره لتقليل فعاليته؟

كما لوحظ ، فإن جميع عمالقة التكنولوجيا الكبرى يبحثون الآن عن كيفية الحد من هذه التأثيرات ، ولكن هذا الجانب ، على وجه الخصوص ، كان مفتاح نمو الفيسبوك - تقوم الشركة بتسليح علم النفس البشري للتلاعب بعمل الجمهور ، وذلك من خلال زيادة الوقت الذي يقضيه في النظام الأساسي أو الإعلانات المستهدفة على وجه التحديد.

لهذا السبب حقق الفيسبوك نجاحًا هائلاً ، ومن المحتمل أن يتطلب الأمر تراكمًا كبيرًا للأدلة لإقناع Zuck and Co. بتغيير المسار.


قد تكون هذه هي القضية الملحة في عصرنا - يمكن أن تكون السبب في كون بعض القضايا مثل تغير المناخ ، على سبيل المثال ، تكافح من أجل كسب قوة كبيرة مع السكان ، لأن الناس ببساطة لا يثقون في ما يقرؤون. أو على الأقل ، لا يثقون بما لا يتفقون معه ، والذي قد يتضمن ما هو غير مريح أو صعب. العصر الجديد لوسائل التواصل الاجتماعي هو أيضًا عصر التحيز في التأكيد ، ومع توفير الأموال في الأخبار "البديلة" ، تم إنشاء اقتصاد معلومات جديد بالكامل.

يعد حظر أحد الأمثلة الأكثر تطرفًا على هذا الخيار أحد الخيارات ، ولكن هذا يمكن أن يعمل أيضًا على تشجيع المؤمنين ، ورؤيتهم يحولون تحركاتهم إلى منافذ جديدة.

حتى لا يكون هناك حل؟ من المفارقات أن وجهة نظرك ، من المرجح أن تأتي إلى ما تختار تصديقه.

ليست هناك تعليقات