ปัญหาของ Facebook ซับซ้อนกว่าข่าวปลอม

ปัญหาของ Facebook ซับซ้อนกว่าข่าวปลอม

หลังจากชัยชนะที่ไม่คาดคิดของ Donald Trump มีคำถาม มากมาย เกี่ยวกับบทบาทของ Facebook ในการส่งเสริมข้อมูลที่ไม่ถูกต้องและมีพรรคพวกอย่างสูงในระหว่างการแข่งขันชิงตำแหน่งประธานาธิบดี และข่าวปลอมนี้มีอิทธิพลต่อผลการเลือกตั้งหรือไม่  ไม่กี่คนได้มองข้ามผลกระทบของ Facebook รวมถึง Mark Zuckerberg CEO

ประชาชนเข้าใจผิด

บทบาทของ Facebook ในการเผยแพร่ข่าวการเมืองไม่อาจปฏิเสธได้ ในเดือนพฤษภาคม 2559 ชาวอเมริกันร้อยละ 44กล่าวว่าพวกเขาได้รับข่าวจากเว็บไซต์โซเชียลมีเดีย และความแพร่หลายของข้อมูลที่ผิด ๆ ที่เผยแพร่ผ่าน Facebook นั้นไม่อาจปฏิเสธได้

จึงเป็นไปได้ว่าจำนวนข่าวปลอมบนแพลตฟอร์มที่คนจำนวนมากได้รับข่าวของพวกเขา สามารถช่วยอธิบายได้ว่าทำไม คนอเมริกันจำนวนมากจึง ได้รับข้อมูลข่าวสารที่ผิดเกี่ยวกับการเมือง

แต่มันยากที่จะบอกว่าสิ่งนี้เป็นไปได้มากน้อยเพียงใด ฉันเริ่มศึกษาบทบาทของอินเทอร์เน็ตในการส่งเสริมความเชื่อที่ผิดๆ ระหว่างการเลือกตั้งปี 2008 โดยหันความสนใจไปที่โซเชียลมีเดียในปี 2012 ในการค้นคว้าอย่างต่อเนื่อง ฉันพบหลักฐานที่สอดคล้องกันเพียงเล็กน้อยว่าโซเชียลมีเดียใช้ส่งเสริมการยอมรับการกล่าวอ้างที่เป็นเท็จเกี่ยวกับผู้สมัครรับเลือกตั้ง แม้ว่าความ​เท็จ​ที่​แพร่​หลาย . แต่ปรากฏว่าในปี 2555 เช่นเดียวกับในปี 2551 อีเมลยังคงเป็นสื่อกลางที่ทรงพลังสำหรับทฤษฎีการโกหกและสมรู้ร่วมคิด สื่อสังคมออนไลน์ไม่มีผลกระทบที่น่าเชื่อถือต่อความเชื่อของผู้คน

อย่างไรก็ตาม สักครู่ สมมุติว่าปี 2016 แตกต่างจากปี 2012 และ 2008 (การเลือกตั้งมีความพิเศษในด้านอื่นๆ อีกมาก)

หาก Facebook กำลังส่งเสริมแพลตฟอร์มที่ประชาชนสามารถแยกแยะความจริงจากนิยายได้น้อยลง จะเป็นภัยคุกคามร้ายแรงต่อระบอบประชาธิปไตย ของอเมริกา แต่การตั้งชื่อปัญหาไม่เพียงพอ เพื่อต่อสู้กับกระแสข้อมูลเท็จผ่านโซเชียลมีเดีย สิ่งสำคัญคือต้องเข้าใจว่าทำไมมันถึงเกิดขึ้น

อย่าโทษฟองกรอง

Facebook ต้องการให้ผู้ใช้มีส่วนร่วม ไม่ถูกครอบงำ ดังนั้นจึงใช้ซอฟต์แวร์ที่เป็นกรรมสิทธิ์ซึ่งกรองฟีดข่าวของผู้ใช้และเลือกเนื้อหาที่จะปรากฏ ความเสี่ยงอยู่ที่วิธีการตัดเย็บนี้

มีหลักฐานมากมาย ที่แสดง ว่าผู้คนสนใจข่าวที่ยืนยันมุมมองทางการเมืองของพวกเขา ซอฟต์แวร์ของ Facebook เรียนรู้จากการกระทำในอดีตของผู้ใช้ มันพยายามเดาว่าเรื่องราวใดที่พวกเขามีแนวโน้มที่จะคลิกหรือแบ่งปันในอนาคต เมื่อพิจารณาถึงขีดสุด การทำเช่นนี้จะสร้างฟองอากาศตัวกรองซึ่งผู้ใช้จะเห็นเฉพาะเนื้อหาที่ยืนยันอคติของตนอีกครั้งเท่านั้น ความเสี่ยงคือฟองอากาศกรองส่งเสริมความเข้าใจผิดโดยการซ่อนความจริง

การอุทธรณ์ของคำอธิบายนี้ชัดเจน เข้าใจง่าย ดังนั้นอาจจะแก้ไขได้ง่าย กำจัดฟีดข่าวส่วนบุคคลและฟองอากาศกรองจะไม่มีอีกต่อไป

ปัญหาของอุปมาของตัวกรองฟองสบู่คือ สมมติว่าผู้คนถูกหุ้มฉนวนอย่างสมบูรณ์จากมุมมองอื่นๆ อันที่จริงมีการศึกษาจำนวนมาก ที่  แสดงให้เห็นว่าอาหารของสื่อของบุคคลนั้นมักจะมีข้อมูลและแหล่งข้อมูลที่ท้าทายทัศนคติทางการเมืองของพวกเขาอยู่เสมอ และจากการศึกษาข้อมูลผู้ใช้ Facebookพบว่าการเผชิญหน้าข้อมูลแบบ cross-cutting เป็นที่แพร่หลาย กล่าวอีกนัยหนึ่ง การถือความเชื่อผิดๆ ไม่น่าจะอธิบายได้หากผู้คนขาดการติดต่อกับข่าวที่แม่นยำยิ่งขึ้น

ในทางกลับ กัน อัตลักษณ์ทางการเมืองที่มีอยู่ก่อนแล้วของผู้คนได้ หล่อหลอมความเชื่อของพวกเขา อย่างลึกซึ้ง ดังนั้นแม้เมื่อต้องเผชิญกับข้อมูลเดียวกัน ไม่ว่าจะเป็นบทความข่าวหรือการตรวจสอบข้อเท็จจริงผู้ที่มีแนวความคิดทางการเมืองต่างกันมักจะแยกความหมายที่ต่างกันออกไปอย่างมาก

การทดลองทางความคิดอาจช่วยได้: หากคุณเป็นผู้สนับสนุนคลินตัน คุณทราบหรือไม่ว่าเว็บไซต์ทำนายผล FiveThirtyEight ที่ได้รับความเคารพอย่างสูงทำให้คลินตันมีโอกาสชนะเพียง 71 เปอร์เซ็นต์เท่านั้น อัตราต่อรองเหล่านั้นดีกว่าการพลิกเหรียญ แต่ยังห่างไกลจากสิ่งที่แน่นอน ฉันสงสัยว่าพรรคเดโมแครตหลายคนตกใจแม้จะเห็นหลักฐานที่ไม่สบายใจนี้ อันที่จริงหลายคนวิพากษ์วิจารณ์การคาดการณ์นี้ในวันก่อนการเลือกตั้ง

หากคุณโหวตให้ทรัมป์ คุณเคยเจอหลักฐานที่โต้แย้งคำยืนยันของทรัมป์ว่าการฉ้อโกงผู้มีสิทธิเลือกตั้งเป็นเรื่องธรรมดาในสหรัฐอเมริกาหรือไม่ ผู้ ตรวจสอบข้อเท็จจริงและองค์กรข่าวได้กล่าวถึงปัญหานี้อย่างกว้างขวาง โดยเสนอหลักฐานที่ชัดเจนว่าคำกล่าวอ้างนั้นไม่เป็นความจริง อย่างไรก็ตาม ผู้สนับสนุนทรัมป์อาจไม่เคลื่อนไหว: ในการสำรวจความคิดเห็นในเดือนกันยายน 2559ผู้สนับสนุนทรัมป์ 90% กล่าวว่าพวกเขาไม่เชื่อถือผู้ตรวจสอบข้อเท็จจริง

เฟสบุ๊ค = โกรธพรรคพวก?

หากการแยกจากความจริงเป็นแหล่งข้อมูลหลักที่ไม่ถูกต้องจริงๆ วิธีแก้ปัญหาก็ชัดเจน: ทำให้ความจริงปรากฏให้เห็นมากขึ้น

น่าเสียดายที่คำตอบนั้นไม่ง่ายนัก ซึ่งนำเรากลับมาที่คำถามของ Facebook: มีแง่มุมอื่น ๆ ของบริการที่อาจบิดเบือนความเชื่อของผู้ใช้หรือไม่?

ต้องใช้เวลาสักระยะกว่าที่นักวิจัยจะตอบคำถามนี้ได้อย่างมั่นใจ แต่ในฐานะคนที่ศึกษาวิธีต่างๆ ที่เทคโนโลยีอินเทอร์เน็ตอื่นๆ สามารถชักนำให้ผู้คนเชื่อข้อมูลเท็จ ฉันก็พร้อมที่จะเสนอการคาดเดาที่มีการศึกษามาบ้างแล้ว

มีสองสิ่งที่เรารู้อยู่แล้วเกี่ยวกับ Facebook ที่สามารถสนับสนุนการแพร่กระจายของข้อมูลเท็จ

ประการแรก อารมณ์สามารถติดต่อได้ และสามารถแพร่กระจายบน Facebook ได้ การศึกษาขนาดใหญ่ชิ้นหนึ่งแสดงให้เห็นว่าการเปลี่ยนแปลงเล็กน้อยในฟีดข่าวของผู้ใช้ Facebook สามารถกำหนดอารมณ์ที่พวกเขาแสดงออกในโพสต์ในภายหลัง ในการศึกษาครั้งนั้น การเปลี่ยนแปลงทางอารมณ์มีเพียงเล็กน้อย แต่การเปลี่ยนแปลงในฟีดข่าวก็เช่นกัน ลองนึกภาพว่าผู้ใช้ Facebook ตอบสนองต่อข้อกล่าวหาอย่างกว้างขวางเกี่ยวกับการทุจริตของผู้สมัคร กิจกรรมทางอาญา และการโกหกของผู้สมัครอย่างไร ไม่น่าแปลกใจที่ ผู้ใช้ เกือบครึ่ง (49 เปอร์เซ็นต์) อธิบายว่าการสนทนาทางการเมืองบนโซเชียลมีเดียนั้น “โกรธ”

เมื่อพูดถึงการเมือง ความโกรธเป็นอารมณ์ที่ทรงพลัง มีการแสดงเพื่อทำให้ผู้คนเต็มใจยอมรับความเท็จของพรรคพวกมากขึ้น และมีแนวโน้มที่จะโพสต์และแบ่งปันข้อมูลทางการเมืองซึ่งอาจรวมถึงบทความข่าวปลอมที่ตอกย้ำความเชื่อของพวกเขาด้วย หากการใช้ Facebook ทำให้พรรคพวกโกรธในขณะที่ยังเผยให้เห็นถึงความเท็จของพรรคพวก การทำให้มั่นใจว่าข้อมูลที่ถูกต้องมีอยู่จริงอาจไม่สำคัญมากนัก พรรครีพับลิกันหรือเดโมแครต คนขี้โมโหมักไว้วางใจข้อมูลที่ทำให้ฝ่ายตนดูดี

ประการที่สอง Facebook ดูเหมือนจะตอกย้ำอัตลักษณ์ทางการเมืองของผู้คน – ทำให้เกิดการแบ่งแยกพรรคพวก ที่มีขนาดใหญ่อยู่ แล้ว แม้ว่า Facebook จะไม่ปกป้องผู้คนจากข้อมูลที่พวกเขาไม่เห็นด้วย แต่ก็ช่วยให้ค้นหาผู้ที่มีความคิดเหมือนๆ กันได้ง่ายขึ้น เครือข่ายสังคมของเรามีแนวโน้มที่จะรวมผู้คนจำนวนมากที่แบ่งปันค่านิยมและความเชื่อของเรา และนี่อาจเป็นอีกทางหนึ่งที่ Facebook กำลังตอกย้ำความเท็จที่มีแรงจูงใจทางการเมือง ความเชื่อมักทำหน้าที่ทางสังคม ช่วยให้ผู้คนกำหนดได้ว่าพวกเขาเป็นใครและเข้ากับโลกอย่างไร ยิ่งคนมองตัวเองในแง่การเมืองได้ง่ายขึ้นเท่าไร พวกเขาก็ยิ่งยึดติดกับความเชื่อที่ยืนยันตัวตนนั้นมากขึ้นเท่านั้น

ปัจจัยทั้งสองนี้ – วิธีที่ความโกรธสามารถแพร่กระจายไปทั่วเครือข่ายโซเชียลของ Facebook และวิธีที่เครือข่ายเหล่านั้นสามารถทำให้อัตลักษณ์ทางการเมืองของบุคคลเป็นศูนย์กลางมากขึ้นว่าพวกเขาเป็นใคร – มีแนวโน้มที่จะอธิบายความเชื่อที่ไม่ถูกต้องของผู้ใช้ Facebook ได้อย่างมีประสิทธิภาพมากกว่าสิ่งที่เรียกว่าฟองสบู่

หากนี่เป็นเรื่องจริง แสดงว่าเรามีความท้าทายที่รออยู่ข้างหน้า Facebook มีแนวโน้มที่จะเปลี่ยนอัลกอริธึมการกรองเพื่อจัดลำดับความสำคัญของข้อมูลที่แม่นยำยิ่งขึ้น Google ได้ดำเนินการในลักษณะเดียวกันแล้ว และรายงานล่าสุดชี้ให้เห็นว่า Facebook อาจให้ความสำคัญกับปัญหามากกว่าความคิดเห็นของ Zuckerberg

แต่สิ่งนี้ไม่ได้ช่วยอะไรในการจัดการกับพลังแฝงที่เผยแพร่และส่งเสริมข้อมูลเท็จ: อารมณ์และผู้คนในเครือข่ายสังคมของคุณ และไม่ชัดเจนว่าคุณลักษณะเหล่านี้ของ Facebook สามารถหรือควร “แก้ไข” เครือข่ายทางสังคมที่ปราศจากอารมณ์ดูเหมือนจะเป็นความขัดแย้ง และการรักษาที่บุคคลโต้ตอบด้วยไม่ใช่สิ่งที่สังคมของเราควรยอมรับ

แนะนำ : ข่าวดารา | กัญชา | เกมส์มือถือ | เกมส์ฟีฟาย | สัตว์เลี้ยง