Written by Kim
บริษัทผู้ประกอบธุรกิจสื่อสังคม (social media) ของสหรัฐฯถูกกดดันอย่างหนักให้ดำเนินการบางอย่างเกี่ยวกับการเผยแพร่ข้อมูลที่ผิด (misinformation)[1] บนแพลตฟอร์มของพวกเขา ตั้งแต่การเลือกตั้งประธานาธิบดีในปี 2016 บริษัท Facebook และ YouTube ตอบสนองด้วยการใช้กลยุทธ์ “ต่อต้านข่าวปลอม” ซึ่งดูเหมือนจะมีประสิทธิภาพพร้อมกับการเคลื่อนไหวประชาสัมพันธ์อย่างชาญฉลาด: ทั้งสองบริษัทแสดงให้เห็นว่าพวกเขาเต็มใจที่จะดำเนินการและนโยบายดังกล่าวมีความสมเหตุสมผลต่อสาธารณะ[2]
กลยุทธ์ที่ฟังดูสมเหตุสมผลมิได้หมายความว่าจะใช้การได้ แม้แพลตฟอร์มต่าง ๆ กำลังมีความก้าวหน้าในการต่อสู้กับข้อมูลที่ผิด แต่การวิจัยเมื่อไม่นานมานี้โดยผู้เขียนทั้งสองและนักวิชาการคนอื่น ๆ แสดงให้เห็นว่า กลยุทธ์หลายอย่างของพวกเขาอาจไม่มีประสิทธิภาพ – และทำให้เรื่องราวเลวร้ายลง นำไปสู่ความสับสน ไม่ชัดเจนเกี่ยวกับความจริง (truth) บริษัทสื่อสังคมจำเป็นต้องตรวจสอบให้เป็นที่ประจักษ์ชัดเจนว่า ข้อกังวลที่เกิดขึ้นในการทดลองเหล่านี้ตรงประเด็นกับวิธีการที่ผู้ใช้ประมวลข่าวสารบนแพลตฟอร์มของพวกเขาหรือไม่
แพลตฟอร์มต่าง ๆ ใช้กลยุทธ์ให้ข้อมูลข่าวสาร (information) เพิ่มเติมเกี่ยวกับแหล่งที่มาของข่าว (news’s source) โดย YouTube มีกล่องข้อความ (information panel) ปรากฎขึ้นเพื่อแจ้งผู้ใช้เมื่อมีการสืบค้นเนื้อหาที่ผลิตโดยองค์กรที่ได้รับทุนจากรัฐบาลหรือหัวข้อซึ่งก่อให้เกิดการโต้แย้ง ส่วน Facebook มีตัวเลือกบริบท (context) ที่ให้ข้อมูลภูมิหลังเกี่ยวกับแหล่งที่มาของบทความในแหล่งป้อนข่าว (news feed)[3]
กลยุทธ์หรือชั้นเชิงประเภทนี้เข้าใจได้ง่ายเพราะเป็นแหล่งข่าวจากสำนักพิมพ์กระแสหลัก ซึ่งได้รับการยอมรับเป็นอย่างดี แม้ยังไม่สมบูรณ์มากนัก แต่ก็มีมาตรฐานการบรรณาธิการ (แก้ไข) และการรายงานที่ดีกว่าเว็บไซต์ที่คลุมเครือ ซึ่งถักทอ (ผลิต) เนื้อหาโดยไม่เปิดเผยคุณลัษณะของผู้เขียน
การวิจัยล่าสุดของผู้เขียนทั้งสองทำให้เกิดคำถามเกี่ยวกับประสิทธิผลของวิธีการประเภทนี้ ผู้เขียนทั้งสองได้ทำการทดลองกับชาวอเมริกันเกือบ 7,000 คน พบว่า การเน้นแหล่งที่มาของข่าวแทบไม่มีผลกระทบใด ๆ ต่อความเชื่อของบุคคคลต่อพาดหัวข่าวหรือการพิจารณา (ตัดสินใจ) แบ่งปันแต่อย่างใด
กลุ่มคนที่ร่วมการทดลองเหล่านี้ได้เห็นหัวข้อข่าวที่หมุนเวียนอย่างกว้างขวางในสื่อสังคม โดยบางส่วนมาจากช่องทางหลักในการกระจายข่าวสาร เช่น NPR และบางส่วนมาจากช่องทางชายขอบที่ไม่น่าไว้วางใจ เช่น newsbreakshere.com ที่เลิกกิจการแล้ว ผู้เข้าร่วมการวิจัยบางคนไม่ได้รับข้อมูลเกี่ยวกับสำนักพิมพ์ แต่คนอื่น ๆ ได้รับข้อมูลโดเมนของเว็บไซต์สำนักพิมพ์และมีส่วนหนึ่งเห็นแบนเนอร์ขนาดใหญ่พร้อมโลโก้ของสำนักพิมพ์ บางทีการให้ข้อมูลเพิ่มเติมไม่ได้ทำให้โอกาสที่คนจะเชื่อข้อมูลที่ผิดน้อยลง
การทดลองต่อมาแสดงให้เห็นว่า พาดหัวข่าวที่แพร่กระจายอย่างรวดเร็ว (viral) โดยผู้เผยแพร่ที่ไม่น่าไว้วางใจส่วนใหญ่เป็นข้อมูลเท็จอย่างเห็นได้ชัด (ตัวอย่างเช่น “WikiLeaks ยืนยันว่าฮิลลารีขายอาวุธให้กับ ISIS”) – แม้ไม่รู้แหล่งที่มาของข่าวก็ตาม การเพิ่มข้อมูลสำนักพิมพ์มีค่าน้อยกว่าสิ่งที่คุณสามารถกำหนดได้จากพาดหัวข่าว
กลยุทธ์การต่อต้านข้อมูลที่ผิดแบบอื่น ๆ ของแพลตฟอร์มสื่อสังคมออนไลน์ เช่น การขอความช่วยเหลือจากมืออาชีพในการตรวจสอบข้อเท็จจริงเกี่ยวกับเนื้อหาอันเป็นเท็จ กลยุทธ์การต่อต้านข่าวปลอมของ Facebook ในช่วงแรกคือ การตั้งค่าสถานะหัวข้อข่าวเท็จด้วยคำเตือนว่าข่าวสาร “ถูกขัดขวาง (disrupt) โดยผู้ตรวจสอบข้อเท็จจริงของบุคคลที่สาม” ทั้งนี้ บันทึกข้อความล่าสุดที่รั่วไหลออกมาแสดงให้เห็นว่า Twitter กำลังพิจารณาแนวทางที่คล้ายกัน
น่าเสียดายที่ตัวอย่างของวิธีการง่าย ๆ ที่เสนอแนะโดยการวิจัยอาจไม่ได้ผลตามคาด ผู้วิจัยและเพื่อนร่วมงานได้ทำการทดลองพบว่า แม้มีโอกาสน้อยที่คนจะเชื่อและแบ่งปันหัวข้อข่าวที่ถูกระบุว่าเป็นเท็จ – สามัญสำนึกเกี่ยวกับเรื่องนั้นถูกต้อง – แต่บางครั้งผู้คนเข้าใจผิดว่าการไม่มีป้ายเตือนหมายความว่า ข้อมูลได้รับการตรวจสอบข้อเท็จจริงแล้วโดยผู้ตรวจสอบข้อมูล (บุคคลที่สาม) นี่คือปัญหา เนื่องจากมีพาดหัวข่าวเท็จเพียงเล็กน้อยที่ได้รับการตรวจสอบและทำเครื่องหมาย: การตรวจสอบข้อเท็จจริง (fact checking) เป็นกระบวนการที่ต้องใช้เวลาและความอุตสาหะ ในขณะที่พวกเกรียนและ BOT[4] บนอินเทอร์เน็ตสามารถสร้างและกระจายข้อมูลที่ผิดด้วยความเร็วที่น่าตกใจ
กล่าวอีกนัยหนึ่งระบบเตือนภัยที่ให้มาอย่างประปราย อาจมีประโยชน์น้อยกว่าระบบที่ไม่มีคำเตือนเนื่องจากระบบแรกอาจดูเหมือนจะบ่งบอกว่าสิ่งใดก็ตามที่ไม่มีคำเตือนถือว่าเป็นจริง
กลยุทธ์แบบอื่น ๆ ที่คาดว่าจะประสบผลสำเร็จจะแจ้งเตือนเกี่ยวกับการมีอยู่ของข่าวปลอมและให้คำแนะนำเกี่ยวกับการระบุข้อมูลที่ผิด ในปี 2017 Facebook เริ่มรณรงค์ประชาสัมพันธ์ โดยใช้ป้ายโฆษณาและป้ายบอกทางรถไฟใต้ดินเพื่อแจ้งประชาชนว่า “ข่าวปลอมไม่ใช่เพื่อนของคุณ” จากการวิจัยแสดงให้เห็นว่ากลยุทธ์ดังกล่าวอาจได้ผลในทางตรงข้าม เนื่องจากผู้คนมักจะลดความเชื่อถือข่าวทั้งหมด โดยไม่คำนึงถึงความจริง (ซึ่งสิ่งที่เกิดขึ้นเป็นเป้าหมายของการรณรงค์ข้อมูลที่ผิดจำนวนมาก)
บางครั้งความคิดที่ทำให้เข้าใจง่ายมักได้ผล ยกตัวอย่างเช่นการทำให้ผู้คนทำงานช้าลงและคิดอย่างมีวิจารณญาณยิ่งขึ้น ตัวอย่างเช่น ความเชื่อข่าวปลอมและการแบ่งปันลดลง
ในทำนองเดียวกันบางครั้งความคิดที่ดูน่ากลัวกลับมีประสิทธิภาพ ในปี 2018 Facebook เสนอให้สอบถามผู้ใช้เกี่ยวกับความไว้วางใจแหล่งข่าวต่าง ๆ โดยนำข้อมูลที่ได้จากการสำรวจมาคัดเลือก นำเสนอส่งเสริมเนื้อหาเฉพาะที่ได้รับการจัดอันดับเชื่อถือได้ ข้อเสนอดังกล่าวถูกประณามและเยาะเย้ยอย่างกว้างขวาง แต่การทดสอบเชิงประจักษ์ของผู้เขียนทั้งสองบ่งชี้ว่า การระดมข้อมูลจากฝูงชน (crowdsourcing)[5] แบบนี้มีประสิทธิภาพสูงในการระบุแหล่งที่มาของข้อมูลที่ผิด
ข้อสรุปชัดเจนจากหลักฐานทั้งหมดคือ บริษัทสื่อสังคมควรทดสอบความคิดของพวกเขาอย่างเข้มงวดในการต่อสู้กับข่าวปลอม ไม่เพียงวางใจสามัญสำนึกการหยั่งรู้โดยสัญชาตญาณว่าวิธีใดใช้ได้ผล เราตระหนักว่าวิธีการทางวิทยาศาสตร์และการหาหลักฐานต้องใช้เวลามากขึ้น แต่หากบริษัทเหล่านี้แสดงให้เห็นว่าพวกเขามีความมุ่งมั่นอย่างจริงจังต่อการวิจัย – มีความโปร่งใสในการประเมินใด ๆ ที่ดำเนินการภายในและร่วมมือกับนักวิจัยอิสระภายนอกที่จะเผยแพร่รายงานที่สาธารณชนเข้าถึงได้ – ส่วนสาธารณะชนก็ควรจะอดทนและไม่เรียกร้องหาผลลัพธ์ที่รวดเร็วทันใจ
การกำกับดูแลที่เหมาะสมของบริษัทเหล่านี้ ไม่เพียงต้องใช้เวลาในการตอบสนองอย่างทันท่วงที แต่ยังต้องมีประสิทธิภาพด้วย
——————————
[1] ข้อมูลที่ผิด (misinformation) คือ ข้อมูลข่าวสารที่ปลอมขึ้นมาหรือเนื้อหาเป็นเท็จ แต่บุคคลที่เผยแพร่ (agent) เชื่อว่าเป็นจริง ข้อมูลประเภทนี้มักถูกเผยแพร่ด้วยความผิดพลาด
[2] สรุปบทความเรื่อง The Right Way to Fight Fake News By Gordon Pennycook and David Rand (Dr. Pennycook and Dr. Rand are cognitive psychologists.) The New York Times March 24, 2020 Available at: https://www.nytimes.com/2020/03/24/opinion/fake-news-social-media.html?utm_source=First+Draft+Subscribers&utm_campaign=eca85addf7-EMAIL_CAMPAIGN_2019_10_29_11_33_COPY_01&utm_medium=email&utm_term=0_2f24949eb0-eca85addf7-268158821&mc_cid=eca85addf7&mc_eid=7d49ad23ab
[3] ระบบอัตโนมัติที่เราเห็นเมื่อแรกล็อกอินเข้า Facebook จะเห็น news feed ซึ่ง Facebook คิดว่ามีความสำคัญสำหรับเรา โดยดูจากจำนวนข้อคิดเห็นที่เพื่อนเราชอบ (กดไลค์) และ (เขียน) ความเห็นไว้ รวมทั้งปัจจัยอื่น เหตุการณ์ต่าง ๆ เช่น ใครโดนแท็กที่รูป ใครเป็นเพื่อนใคร ใครเป็นแฟนคลับของแบรนด์ใด ใครจะเข้าร่วมกิจกรรมไหนก็จะอยู่ในส่วนของ News Feed ด้วย สืบค้นได้ที่http://www.devtopics.com/facebook-news-feed-vs-live-feed/
[4] คำที่ย่อมาจากคำว่า “Robot” ซึ่งเป็นโปรแกรมอัตโนมัติที่ทำงานในลักษณะที่เรียกว่า Agent โดยจะรอคำสั่งจากเครื่องหรือโปรแกรมอื่นที่สั่งหรือปลุกให้เครื่องที่มี Bot ติดตั้งอยู่ทำงาน ถ้าเครื่อง ของเราถูก Bot ติดเข้าไป เครื่องของเราก็จะถูกโปรแกรมหรือบุคคลอื่น ๆ สั่งงานให้ทำงานอย่างใดอย่างหนึ่งตามเจ้านายหรือบุคคลสั่ง เช่น ให้ส่งข้อมูลส่วนตัวของผู้ใช้งาน ไม่ว่าจะเป็นชื่อ นามสกุล หรือข้อมูลบัตรเครดิต รวมไปถึงการเก็บข้อมูลจากการที่เรากดแป้นคีย์บอร์ด นอกจากนี้ยังจะบันทึก หรือส่งข้อมูลต่าง ๆ มาเก็บที่เครื่องคอมพิวเตอร์ที่ตกเป็นเหยื่ออีกด้วย http://www.iecm.co.th/cm_news/news_update/com_62.htm
[5] การกระจายปัญหาไปยังกลุ่มคนเพื่อค้นหาคำตอบและวิธีการในการแก้ปัญหาทางธุรกิจนั้น ๆ บริษัทสามารถ broadcast คำถามหรือปัญหาที่ต้องการคำตอบไปยังกลุ่มคนขนาดใหญ่เพื่อให้ได้มาซึ่งวิธีการใหม่ ๆ Crowd หรือ User ส่วนมากในการทำ Crowdsourcing เราจะหมายถึงกลุ่มชุมชน Online หรือในโลก Cyber นั่นเอง ดูรายละเอียดสืบค้นได้ที่ https://dip-sme-academy.com/knowleagehub/article/231-Crowdsourcing-คืออะไร
Link : https://www.ianalysed.com/2020/04/blog-post.html