‘ดีพเฟค’ เทคโนโลยีตัดต่อหน้า-เสียง โจทย์ใหญ่ศึกเลือกตั้งทั่วโลกปี 2024

Loading

พ่อค้าเร่ปั่นจักรยานผ่านป้ายแสดงภาพและรายชื่อผู้ลงสมัครรับเลือกตั้งประธานาธิบดีและรองประธานาธิบดีอินโดนีเซีย ในกรุงจาการ์ตา เมื่อ 22 มกราคม 2024 (ที่มา:AP)   ภาพและเสียงสังเคราะห์จากเทคโนโลยีดีพเฟคกำลังสร้างความสับสนให้กับฐานเสียงในประเทศที่กำลังจะมีการเลือกตั้ง จนนักวิเคราะห์จับตามองว่าปี 2024 ที่ประชาชนในกว่า 60 ประเทศจะต้องเข้าคูหา จะมีการใช้ AI สร้างข่าวลือข่าวลวงเพื่อหวังผลทางการเมืองอย่างแพร่หลาย   ในช่วงหลายสัปดาห์ก่อนการเลือกตั้งในอินโดนีเซียที่จะมีขึ้นในวันที่ 14 กุมภาพันธ์ ประชาชนผู้ลงคะแนนเสียงต่างต้องเจอกับวิดีโอและเสียงของนักการเมืองหลายคน ซึ่งแท้ที่จริงถูกสังเคราะห์ขึ้นมาโดยเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เรียกกันว่า ดีพเฟค (Deepfakes) ยกตัวอย่างเช่นวิดีโอของอดีตประธานาธิบดีซูฮาร์โตที่เผยแพร่ในแอปพลิเคชันติ๊กตอก (TikTok)   ซานตี อินดรา อัสตูตี จาก Mafindo ซึ่งเป็นเครือข่ายตรวจสอบข้อเท็จจริงในอินโดนีเซีย ระบุว่า การใช้ AI สังเคราะห์เนื้อหาขึ้นมา เป็นสิ่งที่สร้างความแตกต่างให้กับการรณรงค์หาเสียงเลือกตั้งในปี 2024 เทียบกับครั้งก่อน ๆ   อัสตูตีกล่าวว่า “ในการเลือกตั้งปี 2024 การโจมตีคู่แข่งในปีนั้นมักใช้ข่าวลวงกันเป็นส่วนใหญ่ ในปี 2019 ข่าวลวงถูกใช้โจมตีผู้จัดการเลือกตั้ง ในขณะที่ปี 2024 เราเห็นการยกระดับที่พิลึกพิลั่นขึ้นไปอีกเพื่อโจมตีกระบวนการทางประชาธิปไตยทั้งองคาพยพ”…

ระวังเสียงปลอม AI เลียนเสียงเป็นคนรู้จักหรือคนมีชื่อเสียง! คนร้ายอาจใช้หลอกโอนเงินได้

Loading

ภาพ : กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม   ระวังเสียงปลอม AI เลียนเสียงเป็นคนรู้จักหรือคนมีชื่อเสียง เพื่อหลอกโอนเงิน เนื่องด้วยมีเทคโนโลยีที่ทำให้เปลี่ยนเสียงตัวเราเองเป็นเสียงคนอื่นหรือคนที่มีชื่อเสียง นำมาใช้ในการโทรผ่านโทรศัพท์ขอความช่วยเหลือเพื่อหลอกโอนเงิน ทางกระทรวงดิจิทัลฯ ได้ฝากเตือนพร้อมวิธีป้องกันดังนี้   วิธีเช็ก AI SCAM CALLS ก่อนโดนหลอก –  ปลายสายเสียงเหมือนคนรู้จัก แต่ใช้เบอร์แปลกโทรมา หรืออ้างว่าเปิดเบอร์ใหม่ –  พูดเรื่องประเด็นเงิน ๆ ทอง ๆ มาก่อนเรื่องอื่น หลอกยืมเงิน –  สอบถาม ตรวจสอบข้อมูลเชิงลึกให้แน่ใจก่อน อาทิเช่น ทำงานที่ไหน เกิดวันอะไร เป็นต้น   แนวทางการป้องกัน โปรดสงสัยไว้ก่อนเมื่อรับสายเบอร์แปลก ตรวจสอบให้แน่ใจก่อนโอนเงินและไม่เผยแพร่คลิปวีดีโอหรือเสียงสู่สาธารณะโดยไม่จำเป็น หรือแชร์ให้เฉพาะเพื่อนหรือครอบครัวอนุญาต   ลักษณะการปลอมเสียงเป็นอย่างไร สามารถชมได้ที่วิดีโอด้านล่าง   อ้างอิง กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม       ————————————————————————————————————————————————— ที่มา :     …