ตำรวจเกาหลีใต้ทุ่มงบกว่า 67 ล้านบาท ป้องกัน deepfake
เกาหลีใต้ประกาศแผน ทุ่มงบประมาณเกือบ 67 ล้านบาท ภายใน 3 ปีข้างหน้า เพื่อพัฒนาเทคโนโลยีรับมือกับ การสวมตัวตนด้วย deepfakes การโคลนนิ่งเสียง และการฉ้อโกงทางดิจิทัลในรูปแบบอื่นๆ
เกาหลีใต้ประกาศแผน ทุ่มงบประมาณเกือบ 67 ล้านบาท ภายใน 3 ปีข้างหน้า เพื่อพัฒนาเทคโนโลยีรับมือกับ การสวมตัวตนด้วย deepfakes การโคลนนิ่งเสียง และการฉ้อโกงทางดิจิทัลในรูปแบบอื่นๆ
รัฐบาล หน่วยงานกำกับดูแล และตำรวจเกาหลีใต้ ให้คำมั่นว่าจะต่อสู้กับเทคโนโลยี “ดีปเฟค” ที่แสวงหาประโยชน์ทางเพศ พร้อมกับเรียกร้องเทเลแกรม และบริษัทสื่อสังคมออนไลน์แห่งอื่น ให้ความร่วมมือ
มีการนำไปใช้ในทางที่ผิด ไม่ว่าจะเป็น Deepfake , ข่าวปลอม หรือเนื้อหาที่มีลิขสิทธิ์ ล่าสุดทางวุฒิสภาสหรัฐฯ ได้เสนอร่างกฎหมายใหม่เพื่อควบคุมแล้ว โดยคุมตั้งแต่การพัฒนากันเลย
พ่อค้าเร่ปั่นจักรยานผ่านป้ายแสดงภาพและรายชื่อผู้ลงสมัครรับเลือกตั้งประธานาธิบดีและรองประธานาธิบดีอินโดนีเซีย ในกรุงจาการ์ตา เมื่อ 22 มกราคม 2024 (ที่มา:AP) ภาพและเสียงสังเคราะห์จากเทคโนโลยีดีพเฟคกำลังสร้างความสับสนให้กับฐานเสียงในประเทศที่กำลังจะมีการเลือกตั้ง จนนักวิเคราะห์จับตามองว่าปี 2024 ที่ประชาชนในกว่า 60 ประเทศจะต้องเข้าคูหา จะมีการใช้ AI สร้างข่าวลือข่าวลวงเพื่อหวังผลทางการเมืองอย่างแพร่หลาย ในช่วงหลายสัปดาห์ก่อนการเลือกตั้งในอินโดนีเซียที่จะมีขึ้นในวันที่ 14 กุมภาพันธ์ ประชาชนผู้ลงคะแนนเสียงต่างต้องเจอกับวิดีโอและเสียงของนักการเมืองหลายคน ซึ่งแท้ที่จริงถูกสังเคราะห์ขึ้นมาโดยเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เรียกกันว่า ดีพเฟค (Deepfakes) ยกตัวอย่างเช่นวิดีโอของอดีตประธานาธิบดีซูฮาร์โตที่เผยแพร่ในแอปพลิเคชันติ๊กตอก (TikTok) ซานตี อินดรา อัสตูตี จาก Mafindo ซึ่งเป็นเครือข่ายตรวจสอบข้อเท็จจริงในอินโดนีเซีย ระบุว่า การใช้ AI สังเคราะห์เนื้อหาขึ้นมา เป็นสิ่งที่สร้างความแตกต่างให้กับการรณรงค์หาเสียงเลือกตั้งในปี 2024 เทียบกับครั้งก่อน ๆ อัสตูตีกล่าวว่า “ในการเลือกตั้งปี 2024 การโจมตีคู่แข่งในปีนั้นมักใช้ข่าวลวงกันเป็นส่วนใหญ่ ในปี 2019 ข่าวลวงถูกใช้โจมตีผู้จัดการเลือกตั้ง ในขณะที่ปี 2024 เราเห็นการยกระดับที่พิลึกพิลั่นขึ้นไปอีกเพื่อโจมตีกระบวนการทางประชาธิปไตยทั้งองคาพยพ”…
“การ์ทเนอร์” คาดการณ์ “Deepfakes” ที่เทคโนโลยีปัญญาประดิษฐ์ หรือ เอไอ เป็นผู้สร้างขึ้นจะทำให้อีกสองปีการใช้โซลูชันการยืนยันและพิสูจน์ตัวตนแบบเดิม ๆ ไม่น่าเชื่อถืออีกต่อไป Keypoints : • Deepfakes ทำลายระบบการพิสูจน์ตัวตนด้วยไบโอเมตริกซ์ • การโจมตีแบบ Deepfakes ที่สร้างโดยเอไอทำให้โซลูชันการยืนยันและพิสูจน์ตัวตนไม่น่าเชื่อถืออีกต่อไป • การปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพเป็นการโจมตีที่พบบ่อยที่สุด การ์ทเนอร์ คาดการณ์ว่าในปี 2569 การโจมตีแบบ Deepfakes ที่สร้างโดยปัญญาประดิษฐ์กับเทคโนโลยีระบุตัวตนบนใบหน้าหรือ Face Biometrics เป็นเหตุให้องค์กรประมาณ 30% มองว่าโซลูชันการยืนยันและพิสูจน์ตัวตนจะไม่น่าเชื่อถืออีกต่อไปหากนำมาใช้แบบเอกเทศ อากิฟ ข่าน รองประธานฝ่ายวิจัย การ์ทเนอร์ กล่าวว่า ช่วงทศวรรษที่ผ่านมา มีจุดเปลี่ยนสำคัญด้านเอไอเกิดขึ้นหลายประการ ซึ่งนั่นทำให้เกิดการสร้างภาพสังเคราะห์ขึ้นได้ ภาพใบหน้าคนจริง ๆ ที่สร้างขึ้นปลอม ๆ เหล่านี้ หรือที่เรียกว่า “Deepfakes” นั้น เปิดโอกาสให้ผู้ไม่ประสงค์ดีสามารถนำมาใช้เพื่อทำลายระบบการพิสูจน์ทราบตัวตนด้วยไบโอเมตริกซ์หรือทำให้ระบบใช้การได้อย่างไม่มีประสิทธิภาพ ผลที่ตามมาก็คือ องค์กรต่างๆ…
มีเรื่องเตือนภัยจากฮ่องกง เมื่อเจ้าหน้าที่การเงินของบริษัทข้ามชาติแห่งหนึ่งถูกหลอกให้โอนเงิน 25 ล้านดอลลาร์สหรัฐ (ราว 890 ล้านบาท) ให้กับมิจฉาชีพที่ใช้เทคโนโลยี “Deepfake” สวมรอยเป็นประธานเจ้าหน้าที่ฝ่ายการเงิน หรือซีเอฟโอ ของบริษัท ซึ่งปรากฏตัวในการประชุมทางวิดีโอ
เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว