ตำรวจเกาหลีใต้ทุ่มงบกว่า 67 ล้านบาท ป้องกัน deepfake

Loading

เกาหลีใต้ประกาศแผน ทุ่มงบประมาณเกือบ 67 ล้านบาท ภายใน 3 ปีข้างหน้า เพื่อพัฒนาเทคโนโลยีรับมือกับ การสวมตัวตนด้วย deepfakes การโคลนนิ่งเสียง และการฉ้อโกงทางดิจิทัลในรูปแบบอื่นๆ

เกาหลีใต้ : วาระแห่งชาติ

Loading

รัฐบาล หน่วยงานกำกับดูแล และตำรวจเกาหลีใต้ ให้คำมั่นว่าจะต่อสู้กับเทคโนโลยี “ดีปเฟค” ที่แสวงหาประโยชน์ทางเพศ พร้อมกับเรียกร้องเทเลแกรม และบริษัทสื่อสังคมออนไลน์แห่งอื่น ให้ความร่วมมือ

คุมเข้ม สหรัฐเสนอกฎหมายใหม่ สกัดใช้ AI สร้าง Deepfake

Loading

มีการนำไปใช้ในทางที่ผิด ไม่ว่าจะเป็น Deepfake , ข่าวปลอม หรือเนื้อหาที่มีลิขสิทธิ์ ล่าสุดทางวุฒิสภาสหรัฐฯ ได้เสนอร่างกฎหมายใหม่เพื่อควบคุมแล้ว โดยคุมตั้งแต่การพัฒนากันเลย

‘ดีพเฟค’ เทคโนโลยีตัดต่อหน้า-เสียง โจทย์ใหญ่ศึกเลือกตั้งทั่วโลกปี 2024

Loading

พ่อค้าเร่ปั่นจักรยานผ่านป้ายแสดงภาพและรายชื่อผู้ลงสมัครรับเลือกตั้งประธานาธิบดีและรองประธานาธิบดีอินโดนีเซีย ในกรุงจาการ์ตา เมื่อ 22 มกราคม 2024 (ที่มา:AP)   ภาพและเสียงสังเคราะห์จากเทคโนโลยีดีพเฟคกำลังสร้างความสับสนให้กับฐานเสียงในประเทศที่กำลังจะมีการเลือกตั้ง จนนักวิเคราะห์จับตามองว่าปี 2024 ที่ประชาชนในกว่า 60 ประเทศจะต้องเข้าคูหา จะมีการใช้ AI สร้างข่าวลือข่าวลวงเพื่อหวังผลทางการเมืองอย่างแพร่หลาย   ในช่วงหลายสัปดาห์ก่อนการเลือกตั้งในอินโดนีเซียที่จะมีขึ้นในวันที่ 14 กุมภาพันธ์ ประชาชนผู้ลงคะแนนเสียงต่างต้องเจอกับวิดีโอและเสียงของนักการเมืองหลายคน ซึ่งแท้ที่จริงถูกสังเคราะห์ขึ้นมาโดยเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เรียกกันว่า ดีพเฟค (Deepfakes) ยกตัวอย่างเช่นวิดีโอของอดีตประธานาธิบดีซูฮาร์โตที่เผยแพร่ในแอปพลิเคชันติ๊กตอก (TikTok)   ซานตี อินดรา อัสตูตี จาก Mafindo ซึ่งเป็นเครือข่ายตรวจสอบข้อเท็จจริงในอินโดนีเซีย ระบุว่า การใช้ AI สังเคราะห์เนื้อหาขึ้นมา เป็นสิ่งที่สร้างความแตกต่างให้กับการรณรงค์หาเสียงเลือกตั้งในปี 2024 เทียบกับครั้งก่อน ๆ   อัสตูตีกล่าวว่า “ในการเลือกตั้งปี 2024 การโจมตีคู่แข่งในปีนั้นมักใช้ข่าวลวงกันเป็นส่วนใหญ่ ในปี 2019 ข่าวลวงถูกใช้โจมตีผู้จัดการเลือกตั้ง ในขณะที่ปี 2024 เราเห็นการยกระดับที่พิลึกพิลั่นขึ้นไปอีกเพื่อโจมตีกระบวนการทางประชาธิปไตยทั้งองคาพยพ”…

นับถอยหลัง 2 ปี ‘Deepfakes’ ป่วนโลกธุรกิจหนักยิ่งกว่าเดิม

Loading

  “การ์ทเนอร์” คาดการณ์ “Deepfakes” ที่เทคโนโลยีปัญญาประดิษฐ์ หรือ เอไอ เป็นผู้สร้างขึ้นจะทำให้อีกสองปีการใช้โซลูชันการยืนยันและพิสูจน์ตัวตนแบบเดิม ๆ ไม่น่าเชื่อถืออีกต่อไป   Keypoints : •  Deepfakes ทำลายระบบการพิสูจน์ตัวตนด้วยไบโอเมตริกซ์ •  การโจมตีแบบ Deepfakes ที่สร้างโดยเอไอทำให้โซลูชันการยืนยันและพิสูจน์ตัวตนไม่น่าเชื่อถืออีกต่อไป •  การปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพเป็นการโจมตีที่พบบ่อยที่สุด การ์ทเนอร์ คาดการณ์ว่าในปี 2569 การโจมตีแบบ Deepfakes ที่สร้างโดยปัญญาประดิษฐ์กับเทคโนโลยีระบุตัวตนบนใบหน้าหรือ Face Biometrics เป็นเหตุให้องค์กรประมาณ 30% มองว่าโซลูชันการยืนยันและพิสูจน์ตัวตนจะไม่น่าเชื่อถืออีกต่อไปหากนำมาใช้แบบเอกเทศ   อากิฟ ข่าน รองประธานฝ่ายวิจัย การ์ทเนอร์ กล่าวว่า ช่วงทศวรรษที่ผ่านมา มีจุดเปลี่ยนสำคัญด้านเอไอเกิดขึ้นหลายประการ ซึ่งนั่นทำให้เกิดการสร้างภาพสังเคราะห์ขึ้นได้   ภาพใบหน้าคนจริง ๆ ที่สร้างขึ้นปลอม ๆ เหล่านี้ หรือที่เรียกว่า “Deepfakes” นั้น เปิดโอกาสให้ผู้ไม่ประสงค์ดีสามารถนำมาใช้เพื่อทำลายระบบการพิสูจน์ทราบตัวตนด้วยไบโอเมตริกซ์หรือทำให้ระบบใช้การได้อย่างไม่มีประสิทธิภาพ   ผลที่ตามมาก็คือ องค์กรต่างๆ…

มิจฉาชีพใช้ Deepfake ปลอมเป็นหัวหน้าฝ่ายการเงิน หลอกเงิน 900 ล้านบาท

Loading

มีเรื่องเตือนภัยจากฮ่องกง เมื่อเจ้าหน้าที่การเงินของบริษัทข้ามชาติแห่งหนึ่งถูกหลอกให้โอนเงิน 25 ล้านดอลลาร์สหรัฐ (ราว 890 ล้านบาท) ให้กับมิจฉาชีพที่ใช้เทคโนโลยี “Deepfake” สวมรอยเป็นประธานเจ้าหน้าที่ฝ่ายการเงิน หรือซีเอฟโอ ของบริษัท ซึ่งปรากฏตัวในการประชุมทางวิดีโอ