เตือนภัย มิจฉาชีพใช้ AI 3 รูปแบบมาหลอกเหยื่อให้หลงเชื่อโอนเงิน

Loading

  เตือนภัย ! ยุคเทคโนโลยีล้ำหน้า “มิจฉาชีพ” ใช้ AI 3 รูปแบบทั้ง ปลอมเสียง ปลอมแปลงใบหน้า หรือสร้างบทความหลอกให้มาร่วมลงทุน   ปัจจุบันมิจฉาชีพออนไลน์ มักมาทุกรูปแบบจนเหยื่อหลายรายตามไม่ทัน ซึ่งมุกมีใหม่ ๆ ที่ไม่มีใครคาดคิดทำให้มีประชาชนหลงกลตกเป็นผู้เสียหายจำนวนมาก ซึ่งที่ผ่านมาหน่วยงานต่าง ๆ ต่างเร่งแก้ไขปราบปราม ประชาชนสัมพันธ์ ให้ความรู้แก่ประชาชน แต่คนร้ายแก๊งคอลเซ็นเตอร์ก็พัฒนาวิธีการหลอกรูปแบบใหม่ๆ โดยเฉพาะการนำเทคโนโลยี Ai มาเป็นเครื่องมือในการหลอกลวงกระทำความผิด   รูปแบบของ AI ที่มิจฉาชีพนำมาใช้ ที่เริ่มพบเจอเยอะมากขึ้นได้แก่ •  Voice Cloning หรือ การใช้ AI ปลอมเสียง โดยจะเป็นการใช้ AI เลียนแบบเสียงของบุคคลให้มีความคล้ายคลึงกับบุคคล เพื่อใช้ในการหลอกเหยื่อให้คิดว่าได้คุยกับคน ๆ นั้นจริง ๆ ก่อนที่จะหลอกให้โอนเงินหรือทำอะไรอย่างอื่นต่อไป   •  Deepfake หรือการใช้ AI ปลอมแปลงใบหน้าให้มีความคล้ายคลึงกับบุคคลต่างๆ เพื่อหลอกเชื่อว่าคน ๆ…

ผู้อำนวยการฝ่ายกีฬาของไฮสคูลในสหรัฐ ใช้ AI ปลอมเสียงครูใหญ่ อัดคลิปเสียงเหยียดผิว

Loading

เจ้าหน้าที่ตำรวจสหรัฐรายงาน วันที่ 25 เม.ย. ว่า ผู้อำนวยการฝ่ายกีฬาของโรงเรียนมัธยมปลายในรัฐแมริแลนด์ ถูกตั้งข้อหาว่าใช้ปัญญาประดิษฐ์ (AI) ปลอมเสียงครูใหญ่โรงเรียนตัวเอง แล้วทำคลิปเสียงที่มีเนื้อหาเหยียดสีผิวและเหยียดคนยิว

การหลอกลวงทั่วโลกพุ่ง 10.2% ‘Whoscall’ เตือนระวัง มิจฉาชีพใช้ AI ปลอมเสียง

Loading

Gogolook ผู้พัฒนาแอปพลิเคชัน Whoscall และผู้ให้บริการทางด้านเทคโนโลยี เพื่อความเชื่อมั่น (TrustTech) เตือนภัยมิจฉาชีพในประเทศไทยเริ่มใช้วิธีหลอกลวงใหม่ด้วยเทคโนโลยี AI ปลอมเสียง

รู้เท่าทัน AI Deepfake ภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป

Loading

  ในวันที่อัลกอริทึม Generative AI ถูกพัฒนาสู่การเป็น AI Deepfake ที่ฉลาดล้ำและถูกนำมา สร้างเนื้อหา “ภาพ+เสียง” ที่เสมือนเรื่องจริงจนแยกไม่ออก ว่านี่คือชุดข้อมูล ที่ “มนุษย์ หรือ เทคโนโลยี AI” เป็นผู้คนสร้างสรรค์   ประเด็นดังกล่าว กลายเป็นประเด็นร้อนที่เราต่างเป็นห่วงและให้ความสำคัญ เพราะเราแทบไม่สามารถล่วงรู้ได้เลยว่า ภาพ VDO หรือแม้แต่เสียง ที่เราแชร์ ส่งต่อกันบนโลกออนไลน์ ภายในเสี้ยววินาทีนี้ คือ ความจริง หรือ ภาพลวง แล้วเราจะรับมือและรู้ทัน AI Deepfake ได้อย่างไร?   ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Clinic หรือ AIGC) เปิดเวทีแลกเปลี่ยนมุมมอง ทำความรู้จักกับ AI Deepfake พร้อมวิธีการรับมือเบื้องต้นเพื่อให้เรารู้ทันเทคโนโลยี AI ที่วันนี้สามารถสร้างชุดข้อมูล ภาพ เสียง ได้ราวกับมนุษย์แล้ว ใน AI…

เตือนอย่าแชร์ ภัยออนไลน์ ปลอมเสียง ปลอมแชต ปลอมคลิป สร้างจาก AI อย่าง Deepfake, Social Maker และ Fake voice

Loading

เตือนอย่าแชร์ ภัยออนไลน์ ปลอมเสียง ปลอมแชต ปลอมคลิป สร้างจาก AI หลอกลวงประชาชน โดยกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดีอีเอส) เตือนอย่าหลงเชื่อ อย่าแชร์ “คลิปเสียงปลอม” สร้างเรื่องเสมือนจริง หลอกลวงประชาชน โดยใช้ AI อย่าง Deepfake , Social Maker และ Fake voice นางสาวนพวรรณ หัวใจมั่น โฆษกกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคมฝ่ายการเมือง (ดีอีเอส) เปิดเผยว่า ขณะนี้มีเทคโนโลยีปลอมเสียง ปลอมแชต ปลอมคลิป (Deepfake,Social Maker และ Fake voice) ซึ่งเป็นการปลอมแปลงข้อมูล การตัดต่อภาพ ตัดต่อข้อความ ตกแต่งเสียงพูด หรือแม้แต่การตัดต่อวิดีโอคลิปให้เหมือนเป็นเรื่องที่เกิดขึ้นจริง ซึ่งประชาชนควรรู้ เพื่อให้เข้าใจ รู้เท่าทัน และป้องกันการถูกใช้เป็นเครื่องมือของมิจฉาชีพ หรือพฤติกรรมที่ส่งผลกระทบต่อการดำเนินชีวิต และทรัพย์สินของผู้อื่น “จากเทคโนโลยีดังกล่าว ทำให้กลุ่มมิจฉาชีพนำมาใช้ในการแชตปลอม โพสต์ปลอม ผ่าน”Social Maker” ที่สร้างโพสต์ปลอม,ข้อความปลอม,ความคิดเห็นปลอม…