“การ์ทเนอร์” คาดการณ์ “Deepfakes” ที่เทคโนโลยีปัญญาประดิษฐ์ หรือ เอไอ เป็นผู้สร้างขึ้นจะทำให้อีกสองปีการใช้โซลูชันการยืนยันและพิสูจน์ตัวตนแบบเดิม ๆ ไม่น่าเชื่อถืออีกต่อไป
Keypoints :
• Deepfakes ทำลายระบบการพิสูจน์ตัวตนด้วยไบโอเมตริกซ์
• การโจมตีแบบ Deepfakes ที่สร้างโดยเอไอทำให้โซลูชันการยืนยันและพิสูจน์ตัวตนไม่น่าเชื่อถืออีกต่อไป
• การปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพเป็นการโจมตีที่พบบ่อยที่สุด
การ์ทเนอร์ คาดการณ์ว่าในปี 2569 การโจมตีแบบ Deepfakes ที่สร้างโดยปัญญาประดิษฐ์กับเทคโนโลยีระบุตัวตนบนใบหน้าหรือ Face Biometrics เป็นเหตุให้องค์กรประมาณ 30% มองว่าโซลูชันการยืนยันและพิสูจน์ตัวตนจะไม่น่าเชื่อถืออีกต่อไปหากนำมาใช้แบบเอกเทศ
อากิฟ ข่าน รองประธานฝ่ายวิจัย การ์ทเนอร์ กล่าวว่า ช่วงทศวรรษที่ผ่านมา มีจุดเปลี่ยนสำคัญด้านเอไอเกิดขึ้นหลายประการ ซึ่งนั่นทำให้เกิดการสร้างภาพสังเคราะห์ขึ้นได้
ภาพใบหน้าคนจริง ๆ ที่สร้างขึ้นปลอม ๆ เหล่านี้ หรือที่เรียกว่า “Deepfakes” นั้น เปิดโอกาสให้ผู้ไม่ประสงค์ดีสามารถนำมาใช้เพื่อทำลายระบบการพิสูจน์ทราบตัวตนด้วยไบโอเมตริกซ์หรือทำให้ระบบใช้การได้อย่างไม่มีประสิทธิภาพ
ผลที่ตามมาก็คือ องค์กรต่างๆ อาจเริ่มตั้งคำถามถึงความน่าเชื่อถือของโซลูชันการยืนยันและพิสูจน์ตัวตน เนื่องจากไม่สามารถบอกได้ว่าใบหน้าบุคคลที่ได้รับการยืนยันนั้นเป็นบุคคลที่มีชีวิตจริงหรือเป็นของปลอมกันแน่
‘เอไอ’ เพิ่มความยุ่งยาก ซับซ้อน
ข้อมูลระบุว่า กระบวนการยืนยันและพิสูจน์ตัวตนโดยใช้เทคโนโลยีไบโอเมตริกซ์บนใบหน้าในวันนี้อาศัยการตรวจจับการโจมตีหลอก หรือ Presentation Attack Detection (PAD) เพื่อประเมินการมีชีวิตอยู่จริงของผู้ใช้
“มาตรฐานและกระบวนการทดสอบในปัจจุบันเพื่อกำหนดและประเมินกลไกของการตรวจจับการโจมตีหลอกนั้นไม่ครอบคลุมการโจมตีผ่านดิจิทัลหรือ Digital Injection Attacks ที่มาจาก Deepfakes ซึ่งสร้างโดยเอไอ ที่สามารถพัฒนาขึ้นได้แล้ววันนี้”
ผลการวิจัยโดยการ์ทเนอร์ชี้ว่า การโจมตีแบบ Presentation Attack ที่เป็นการปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพของบุคคลเป็นการโจมตีที่พบบ่อยที่สุด
ทว่าการโจมตีแบบ Injection Attack ที่เป็นการแทรกโค้ดลงในโปรแกรมหรือแบบสอบถาม หรือมัลแวร์ในคอมพิวเตอร์เพื่อควบคุมคำสั่งผ่านระยะไกล ในปี 2566 มีอัตราเพิ่มขึ้นถึง 200%
ดังนั้นเพื่อป้องกันการโจมตีดังกล่าวองค์กรจะต้องใช้การตรวจจับการโจมตีแบบ Injection Attack Detection (IAD) และการตรวจสอบภาพ หรือ Image Inspection ร่วมด้วย
ต้องทำได้เหนือกว่ามาตรฐาน
อากิฟ แนะว่าเพื่อช่วยให้องค์กรธุรกิจสามารถปกป้องตนเองจากภัยคุกคาม Deepfakes ที่พัฒนาขึ้นโดยเอไอและมีความสามารถเหนือกว่าเทคโนโลยีที่ใช้ในการระบุตัวตนบนใบหน้า
ผู้บริหาร CISO และผู้นำจัดการความเสี่ยงต้องเลือกผู้ขายที่สามารถแสดงให้เห็นได้ว่าพวกเขามีความสามารถ มีแผนการจัดการที่เหนือกว่าคุณภาพมาตรฐาน รวมถึงมีระบบมอนิเตอร์ จัดหมวด และกำหนดปริมาณของภัยคุกคามเกิดใหม่นี้
โดยองค์กรควรเริ่มกำหนดบรรทัดฐานการควบคุมขั้นต่ำด้วยการทำงานร่วมกับผู้ขายที่มีการลงทุนโดยเฉพาะในด้านการลดผลกระทบจากภัยคุกคาม Deepfake ล่าสุด โดยใช้การตรวจจับการโจมตีแบบ Injection Attack Detection (IAD) ควบคู่ไปกับระบบการตรวจสอบภาพ Image Inspection
เมื่อกำหนดกลยุทธ์และบรรทัดฐานการควบคุมพื้นฐานแล้ว ผู้บริหาร CISO และผู้นำทีมการจัดการความเสี่ยงจะต้องรวบรวมความเสี่ยงที่จะเกิดขึ้นเพิ่มเติมและตระหนักถึงสัญญาณที่เป็นภัย
อาทิ การระบุการใช้งานอุปกรณ์และการวิเคราะห์พฤติกรรม เพื่อเพิ่มโอกาสการตรวจจับการโจมตีในกระบวนการยืนยันตัวตน
นอกจากนี้ ผู้นำด้านความปลอดภัยและการบริหารความเสี่ยงยังมีบทบาทรับผิดชอบในด้านข้อมูลส่วนบุคคลและการจัดการการเข้าถึงควรมีขั้นตอนดำเนินการเพื่อลดความเสี่ยงการโจมตีแบบ Deepfake ที่ขับเคลื่อนจากเอไอ
โดยเลือกเทคโนโลยีที่สามารถพิสูจน์ความเป็นมนุษย์ที่แท้จริงได้หรือนำมาตรการเพิ่มเติมมาใช้เพื่อป้องกันการเข้ายึดบัญชีใช้งาน
บทความโดย โต๊ะข่าวไอที ดิจิทัล
———————————————————————————————————————————————————————————
ที่มา : กรุงเทพธุรกิจออนไลน์ / วันที่เผยแพร่ 8 ก.พ.67
Link : https://www.bangkokbiznews.com/tech/gadget/1112250