ที่ผ่านมาเราเคยได้ยินปัญหาการลอกเลียนและปลอมแปลงเสียงจากเอไอกันมาบ้าง ถือเป็นปัญหาที่เกิดขึ้นจากการขยายตัวของเทคโนโลยีปัญญาประดิษฐ์ วันนี้เราจึงพามารู้จักกับ AntiFake แนวทางป้องกันไม่ให้เสียงของเราถูกนำไปใช้ในทางผิด
ข่าวความสำเร็จและก้าวหน้าของ เอไอ หรือ ปัญญาประดิษฐ์ คือ สิ่งที่เราได้ยินหนาหูอยู่ทุกวัน การยกระดับความสามารถยังคงเกิดขึ้นอย่างต่อเนื่องจนดูคล้ายไร้ขีดจำกัด ยิ่งทำให้เทคโนโลยีนี้ เป็นเรื่อน่าตื่นตาและคงเข้ามาเป็นอนาคตของมนุษยชาติในไม่ช้า
แต่คำถามที่เกิดขึ้นมาพร้อมกัน คือ อันตรายที่อาจจะตามมาจากความก้าวหน้าของปัญญาประดิษฐ์ ด้วยปัจจุบันโลกและข้อมูลที่เรารู้จักเกือบทั้งหมดอยู่ในรูปแบบของดิจิทัล จึงเป็นไปได้สูงที่เทคโนโลยีเหล่านี้ อาจถูกนำไปใช้สำหรับการปลอมแปลงหรือแก้ไขข้อมูล ที่อาจนำไปสู่การหลอกลวงหรือสร้างความเข้าใจผิดเป็นวงกว้าง
วันนี้เราจึงมาลงรายละเอียดเกี่ยวกับการบิดเบือนและแก้ไขข้อมูลที่อาจจะเกิดขึ้นจากฝีมือเอไอกันเสียหน่อย
การปลอมแปลงข้อมูลจากเอไอที่น่ากลัวขึ้นทุกวัน
ที่ผ่านมาเราต่างกังวลกับการที่ข้อมูลส่วนตัวหลุดออกไปสู่โลกออนไลน์โดยเฉพาะในมือมิจฉาชีพ แต่ด้วยการมาถึงและขีดความสามารถของเอไอ สิ่งที่น่ากลัวในการเผยแพร่อาจไม่ได้มีเพียงข้อมูลส่วนตัวอีกต่อไป แต่อาจเป็นข้อมูลบันทึกจากภาพและเสียงของเราเอง
หนึ่งในส่วนที่ได้รับการพูดถึงบ่อยคือ Deepfake อีกหนึ่งเทคโนโลยีที่ถูกนำมาใช้ปลอมแปลงหน้าตาและเสียงของผู้ใช้งาน ให้ตัวเราสามารถเปลี่ยนเป็นใครก็ได้ขอเพียงมีสำเนาข้อมูลดิจิทัลมาอ้างอิง ซึ่งเราสามารถพบเห็นได้ทั่วไปตามวีดีโอตัดต่อทางอินเทอร์เน็ต หรือสื่อโฆษณาที่เริ่มนำเทคโนโลยีนี้มาประยุกต์ใช้งานแล้วเช่นกัน
อันดับต่อมาคือการมาถึงของ Generative AI ทั้งหลาย กับการพัฒนาปัญญาประดิษฐ์สำหรับลอกเลียนโดยเฉพาะ เช่น VALL-E ของทาง Microsoft ที่สามารถลอกเลียนเสียงพูดของคนเราได้แนบเนียนเพียงอาศัยตัวอย่างไฟล์เสียงราว 3 วินาที ซึ่งจะยิ่งเพิ่มความซับซ้อนในการปลอมแปลงขึ้นไปอีก
อีกประเด็นที่น่าพูดถึงไม่แพ้กันคือ ความก้าวหน้าของเอไอ Chatbot ที่มีขีดความสามารถสูงขึ้นเรื่อยๆ โดยเฉพาะการมาถึงของ Custom GPT ที่ช่วยให้เราสามารถตั้งค่าเอไอได้เองจนเราสามารถปรับแต่งเอไอได้ตามใจ ตั้งแต่ให้เป็นผู้ช่วย เลขาส่วนตัว ไปจนผู้เชี่ยวชาญด้านต่าง ๆ
นี่เองจึงนำไปสู่การตั้งคำถามว่า ในกรณีที่เอไอเหล่านี้ถูกนำไปใช้ในทางผิดจะนำไปสู่ผลกระทบเช่นไร แม้จะมีคำยืนยันจากทาง Microsoft ว่า VALL-E จะไม่เปิดให้บริการ เช่นเดียวกับ OpenAI ที่พยายามวางมาตรการป้องกันทุกวิถีทาง แต่ก็อาจขึ้นกับเวลาเท่านั้นว่าอาชญากรรมจะนำเทคโนโลยีนี้ไปใช้เมื่อใด
นำไปสู่การคิดค้นหาหาแนวทางป้องกันข้อมูลของเราไม่ได้ถูกเอไอนำไปใช้ประโยชน์อย่าง AntiFake
AntiFake อีกหนึ่งแนวทางรับมือการปลอมแปลงผ่านเอไอ
ผลงานนี้เป็นของทีมวิจัยจาก Washington University in St. Louis กับการพัฒนาระบบต่อต้าน Deepfake รวมถึงเอไอสำหรับใช้ในการลอกเลียน จำลอง และปลอมแปลงเสียงของเรา เพื่อป้องกันการที่ไฟล์เสียงของเราถูกนำไปใช้งานในการเทรนข้อมูลรวมถึงทำซ้ำในทุกกรณี
ความพยายามของกลุ่มมิจฉาชีพในการหลอกลวงเงินจากเรามากขึ้นทุกวัน ล่าสุดเริ่มมีการลอกเลียนเสียงของเราผ่านการสนทนาทางโทรศัพท์มาบันทึกแล้วนำไปใช้ซ้ำ จากนั้นก็นำไปหลอกญาติมิตร เพื่อนสนิท หรือคนรู้จัก นำไปสู่การเข้าใจผิดจนทำให้ต้องสูญเสียทรัพย์สิน ถือเป็นอีกประเภทการหลอกลวงต้มตุ๋นที่เริ่มถูกพูดถึง
จริงอยู่แนวทางในการพิสูจน์และตรวจจับเสียงปลอมจากเอไอหรือ Deepfake ทั้งหลายได้รับการพัฒนาเช่นกัน แต่การตรวจสอบเหล่านั้นจะเกิดต่อเมื่อข้อมูลปลอมถูกนำไปใช้งานหรือเผยแพร่ ซึ่งเป็นช่วงเวลาที่ความเสียหายอาจเกิดขึ้นและแพร่กระจายเป็นวงกว้างไปแล้วจึงอาจเป็นวิธีที่ไม่มีประสิทธิภาพนัก
นำไปสู่การพัฒนาระบบ AntiFake โดยอาศัยรูปแบบเดียวกับเครื่องมือที่อาชญากรไซเบอร์ใช้งาน ระบบจะทำการปลอมปนเสียงสัญญาณการสนทนาของผู้ใช้งานเข้ากับคลื่นเสียงเฉพาะ ส่งผลให้เมื่อมีการบันทึกไฟล์เสียงของเราแล้ว จะไม่สามารถนำไปใช้ประโยชน์เป็นวัตถุดิบในการปลอมแปลงได้
สัญญาณที่แทรกเข้าไปในคลื่นเสียงอาศัยเทคนิคเดียวกับที่อาชญากรไซเบอร์นิยมใช้ ต่างกันตรงครั้งนี้ เป็นนำมาใช้ในมุมกลับทำหน้าที่เหมือนการเข้ารหัส เมื่อพูดผ่านโปรแกรมนี้จะทำให้เสียงที่เราพูดเพี้ยนไปจากเดิม สำหรับคนเรานี่ยังเป็นคำพูดที่สามารถใช้รับฟังเนื้อความต่อได้ แต่จะไม่สามารถนำไปใช้ประโยชน์กับเอไอได้อีก
จากการทดสอบ แม้มีความพยายามในการนำชุดเสียงที่ผ่านการแปลงนี้เข้าระบบเอไอเพื่อจำลอง แต่จะไม่มีทางจำลองเสียงของคู่สนทนาออกมาได้เหมือนอีกต่อไป สามารถป้องกันการลอกเลียนจากเอไอที่มีการใช้งานในปัจจุบันได้ราว 95% และใช้ได้กับคนเกือบทุกประเภทและเชื้อชาติ
นี่จึงถือเป็นอีกแนวทางสำหรับรับมือการปลอมแปลงข้อมูลที่อาจจะเกิดขึ้นในอนาคต
ปัจจุบันระบบ AntiFake ได้รับการพัฒนาเพื่อป้องกันการนำเสียงบันทึกระดับไม่กี่วินาทีไปใช้งาน แต่เป้าหมายของพวกเขายังคงไม่จบเพียงเท่านี้ ทางทีมวิจัยตั้งเป้าหมายในการพัฒนาระบบนี้ให้ดียิ่งขึ้น เพื่อปกป้องเสียงพูดคุยสนทนา ไปจนการใช้ร่วมกับเสียงเพลงเพื่อป้องกันการลอกเลียนและบิดเบือนข้อมูลที่กว้างยิ่งขึ้นในอนาคต
อย่างไรก็ตามข้อจำกัดสำคัญของระบบ AntiFake ในปัจจุบัน คือ เมื่อใส่เสียงแทรกซ้อนเข้าไปทำให้เนื้อหาการพูดคุยเปลี่ยนไปจนรับฟังและคาดเดาได้ยากขึ้นแม้แต่กับมนุษย์ด้วยกัน จึงยังจำเป็นต้องได้รับการพัฒนาอีกพักใหญ่เพื่อลดผลกระทบต่อเนื้อเสียง โดยยังคงคุณสมบัติป้องกันการลอกเลียนเอาไว้ได้
ที่เหลือเราคงต้องรอดูต่อไปว่าเทคโนโลยีป้องกันอย่าง AntiFake จะถูกพัฒนามารับมือการปลอมแปลงจากเอไอได้ทันท่วงทีหรือไม่ และจะมีประสิทธิภาพรับมือในสถานการณ์จริงเพียงไร
ที่มา
https://www.posttoday.com/innovation/1056
https://www.posttoday.com/post-next/innovation/690980
https://www.posttoday.com/post-next/innovation/695805
https://www.unite.ai/th/custom-gpts-are-here-and-will-impact-everything-ai/
https://source.wustl.edu/2023/11/defending-your-voice-against-deepfakes/
https://sites.google.com/view/yu2023antifake
——————————————————————————————————————————————
ที่มา : Post Today / วันที่เผยแพร่ 13 ธ.ค.66
Link : https://www.posttoday.com/international-news/703141