เข้าขั้นวิกฤติ ใช้ Deepfake สร้างคลิป 18+ สลับหน้าได้ ด้วย AI ขั้นสูง

Loading

ข้อมูลการวิเคราะห์ล่าสุดเปิดเผยว่า การเผยแพร่วีดีโอ 18+ ที่ใช้ AI และ Deepfake สร้างขึ้น มีจำนวนเพิ่มขึ้นอย่างรวดเร็วในช่วง 7 ปีทื่ผ่านมา โดยมีการอัปโหลดวีดีโอมากถึง 244,625 รายการไปยังเว็บโป๊ และในปีนี้เพียงปีเดียว มีการอัปโหลดมากถึง 113,000 รายการ โดยเพิ่มขึ้น 54% จากปี 2023

การหลอกลวงทั่วโลกพุ่ง 10.2% ‘Whoscall’ เตือนระวัง มิจฉาชีพใช้ AI ปลอมเสียง

Loading

Gogolook ผู้พัฒนาแอปพลิเคชัน Whoscall และผู้ให้บริการทางด้านเทคโนโลยี เพื่อความเชื่อมั่น (TrustTech) เตือนภัยมิจฉาชีพในประเทศไทยเริ่มใช้วิธีหลอกลวงใหม่ด้วยเทคโนโลยี AI ปลอมเสียง

รู้เท่าทัน AI Deepfake ภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป

Loading

  ในวันที่อัลกอริทึม Generative AI ถูกพัฒนาสู่การเป็น AI Deepfake ที่ฉลาดล้ำและถูกนำมา สร้างเนื้อหา “ภาพ+เสียง” ที่เสมือนเรื่องจริงจนแยกไม่ออก ว่านี่คือชุดข้อมูล ที่ “มนุษย์ หรือ เทคโนโลยี AI” เป็นผู้คนสร้างสรรค์   ประเด็นดังกล่าว กลายเป็นประเด็นร้อนที่เราต่างเป็นห่วงและให้ความสำคัญ เพราะเราแทบไม่สามารถล่วงรู้ได้เลยว่า ภาพ VDO หรือแม้แต่เสียง ที่เราแชร์ ส่งต่อกันบนโลกออนไลน์ ภายในเสี้ยววินาทีนี้ คือ ความจริง หรือ ภาพลวง แล้วเราจะรับมือและรู้ทัน AI Deepfake ได้อย่างไร?   ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Clinic หรือ AIGC) เปิดเวทีแลกเปลี่ยนมุมมอง ทำความรู้จักกับ AI Deepfake พร้อมวิธีการรับมือเบื้องต้นเพื่อให้เรารู้ทันเทคโนโลยี AI ที่วันนี้สามารถสร้างชุดข้อมูล ภาพ เสียง ได้ราวกับมนุษย์แล้ว ใน AI…

เอฟบีไอเตือนชาวเน็ต ระวังแก๊งโจรใช้เอไอแปลงรูปถ่ายทั่วไปเป็นรูปโป๊

Loading

  เอฟบีไอออกโรงเตือนประชาชนให้ระมัดระวังการโพสต์ภาพถ่ายและคลิปวิดีโอบนโซเชียลมีเดีย เนื่องจากมีแก๊งมิจฉาชีพจ้องขโมยภาพถ่ายหรือวิดีโอแล้วนำไปดัดแปลงให้เป็นคอนเทนต์อนาจารเพื่อเรียกร้องเงินทอง   เมื่อวันที่ 8 มิ.ย. 2566 สำนักงานสืบสวนกลางสหรัฐหรือเอฟบีไอได้ออกแถลงการณ์แจ้งเตือนเกี่ยวกับแก๊งมิจฉาชีพซึ่งมีแนวโน้มจะใช้เทคโนโลยีเอไอเป็นเครื่องมือ โดยเฉพาะการนำภาพถ่ายหรือคลิปวิดีโอของตัวบุคคลไปเข้าโปรแกรม ‘ดีพเฟค’ และสร้างภาพถ่ายหรือวิดีโอที่มีเนื้อหาเข้าข่ายอนาจาร แล้วนำไปข่มขู่หรือเรียกเงินจากเจ้าของใบหน้า   กระบวนการตัดต่อและดัดแปลงภาพเพื่อก่ออาชญากรรมนี้เป็นปัญหาที่น่ากังวลอย่างมาก เนื่องจากอาชญากรมักนำภาพถ่ายและคลิปวิดีโอที่คนทั่วไปโพสต์ลงแพลตฟอร์มโซเชียลมีเดียมาใช้ และตัดเฉพาะส่วนที่เป็นใบหน้า จากกนั้นก็ใช้เทคโนโลยีเอไอแปลงให้เป็นภาพถ่ายอนาจาร   ทางเอฟบีไอ แจ้งว่า ได้รับรายงานจากผู้ที่ตกเป็นเหยื่อของการดัดแปลงภาพโป๊เปลือยเหล่านี้ ซึ่งมีทั้งเหยื่อที่ยังเป็นผู้เยาว์และผู้ใหญ่ที่โดนนำรูปไปใช้โดยไม่ได้รับความยินยอม   หลังจากที่ดัดแปลงภาพถ่ายหรือคลิปวิดีโอให้ออกมาในเชิงอนาจารแล้ว แก๊งมิจฉาชีพก็จะนำคอนเทนต์เหล่านี้ไปเผยแพร่อย่างเปิดเผยผ่านช่องทางโซเชียลมีเดียหรือเว็บไซต์อนาจาร โดยมีจุดประสงค์เพื่อก่อกวน สร้างความเดือดร้อนรำคาญใจแก่เหยื่อ ซึ่งมีศัพท์เรียกเฉพาะว่า Sextortion   ด้วยเหตุนี้ ทางเอฟบีไอจึงได้ออกคำเตือนประชาชนให้ระมัดระวังการโพสต์ภาพถ่ายหรือคลิปวิดีโอส่วนตัวลงในสื่อออนไลน์ หรือแพลตฟอร์มโซเชียลมีเดีย ซึ่งอาจถูกนำไปใช้เป็นวัตถุดิบในการดัดแปลงภาพหรือวิดีโอโป๊เปลือย   นอกจากผู้ที่ตกเป็นเหยื่อจะได้รับความอับอาย เสื่อมเสียชื่อเสียง เดือดร้อนรำคาญใจแล้ว ยังอาจจะต้องสูญเสียทรัพย์สินเพื่อแลกกับการยุติการเผยแพร่ภาพดัดแปลงเหล่านี้ ซึ่งสุดท้ายก็อาจกำจัดได้ไม่หมด และทำให้ต้องตกเป็นเหยื่อซ้ำแล้วซ้ำอีกในระยะยาว   เอฟบีไอแถลงว่า ตั้งแต่เดือน เม.ย. เป็นต้นมา หน่วยงานพบว่ามีผู้ตกเป็นเหยื่อในกรณีที่เข้าข่าย Sextortion มากขึ้น จากการที่ภาพถ่าย หรือวิดีโอของบุคคลเหล่านี้ที่โพสต์ลงในโซเชียลมีเดีย ถูกนำไปดัดแปลงให้เป็นคอนเทนต์อนาจารด้วยเทคโนโลยีดีพเฟค   แก๊งมิจฉาชีพมักจะข่มขู่ผู้ที่ตกเป็นเหยื่อ…

K-pop Deepfake การคุกคามทางเพศไอดอลเกาหลี อาชญากรรมไซเบอร์ที่ใช้ AI เป็นเครื่องมือ

Loading

    ปัจจุบันการคุกคามไอดอลรุนแรงมากขึ้นเรื่อยๆ ไม่ว่าจะเป็นการรุกล้ำความเป็นส่วนตัวนอกเหนือเวลางาน ตั้งแต่ไปรับ–ส่งศิลปินถึงสนามบิน จงใจซื้อตั๋วไฟล์ตบินเดียวกัน สะกดรอยตาม ไปจนถึงดักรอศิลปินที่หอพักของพวกเขา หรือแม้แต่การถ่ายรูปไอดอลในเชิงลามก เช่น การพยายามถ่ายใต้กระโปรง หรือการซูมเน้นเฉพาะส่วนบนเรือนร่างของศิลปิน แล้วนำมาเผยแพร่ทางโซเชียลมีเดีย ซึ่งในยุคที่เทคโนโลยีพัฒนาก้าวหน้าขึ้น การเคารพสิทธิส่วนบุคคลกลับถอยหลังลงอย่างไม่น่าเชื่อ และ ‘AI กลายเป็นเครื่องมือในการคุกคาม’   สนองตัณหาทางเพศด้วยการชมหนังโป๊ปลอมของไอดอลคนโปรด   K-pop Deepfake กลายเป็นสื่อโป๊ที่เข้าถึงได้อย่างง่ายดาย หากค้นหาคำว่า ‘Kpop Deepfake’ ใน Google จะพบผลการค้นหาประมาณ 6.87 ล้านรายการ (ข้อมูลวันที่ 5 มิถุนายน 2023) มีทั้งเว็บไซต์ที่สร้างขึ้นเพื่อ K-pop Deepfake โดยเฉพาะ และเว็บไซต์ Porn อื่นๆ มีการจำแนก K-pop Deepfake เป็นหนึ่งในประเภทคอนเทนต์ลามก รวมถึงมีการจัดหมวดหมู่คลิปโป๊ปลอมของไอดอลหญิงแต่ละคน และจัดอันดับความนิยมในบางเว็บอีกด้วย   ช่วงหนึ่งปีที่ผ่านมา ‘Kpop Deepfake’ ถูกค้นหาอย่างต่อเนื่องใน Google…

ผู้นำจีนเตือน “ความเสี่ยงด้านความมั่นคง” จาก “ปัญญาประดิษฐ์”

Loading

  ประธานาธิบดีจีนขอให้หน่วยงานทุกแห่งที่เกี่ยวข้อง ดำเนินการเพิ่มขึ้น เพื่อควบคุมเทคโนโลยีปัญญาประดิษฐ์ ซึ่งถือเป็น “อันตรายต่อความมั่นคง”   สำนักข่าวต่างประเทศรายงานจากกรุงปักกิ่ง ประเทศจีน เมื่อวันที่ 1 มิ.ย. ว่าประธานาธิบดีสี จิ้นผิง ผู้นำจีน กล่าวระหว่างการประชุมคณะกรรมาธิการด้านความมั่นคงแห่งชาติ เมื่อวันพุธที่ผ่านมา เรียกร้องการยกระดับ “ธรรมาภิบาลด้านความมั่นคง” เกี่ยวกับเครือข่ายด้านความมั่นคงและปัญญาประดิษฐ์ (เอไอ)   สีกล่าวต่อไปว่า ทุกภาคส่วนต้องเตรียมความพร้อมรับมือกับ “สถานการณ์เลวร้ายที่สุด” และ “ฉากทัศน์ที่รุนแรง” พร้อมทั้งต้านทาน “ทุกปัญหาซึ่งจะถาโถมเข้ามาใส่ ไม่ว่าจะเป็นเรื่องอะไรก็ตาม” ขณะเดียวกัน ผู้นำจีนเตือนเกี่ยวกับ “ความซับซ้อนและความรุนแรงของปัญหาด้ายความมั่นคงแห่งชาติ ที่จีนกำลังเผชิญเพิ่มขึ้นอย่างมีนัยสำคัญ”   China’s ruling Communist Party is calling for beefed-up national security measures, highlighting the risks posed by advances in artificial intelligence…