เมื่อวันพุธ คณะทำงานของประธานาธิบดีโจ ไบเดน แห่งสหรัฐฯ กางแผนเบื้องต้นในการรับมือกับโมเดลปัญญาประดิษฐ์ หรือ AI ขั้นสูงจากจีนและรัสเซีย โดยนักวิจัยจากภาครัฐและเอกชนต่างกังวลว่าประเทศคู่แข่งสหรัฐฯ อาจใช้ AI เป็นเครื่องมือในการสร้างภัยคุกคามได้หลากหลายรูปแบบ
ซึ่งรอยเตอร์ รวบรวมภัยคุกคามที่อาจเกิดจากน้ำมือของผู้ไม่ประสงค์ดีที่หยิบปัญญาประดิษฐ์ หรือ AI มาใช้เป็นเครื่องมือก่อความไม่สงบ
สื่อลวงลึก: ดีพเฟคและข้อมูลเท็จ
เทคโนโลยีดีพเฟค (Deepfake) หรือวิดีโอปลอมที่สร้างขึ้นโดยปัญญาประดิษฐ์ กลายเป็นอาวุธใหม่ในการเผยแพร่ข่าวปลอมและข้อมูลบิดเบือนในช่วงหลายปีมานี้ ท่ามกลางความเชื่อมั่นในข่าวสารบ้านเมืองปัจจุบันตกต่ำ ประกอบกับการที่ธุรกิจสื่อรับเอาเทคโนโลยีปัญญาประดิษฐ์มาใช้ในงานข่าวจริง พ่วงด้วยขุมพลังใหม่อย่าง generative AI ที่ทำให้การผลิตสื่อทำได้ง่ายขึ้นและต้นทุนต่ำอย่างน่าเหลือใจ
กระทรวงความมั่นคงแห่งมาตุภูมิ (Department of Homeland Security-DHS) ระบุในรายงานประเมินภัยคุกคามในปี 2024 พบว่าเมื่อปีก่อนมีสื่อรัฐบาลจีนใช้ generative AI เผยแพร่ข่าวปลอมที่ว่าสหรัฐฯ มีห้องทดลองเพื่อสร้างอาวุธชีวภาพในคาซัคสถานเพื่อต่อต้านจีน
แม้ว่าสื่อสังคมออนไลน์จะพยายามปิดกั้นและถอดเนื้อหาดีพเฟคเหล่านี้ แต่ประสิทธิภาพของการจัดการสื่อลวงลึกเหล่านี้ก็แตกต่างกันไปในแต่ละแพลตฟอร์ม และวิดีโอเหล่านี้เป็นสิ่งที่ยากสำหรับผู้รับชมในการแยกแยะว่าสิ่งที่เห็นและได้ยินเป็นจริงหรือไม่แค่ไหน
ขณะที่เจค ซัลลิแวน ที่ปรึกษาด้านความมั่นคงประจำทำเนียบขาว ยอมรับว่าไม่มีทางออกที่ง่ายดายในการรับมือกับศักยภาพของ AI ที่ “รัฐหรือผู้ที่ไม่ใช่รัฐ พยายามใช้ข้อมูลบิดเบือนในการขัดขวางประชาธิปไตย และเผยแพร่โฆษณาชวนเชื่อ เพื่อสร้างรูปแบบการรับรู้ในระดับโลก” และว่า “ตอนนี้ฝ่ายโจมตีกำลังเอาชนะฝ่ายตั้งรับอยู่มาก”
อาวุธชีวภาพ
ชุมชนด้านหน่วยข่าวกรอง สถาบันคลังสมอง และนักวิชาการอเมริกัน ออกมาแสดงความกังวลถึงความเสี่ยงของผู้ไม่ประสงค์ดีจากต่างชาติที่เข้าถึงปัญญาประดิษฐ์ขั้นสูง
อย่างนักวิจัยจาก Gryphon Scientific และ Rand Corporation บอกว่า โมเดลภาษาขนาดใหญ่ หรือ LLM ที่เป็น AI ขั้นสูง สามารถให้ข้อมูลที่ช่วยในการสร้างอาวุธชีวภาพได้แล้ว และว่า LLM อาจมอบองค์ความรู้ระดับสูงกว่าปริญญาเอกในการแก้ปัญหาอันซับซ้อน เมื่อต้องจัดการกับไวรัสที่สามารถแพร่เชื้อรุนแรงถึงขั้นการระบาดใหญ่ทั่วโลกได้ อีกทั้งยังพบว่า LLM อาจช่วยในการวางแผนหรือตัดสินใจเรื่องการโจมตีทางชีวภาพ เช่น วิธีการส่งสารละอองแขวนลอยที่มีสารพิษในนั้นได้
อาวุธไซเบอร์
เมื่อเดือนกุมภาพันธ์ บริษัทโอเพ่น เอไอ และหน่วยความปลอดภัยของไมโครซอฟท์ พบว่ากลุ่มแฮ็กเกอร์ที่มีรัฐบาลรัสเซีย จีน อิหร่าน และเกาหลีเหนือหนุนหลัง กำลังใช้โมเดลภาษาขนาดใหญ่ของโอเพ่น เอไอ ในการยกระดับทักษะในการโจมตีเป้าหมาย เช่น ค้นหาพิกัดดาวเทียมและเรดาร์ในสมรภูมิ สร้างเนื้อหา “ฟิชชิ่ง” การเขียนอีเมลที่ดูน่าเชื่อถือมากขึ้น และการฝึกถามคำถามด้านความปลอดภัยไซเบอร์ต่าง ๆ เพื่อหลอกล่อเป้าหมาย
กระทรวงความมั่นคงแห่งมาตุภูมิสหรัฐฯ ระบุว่า ผู้ไม่ประสงค์ดีบนโลกไซเบอร์อาจใช้ AI “พัฒนาเครื่องมือ” เพื่อ “การโจมตีไซเบอร์ที่ใหญ่ขึ้น เร็วขึ้น มีประสิทธิภาพขึ้น และหลบหนีการจับกุมได้มากขึ้น” กับระบบโครงสร้างพื้นฐานสำคัญ รวมทั้งท่อส่งเชื้อเพลิงและการขนส่งระบบราง
และว่าจีนและประเทศคู่แข่งของสหรัฐฯ รายอื่น ๆ กำลังพัฒนาเทคโนโลยีปัญญาประดิษฐ์ ที่ทำลายระบบป้องกันของสหรัฐฯ เช่น การโจมตีด้วยมัลแวร์
ที่มา: รอยเตอร์
————————————————————————————————————————————-
ที่มา : VOAThai / วันที่เผยแพร่ 10 พ.ค.67
Link : https://www.voathai.com/a/explainer-what-risks-do-advanced-ai-models-pose-in-the-wrong-hands-/7605118.html