ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์จากหน่วยงานระดับท็อปของวงการ 26 แห่งออกรายงานเตือนโลกให้ระวังการนำปัญญาประดิษฐ์ไปใช้ในทางที่ผิดแล้ว โดยสถาบันที่ปรากฏชื่ออยู่ในรายงานฉบับนี้ เป็นชื่อที่หลายคนรู้จักกันดี ยกตัวอย่างเช่น องค์กรไม่แสวงกำไร OpenAI (ที่อีลอน มัสก์เคยเป็นบอร์ดแต่เพิ่งประกาศลาออกจากบอร์ดไปเมื่อเร็ว ๆ นี้), ศูนย์ศึกษาด้าน Existential Risk จากมหาวิทยาลัยเคมบริดจ์, สถาบัน Future of Humanity Institute จากมหาวิทยาลัยออกฟอร์ด เป็นต้น
สำหรับรายงานดังกล่าว มีชื่อเต็มว่า “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” ที่ระบุถึงความเสี่ยงของการใช้งานปัญญาประดิษฐ์ในทางที่ผิดกฎหมาย เช่น อาจใช้ปัญญาประดิษฐ์ไปในการโจมตีผู้อื่น แถมด้วยความล้ำหน้าในปัญญาประดิษฐ์นั้น อาจทำให้ผู้โจมตีกระทำการได้ด้วยต้นทุนที่ถูกลง และสะดวกมากขึ้น เนื่องจากสามารถกำหนดเป้าหมายได้เป็นการเฉพาะมากขึ้นด้วย
โดยในรายงานได้ชี้ว่า การโจมตีด้วย AI จะเกิดขึ้นได้ในสามรูปแบบนั่นคือ การโจมตีบนโลกดิจิทัล เช่น การปลอมเสียงเป็นบุคคลอื่น หรือการใช้ AI ในการเจาะระบบ, การโจมตีทางกายภาพ เช่น การนำโดรนขนาดเล็กที่ติดอาวุธเพื่อใช้ในการโจมตีแบบที่ปรากฏในภาพยนตร์ของเน็ตฟลิกซ์ เรื่อง Black Mirror กับการนำฝูงโดรนขนนาดเล็กมาใช้ในการสังหาร และรูปแบบการโจมตีที่อาจเกิดขึ้นได้แบบที่สามก็คือการนำ AI มาใช้กับการเมือง ซึ่งอาจนำไปสู่การสอดแนม การใช้ในการโน้มน้าวความเห็น หรือการหลอกลวงได้ โดยรายงานฉบับนี้คาดว่า การโจมตีแบบใหม่จะขึ้นอยู่กับความสามารถในการวิเคราะห์พฤติกรรมอารมณ์และความเชื่อของมนุษย์ ซึ่งถือเป็นความท้าทายของระบอบประชาธิปไตยได้ในระยะยาว
ส่วนหนึ่งที่รายงานฉบับนี้กังวลคือความสามารถของ AI ที่ไม่สามารถประเมินได้ในแบบเดียวกับที่มนุษย์ประเมินกันเอง ซึ่งทำให้เราได้พบว่า งานบางอย่าง AI อาจทำได้ใกล้เคียง และงานบางอย่าง AI ก็ทำได้ล้ำหน้ากว่ามนุษย์ไปแล้ว
รายงานฉบับนี้ยังให้แนวทางป้องกันเอาไว้ด้วยว่า การพัฒนา AI ควรทำอย่างมีความรับผิดชอบ และทำเพื่อประโยชน์ของสังคมเป็นหลัก
———————————————————————-
ที่มา : MGR Online /
Link : https://mgronline.com/cyberbiz/detail/9610000018105