ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…

จะเป็นอย่างไร หาก ‘เอไอ’ กลายเป็นภัยคุกคามโลก?

Loading

เมื่อวันพุธ คณะทำงานของประธานาธิบดีโจ ไบเดน แห่งสหรัฐฯ กางแผนเบื้องต้นในการรับมือกับโมเดลปัญญาประดิษฐ์ หรือ AI ขั้นสูงจากจีนและรัสเซีย โดยนักวิจัยจากภาครัฐและเอกชนต่างกังวลว่าประเทศคู่แข่งสหรัฐฯ อาจใช้ AI เป็นเครื่องมือในการสร้างภัยคุกคามได้หลากหลายรูปแบบ

‘การ์ทเนอร์’ จับกระแส ‘6 เทรนด์’ กระทบความมั่นคงไซเบอร์

Loading

การ์ทเนอร์ เผย 6 แนวโน้มความมั่นคงไซเบอร์ที่สำคัญในปี 2567 โดยระบุว่า Generative AI, ช่องว่างการสื่อสารในทีมบริหาร, พฤติกรรมพนักงานที่ไม่ปลอดภัย, ความเสี่ยงจากบุคคลที่สาม, ภัยคุกคามที่เพิ่มขึ้นต่อเนื่อง, รวมถึงแนวทางการรักษาความปลอดภัยที่ยึดการยืนยันตัวตนเป็นหลัก ล้วนเป็นปัจจัยที่อยู่เบื้องหลังและคอยขับเคลื่อนแนวโน้มความมั่นคงไซเบอร์ที่สำคัญๆ ในปีนี้

ภัยไซเบอร์ ‘AI voice chatbot’ แนวโน้มเพิ่มสูงขึ้นในปี 2024

Loading

ตามการคาดการณ์ของ WatchGuard เผยว่า ในปีหน้าจะได้เห็นพาดหัวข่าวเรื่องการโจรกรรมที่เกี่ยวข้องกับ Large Language Model (LLM), AI-based voice chatbots (แชทบอทที่ใช้เสียงสั่งการ), VR/MR headset สมัยใหม่ และอื่นๆ อีกมากมายเพิ่มมากขึ้น