ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…

บริษัททั่วโลกอ่วม ถูกแก๊งมิจฉาชีพใช้ “Deepfake” ตุ๋นเงินหลายล้านดอลลาร์

Loading

ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ได้ออกโรงเตือนว่าสถานการณ์อาจจะเลวร้ายลงเรื่อย ๆ เนื่องจากแก๊งอาชญากรใช้ประโยชน์จากปัญญาประดิษฐ์เชิงรู้สร้าง (Generative AI) ในการฉ้อโกง

จะเป็นอย่างไร หาก ‘เอไอ’ กลายเป็นภัยคุกคามโลก?

Loading

เมื่อวันพุธ คณะทำงานของประธานาธิบดีโจ ไบเดน แห่งสหรัฐฯ กางแผนเบื้องต้นในการรับมือกับโมเดลปัญญาประดิษฐ์ หรือ AI ขั้นสูงจากจีนและรัสเซีย โดยนักวิจัยจากภาครัฐและเอกชนต่างกังวลว่าประเทศคู่แข่งสหรัฐฯ อาจใช้ AI เป็นเครื่องมือในการสร้างภัยคุกคามได้หลากหลายรูปแบบ

เตือนภัย มิจฉาชีพใช้ AI 3 รูปแบบมาหลอกเหยื่อให้หลงเชื่อโอนเงิน

Loading

  เตือนภัย ! ยุคเทคโนโลยีล้ำหน้า “มิจฉาชีพ” ใช้ AI 3 รูปแบบทั้ง ปลอมเสียง ปลอมแปลงใบหน้า หรือสร้างบทความหลอกให้มาร่วมลงทุน   ปัจจุบันมิจฉาชีพออนไลน์ มักมาทุกรูปแบบจนเหยื่อหลายรายตามไม่ทัน ซึ่งมุกมีใหม่ ๆ ที่ไม่มีใครคาดคิดทำให้มีประชาชนหลงกลตกเป็นผู้เสียหายจำนวนมาก ซึ่งที่ผ่านมาหน่วยงานต่าง ๆ ต่างเร่งแก้ไขปราบปราม ประชาชนสัมพันธ์ ให้ความรู้แก่ประชาชน แต่คนร้ายแก๊งคอลเซ็นเตอร์ก็พัฒนาวิธีการหลอกรูปแบบใหม่ๆ โดยเฉพาะการนำเทคโนโลยี Ai มาเป็นเครื่องมือในการหลอกลวงกระทำความผิด   รูปแบบของ AI ที่มิจฉาชีพนำมาใช้ ที่เริ่มพบเจอเยอะมากขึ้นได้แก่ •  Voice Cloning หรือ การใช้ AI ปลอมเสียง โดยจะเป็นการใช้ AI เลียนแบบเสียงของบุคคลให้มีความคล้ายคลึงกับบุคคล เพื่อใช้ในการหลอกเหยื่อให้คิดว่าได้คุยกับคน ๆ นั้นจริง ๆ ก่อนที่จะหลอกให้โอนเงินหรือทำอะไรอย่างอื่นต่อไป   •  Deepfake หรือการใช้ AI ปลอมแปลงใบหน้าให้มีความคล้ายคลึงกับบุคคลต่างๆ เพื่อหลอกเชื่อว่าคน ๆ…

เปิด 6 วิธีรอดจาก ‘แก๊งคอลเซ็นเตอร์’ ที่ใช้ AI ปลอมเสียง

Loading

ปัจจุบันเหล่าบรรดาแฮ็กเกอร์เริ่มพัฒนาการโคลนเสียงมนุษย์โดยใช้ AI เพื่อหลอกล่อและฉ้อโกงทางการเงินกับเหยื่อโดยการทำให้คิดว่ากำลังพูดคุยกับคนที่รู้จักทางโทรศัพท์ ซึ่งจริงๆ แล้วเป็นการพูดคุยกับคอมพิวเตอร์