ผลสำรวจชี้ ผู้ชมทั่วโลกไม่ไว้ใจ “ข่าวที่สร้างโดย AI” นิยมเสพสื่ออินฟลูเอนเซอร์มากกว่าสำนักข่าว

Loading

วันที่ 17 มิถุนายน 2567 สำนักข่าวรอยเตอร์รายงานว่า สถาบันรอยเตอร์เพื่อการศึกษาด้านวารสารศาสตร์ (Reuters Institute for the Study of Journalism) พบว่า ผู้คนทั่วโลกมีความกังวลมากขึ้นเกี่ยวกับการใช้ AI ในการผลิตข่าวและข้อมูลที่ไม่ถูกต้อง ก่อให้เกิดความท้าทายครั้งใหม่ต่อสำนักข่าวที่กำลังดิ้นรนเพื่อดึงดูดผู้ชม

Mastercard เตรียมนำเอา AI เข้ามาตรวจจับเลขบัตรที่โดนขโมย

Loading

ปัญหาด้านเลขบัตรเครดิตถูกขโมยนั้น นับเป็นปัญหาคลาสสิคที่มีมาอย่างยาวนานตั้งแต่ยุคสมัยที่ใช้เครื่องทำสำเนาบัตรเพื่อทำจ่าย ไปจนถึงการที่แอปพลิเคชันเกี่ยวกับบัตรเครดิตถูกแฮ็ก

“AI” ช่วยป้องกันภัยไซเบอร์ได้อย่างไร?

Loading

การมาของ เทคโนโลยีปัญญาประดิษฐ์ หรือ AI ไม่เพียงแต่ช่วยยกระดับการทำงานในหลายส่วน ยังสามารถนำมาช่วยยกระดับความปลออดภัยทางไซเบอร์ซีเคียวริตี้ได้ด้วย

ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…

บริษัททั่วโลกอ่วม ถูกแก๊งมิจฉาชีพใช้ “Deepfake” ตุ๋นเงินหลายล้านดอลลาร์

Loading

ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ได้ออกโรงเตือนว่าสถานการณ์อาจจะเลวร้ายลงเรื่อย ๆ เนื่องจากแก๊งอาชญากรใช้ประโยชน์จากปัญญาประดิษฐ์เชิงรู้สร้าง (Generative AI) ในการฉ้อโกง