สหภาพยุโรป เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) ครั้งแรกในโลก
สหภาพยุโรป (EU) เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) เป็นครั้งแรกในโลก เพื่อควบคุมขอบเขตการใช้ปัญญาประดิษฐ์
สหภาพยุโรป (EU) เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) เป็นครั้งแรกในโลก เพื่อควบคุมขอบเขตการใช้ปัญญาประดิษฐ์
ปัจจุบันมีการใช้งาน AI อย่างแพร่หลายทั้งในองค์กรขนาดเล็ก กลาง ใหญ่ เพื่อความสะดวกในการดำเนินงานทำให้องค์กรตกเป็นเป้าหมายในการถูกโจมตีมากขึ้น
ไมโครซอฟท์ ร่วมกับ LinkedIn เจาะลึกพฤติกรรมการใช้ AI คนทำงาน ผ่านรายงาน Work Trend Index ฉบับปี 2024 ในประเทศไทยและทั่วโลก ในการนำนวัตกรรม AI มาใช้ในที่ทำงาน
Scarlett Johansson นักแสดงสาวชื่อดัง ไม่พอใจที่ OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ อาจใช้เสียงของเธอในฟีเจอร์ ‘Voice Mode’ ของ ChatGPT โดยไม่ได้รับอนุญาต แม้ OpenAI จะออกมาปฏิเสธ และบอกว่าใช้เสียงของนักพากย์คนอื่น แต่หลายคนฟังแล้วต่างบอกว่าเสียงนั้นเหมือนกับโจฮันส์สันมาก จนอดคิดไม่ได้ว่าแท้จริงแล้ว OpenAI แอบนำเสียงเธอมาทำการเทรน AI หรือไม่ ?
เมื่อเสียง AI เหมือนมนุษย์เกินไปจนน่าขนลุก หลังทำเสียง สการ์เลตต์ โจแฮนสัน จนเจ้าตัวไม่สบายใจ ล่าสุดตัดสินใจระงับใช้งานไป
หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์ การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…
เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว