สหภาพยุโรป เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) ครั้งแรกในโลก
สหภาพยุโรป (EU) เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) เป็นครั้งแรกในโลก เพื่อควบคุมขอบเขตการใช้ปัญญาประดิษฐ์
สหภาพยุโรป (EU) เริ่มใช้กฎหมายควบคุมปัญญาประดิษฐ์ (AI) เป็นครั้งแรกในโลก เพื่อควบคุมขอบเขตการใช้ปัญญาประดิษฐ์
เว็บไซต์ The New York Times รายงานเมื่อ 14 มิ.ย.66 ว่า รัฐสภายุโรปได้ผ่านร่างกฎหมายปัญญาประดิษฐ์เมื่อ 14 มิ.ย.66 เพื่อเข้าสู่การพิจารณาในวาระสุดท้ายก่อนมีผลบังคับใช้ เพื่อปกป้องผู้บริโภคของสหภาพยุโรปจากการใช้ปัญญาประดิษฐ์ที่อาจเป็นอันตราย ทั้งนี้ กฎหมาย AI ของสหภาพยุโรปจะใช้วิธีการอิงตามความเสี่ยง (Risk-Based Approach) จากศักยภาพสูงสุดที่จะสามารถทำอันตรายต่อมนุษย์ และให้ความสำคัญกับระบบ AI ที่นำมาใช้ในโครงสร้างพื้นฐานสำคัญด้านน้ำและพลังงาน และในระบบกฎหมาย นอกจากนี้ยังกำหนดข้อบังคับต่าง ๆ เช่น ห้ามใช้ระบบการจดจำใบหน้า (facial recognition) ตามเวลาจริง และห้ามใช้ชุดข้อมูลชีวมาตรจากสื่อสังคมออนไลน์เพื่อสร้างฐานข้อมูล รวมถึงการใช้ข้อมูลที่มีลิขสิทธิ์ซึ่งมิใช่ของตนในการฝึกระบบ AI นอกจากนี้ ผู้สร้างระบบ AI จะต้องทำการประเมินความเสี่ยงก่อนการให้บริการ ซึ่งคล้ายกับกระบวนการอนุมัติยา และต้องวางมาตรการเพื่อป้องกันไม่ให้ AI สร้างเนื้อหาที่ผิดกฎหมาย เป็นต้น อย่างไรก็ดี ปัจจุบัน สหรัฐฯ ได้ออกนโยบายและมาตรการทดสอบระบบ AI ก่อนเผยแพร่สู่สาธารณะเพื่อปกป้องสิทธิความเป็นส่วนตัวของชาวอเมริกัน ขณะที่จีนกำลังร่างกฎหมายควบคุมผู้ผลิต AI ในจีนให้ประเมินความปลอดภัยผลิตภัณฑ์ก่อนนำออกสู่สาธารณะ…
ความเดิมจากตอนที่แล้ว ผู้เขียนได้กล่าวถึง ChatGPT ในมุมที่อาจมีผลกระทบต่องานในปัจจุบัน โดยเน้นวิเคราะห์ในสายงานกฎหมาย ฉบับนี้จะวิเคราะห์ถึงข้อสังเกตทางกฎหมายในการใช้งาน ChatGPT และ AI 1.กฎหมายว่าด้วยปัญญาประดิษฐ์ ประเด็นแรก ธรรมาภิบาลและการประเมินความเสี่ยงจากการใช้ AI เพื่อรองรับการใช้งานอย่างมีประสิทธิภาพและน่าเชื่อถือ จึงควรมีการกำหนดมาตรฐานหรือกฎเกณฑ์ และการจัดการความเสี่ยงที่เหมาะสม อันจะเป็นการใช้เทคโนโลยีอย่างมีความรับผิดชอบต่อสังคม ในกรณีของ ChatGPT การใช้ AI จะอยู่ในรูปแบบของแชตบอตที่สื่อสารตอบโต้และให้ข้อมูลกับผู้ใช้งาน ดังนั้น การใช้งานในลักษณะดังกล่าวอาจมากับปัญหา AI bias and discrimination ซึ่งเป็นความเสี่ยงในเรื่องข้อจำกัดและคุณภาพของข้อมูล ความน่าเชื่อถือและการให้ข้อมูลที่เป็นกลาง เพื่อแก้ไขปัญหานี้ ควรมีแนวทางในการประเมินความเสี่ยงที่เหมาะสมในระดับองค์กร และมีการกำหนดกฎเกณฑ์หรือกฎหมายที่ควบคุมการใช้งานอย่างเหมาะสม เช่น ในสหรัฐกำหนด AI Risk Management framework (จัดทำโดย NIST) และในสหภาพยุโรปยกร่าง AI Act ซึ่งมีวัตถุประสงค์ในการกำหนดแนวทางการจัดการ การประเมินความเสี่ยง และการตรวจสอบการงาน AI โดยเฉพาะอย่างยิ่งในกรณีที่ AI…
เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว