Generative AI หรือ Gen AI ได้ถูกนำมาช่วยทำงานในหลายๆ เรื่อง ด้วยความสามารถ ที่สร้างเนื้อหา ข้อความ รูปภาพ วิดีโอ เพลง ได้ อย่างรวดเร็ว แต่การใช้งาน นอกจากมีประโยชน์และนิยมใช้งานเพิ่มขึ้นนั้น
Generative AI หรือ Gen AI ได้ถูกนำมาช่วยทำงานในหลายๆ เรื่อง ด้วยความสามารถ ที่สร้างเนื้อหา ข้อความ รูปภาพ วิดีโอ เพลง ได้ อย่างรวดเร็ว แต่การใช้งาน นอกจากมีประโยชน์และนิยมใช้งานเพิ่มขึ้นนั้น แต่ในทางกลับกันก็มีความเสี่ยงในหลายมิติ โดยเฉพาะในประเด็นเรื่องจริยธรรมการใช้งาน ทั้งเรื่องความโปร่งใส ความน่าเชื่อถือ ความเท่าเทียม ความมั่นคงปลอดภัยและความเป็นส่วนตัว
จึงมีหลายฝ่ายตั้งคำถามถึงประเด็นเรื่องกรอบจริยธรรม ธรรมาภิบาลและการกำกับดูแล AI ที่ควรจะเป็น เพื่อให้การประยุกต์ใช้งานเกิดประโยชน์สูงสุด ในขณะเดียวกันก็ต้องลดความเสี่ยงที่อาจจะเกิดขึ้นด้วย เนื่องจากในปัจจุบันประเทศไทยยังไม่มีกฎหมายเกี่ยวกับ AI ออกมากำกับดูแลในเรื่องนี้ ในขณะที่ทั่วโลกก็มีเพียงสหภาพยุโรป ที่ได้ผลักดันกฎหมาย AI ออกมาใช้เป็นทางการแล้ว
ซึ่งใน งาน “AI Governance Webinar 2024 : จับเทรนด์ Gen AI พลิกโฉมทุกภาคส่วน….ใช้อย่างไรให้มีธรรมาภิบาล?” โดยศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ หรือ ศูนย์ AIGC ภายใต้ สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (เอ็ตด้า) ได้ประมวลความเสี่ยงของการใช้งาน Gen AI เริ่มที่
‘อาการหลอน’ สร้างผลลัพธ์ หรือ คำตอบที่ดูน่าเชื่อถือ แต่เป็นข้อมูลที่ไม่ถูกต้อง ปรากฏการณ์นี้เรียกว่า Hallucination หรือ Confabulation ซึ่งอาจนำไปสู่ ความเข้าใจผิด และการตัดสินใจผิดพลาดอย่างไม่ตั้งใจ และก็เป็นประเด็นที่หลายๆ องค์กรที่ใช้ Gen AI ต่างกังวลเป็นอันดับต้นๆ
การมีอคติ (Bias) เลือกปฏิบัติ (Discrimination) เนื่องจากข้อมูลที่ใช้ในการฝึกฝน Gen AI อาจมีอคติแอบแฝง หรือมีภาพจำที่ยังเป็น Stereotype ทำให้ Gen AI สร้างผลลัพธ์ที่มีความเอนเอียง ไม่เป็นกลาง
ปัญหาด้านลิขสิทธิ์ เรื่องใหญ่ที่หลายๆ คนจับตา เพราะการใช้ Gen AI สร้างภาพ หรือแม้แต่ข้อความอาจมีประเด็นเรื่องการละเมิดลิขสิทธิ์ของเจ้าของผลงานตัวจริง เพราะอย่าลืมว่า ภาพหรือข้อความที่ AI สร้างมาให้เรา มาจากการประมวลผลจากแหล่งข้อมูลมหาศาล
ซึ่งอาจมีการดึงเนื้อหาหรือผลงานของเจ้าของลิขสิทธิ์เดิมมาใช้โดยไม่ได้รับอนุญาต ส่งผลให้เกิดความเสี่ยงต่อการละเมิดลิขสิทธิ์โดยไม่ตั้งใจได้
การละเมิดข้อมูลส่วนบุคคลและความเป็นส่วนตัว หากไม่มีการควบคุมการใช้งานและได้รับการออกแบบให้ปลอดภัย Gen AI อาจนำข้อมูลส่วนบุคคล หรือความลับองค์กรมาใช้หรือเผยแพร่โดยไม่ได้รับอนุญาต
ความไม่แน่นอน ไม่คงที่ของผลลัพธ์ แม้ว่าจะสั่งการโดยใช้ Prompt และป้อนข้อมูลให้กับ Gen AI แบบเดียวกัน แต่คำตอบที่ได้อาจแตกต่างกัน
ความเข้าใจ Gen AI ที่ไม่เพียงพอ อาจทำให้ไม่สามารถใช้ประโยชน์จาก Gen AI ได้อย่างเต็มที่ หรืออาจนำไปสู่การตัดสินใจที่ผิดพลาด และเกิดผลกระทบต่อตนเองและผู้อื่นได้
ความเสี่ยงจากการใช้งานโดยผู้ไม่หวังดี Gen AI อาจถูกนำไปใช้สร้างปัญหา เช่น การเผยแพร่ข่าวปลอมหรือการหลอกลวงบนโลกออนไลน์
อย่างไรในมุมกลับกันความเสี่ยง ไม่ใช่แค่จะมีแต่ความเสี่ยงจากการใช้งานเท่านั้น ‘ความเสี่ยงจากการไม่ใช้’ ก็ถือเป็นอีกหนึ่งมุมที่ไม่ควรมองข้าม เพราะหากปรับตัวตามไม่ทันและไม่นำ Gen AI มาใช้ให้เกิดประโยชน์ อาจทำให้เสี่ยงยิ่งกว่า เพราะจะเสี่ยงต่อการถูกคนที่ใช้ Gen AI แซงหน้าแล้ว องค์กรอาจเสียโอกาสในการพัฒนาและเสียเปรียบในด้านความสามารถในการแข่งขันอีกด้วย
การนำ Gen AI ไปใช้ประโยชน์ จึงต้องชั่งน้ำหนักหาจุดสมดุลว่า ระหว่าง ประโยชน์ที่จะได้รับ และ ความเสี่ยงที่อาจจะเกิดขึ้น เพื่อให้สามารถใช้ Gen AI ได้อย่างเหมาะสม มีความรับผิดชอบเกิดประโยชน์สูงสุด เกิดผลกระทบน้อยที่สุด และอยู่บนพื้นฐานของจริยธรรมและธรรมาภิบาล จึงเป็นสิ่งที่ทุกฝ่ายต้องให้ความสำคัญ
โดยผู้เชี่ยวชาญ ระบุว่า ฝั่งผู้พัฒนา Gen AI ต้องพัฒนา Gen AI ให้มีความปลอดภัยและน่าเชื่อถือ มีความรับผิดชอบในการเลือกใช้ข้อมูลที่มีคุณภาพในการฝึกฝน AI เพื่อลดอคติ (Bias) และป้องกันความผิดพลาดในผลลัพธ์ ไปพร้อมกับการพัฒนานวัตกรรมที่ปลอดภัย โปร่งใส ตรวจสอบได้ และสอดคล้องกับหลักจริยธรรมและธรรมาภิบาล เพื่อให้ผู้ใช้งานมั่นใจ มีความรับผิดชอบ เพื่อป้องกันการนำไปใช้ในทางที่ผิด และมีแนวทางป้องกันผลกระทบที่อาจเกิดขึ้น
ขณะที่ ฝั่งผู้ใช้ Gen AI จำเป็นต้องเรียนรู้และทำความเข้าใจ AI literacy เพื่อให้รู้เท่าทันตระหนักถึงขอบเขต ข้อจำกัด และความเสี่ยงที่อาจจะเกิดขึ้น และต้องใช้งานอย่างมีสติและมีวิจารณญาณ เพราะ Gen AI เป็นแค่ผู้ช่วย ไม่ใช่ผู้แทน ต้องแยกแยะให้ออกว่างานลักษณะไหนที่สามารถปล่อยให้ Gen AI ทําแทนได้ แต่บางงานต้องมีคนอยู่ด้วยในการใช้ Gen AI และนำไปใช้อย่างรับผิดชอบ คำนึงถึงผลกระทบที่อาจเกิดขึ้น
และเลี่ยงการใช้ Gen AI ในทางที่สุ่มเสี่ยงหรือเผยแพร่เนื้อหาที่เป็นอันตราย ละเมิดจริยธรรมและกฎหมาย ที่ขาดไม่ได้คือ ต้องรักษาความปลอดภัยของข้อมูล อย่าป้อนข้อมูลส่วนตัว อ่อนไหว หรือความลับ เข้าสู่ระบบ AI เด็ดขาด
ภาพ pixabay.com
สำหรับใน ส่วนภาครัฐที่มีหน้าที่กำกับดูแล นอกจากการสร้างความตระหนักรู้ เพิ่มความเข้าใจ ส่งเสริม AI Literacy ให้กับประชาชน ก็ต้องเร่งส่งเสริม AI Transformation ในองค์กร ผ่านการให้คำปรึกษา สนับสนุนด้านงบประมาณ รวมถึงพัฒนาบุคลากร ตลอดจน พัฒนากฎระเบียบ มาตรฐาน ข้อบังคับ กำหนดกรอบ ธรรมาภิบาล (Governance Framework) ให้มีความชัดเจน ทันต่อเทคโนโลยี
สุดท้ายแล้วหากมีความเข้าใจและรู้เท่าทัน การใช้งานก็จะช่วยลดความเสี่ยงในมิติต่างๆ ทั้งต่อผู้ใช้งาน องค์กร หรือสังคม ช่วยให้การนำ Gen AI ไปใช้งานได้ประโยชน์อย่างสูงสุด!!
จิราวัฒน์ จารุพันธ์
————————————————————————————————————————-
ที่มา : ฐานเศรษฐกิจ / วันที่เผยแพร่ 29 ธ.ค.67
Link : https://www.thansettakij.com/technology/technology/615548