Artificial Intelligent technology (AI) เป็นเทคโนโลยีที่เป็นที่กล่าวถึงอย่างมากในขณะปัจจุบัน ข้อมูลจาก Grandviewresearch.com เผยว่า ตลาดของ AI ทั่วโลก ในปี 2566 อาจสูงถึง 196.6 พันล้านดอลลาห์สหรัฐ หรือประมาณ 6.684 ล้านล้านบาท
ซึ่งการคาดการณ์นี้มีความเป็นไปได้อย่างมาก โดยที่จะเห็นได้จากการมาถึงของเทคโนโลยีที่น่าสนใจและจับต้องได้ ตัวอย่างเช่น Generative AI ต่าง ๆ ที่ถูกปล่อยให้ออกมาทดลองใช้งานหรือใช้งานจริงจากบริษัทชั้นนำระดับโลก อย่าง “ChatGPT” ของ OpenAI หรือ “Bard” ของ Google เป็นต้น รวมถึงในประเทศไทยก็เปิดตัว Alisa ที่ให้บริการผ่าน Line Official จุดเด่นคือ ให้บริการด้วยภาษาไทย ที่ผู้ที่ทดลองใช้ยืนยันว่าค่อนข้างแม่นยำ ใช้ง่าย และตอบโจทย์การใช้งานได้เป็นอย่างดี
ทำไมต้องมีการตรวจสอบ AI
จากที่กล่าวมาข้างต้น จะเห็นได้ว่า AI ได้มีการพัฒนาไปถึงในระดับที่เข้าถึงได้ จับต้องได้ ไม่ใช่เรื่องยากสำหรับผู้สนใจอีกต่อไป แต่ในขณะเดียวกัน หากมองย้อนกลับไปถึงขั้นตอนการพัฒนา AI แล้ว การที่จะได้มาซึ่ง AI ต้องผ่านขั้นตอนของการพัฒนาจากแหล่งข้อมูลขนาดใหญ่ (Big Data) ผ่านขั้นตอนการเทรนโมเดล เพื่อคิด วิเคราะห์ ด้วยเทคนิคต่าง ๆ อาทิ Machine Learning เป็นต้น
แล้วจึงให้ผลลัพธ์ที่ผู้ใช้งานสามารถนำไปใช้ได้ตามวัตถุประสงค์ แต่ในบางครั้ง อาจมีผู้ใช้งานบางท่านได้รับผลลัพธ์ที่ผิดพลาด อ้างอิงแหล่งข้อมูลผิดพลาด และที่น่ากลัวคือ ผู้ใช้งานเองอาจมีการนำผลลัพธ์ที่ผิดพลาดจากที่ได้รับจาก AI ไปใช้งานจริง
เช่น กรณีของ Steven Schwartz ทนายความประสบการณ์สูงจากสำนักทนายความในนิวยอร์ก ได้มีการนำ ChatGPT ไปใช้ในการช่วยเพิ่มเติมข้อมูลในเอกสารที่ได้ทำการยื่นต่อศาล แต่ข้อมูลดังกล่าวไม่มีอยู่จริง โดยที่เจ้าตัวเองก็ไม่ทราบว่า สิ่งนี้คือข้อจำกัดที่อาจเกิดขึ้นได้ของ ChatGPT ปัญหาเช่นเดียวกับของทนายความท่านนี้ อาจเกิดขึ้นกับใครก็ตามที่ใช้งานเทคโนโลยีใหม่ โดยขาดความรอบคอบ และเข้าใจที่มาที่ไปของข้อมูลหรือผลลัพธ์ต่างๆเหล่านั้น
ในหลายประเทศ เริ่มมีการพัฒนาแนวทางทางด้านธรรมาภิบาลเพื่อการตรวจสอบและป้องกันปัญหาดังกล่าว ตัวอย่างเช่น AI Verify : AI GOVERNANCE TESTING FRAMEWORK & TOOLKIT หรือ กรอบการทำงานของการทดสอบธรรมาภิบาลทางด้าน AI และเครื่องมือ (อ่านเพิ่มเติมได้ที่ https://aiverifyfoundation.sg/)
ซึ่งเป็นหนึ่งในการพัฒนากรอบการทำงานที่จะทำให้เชื่อมั่นได้ว่า ระบบ AI จะสามารถทำงานได้อย่างไม่มีอคติ สามารถอธิบายการทำงาน และใช้งานได้อย่างปลอดภัย ตลอดจนส่งผลให้หน่วยงานต่าง ๆ ที่นำ AI ไปใช้งานดำเนินการได้อย่างโปร่งใสและมีความถูกต้อง เป้าหมายที่สำคัญของการพัฒนากรอบการดำเนินงาน เพื่อสนับสนุนความเชื่อมั่นในการใช้เทคโนโลยี AI ที่เพิ่มขึ้นสูงมากในปัจจุบัน
AI Verify ถูกพัฒนาขึ้นโดย The Infocomm Media Development Authority Singapore (IMDA) และ Personal Data Protection Commission (PDPC) ประเทศสิงคโปร์ เพื่อให้ผู้พัฒนาต่าง ๆ สามารถใช้การทดสอบทางเทคนิคและการตรวจสอบตามกระบวนการร่วมกันเพื่อประเมินระบบ AI ด้วยตนเองโดยสมัครใจ
โดย AI Verify เป็นกรอบและชุดเครื่องมือการทดสอบการกำกับดูแล AI ที่เมื่อนำมาใช้แล้ว จะสามารถทำให้ผู้เกี่ยวข้องตรวจสอบได้ว่าระบบ AI ของพวกเขาได้รับการนำไปใช้ในลักษณะที่มีความรับผิดชอบและเชื่อถือได้
ปัจจุบัน AI Verify อยู่ระหว่างการพัฒนาอย่างต่อเนื่อง โดยเวอร์ชั่นที่ใช้กันอยู่ในขณะนี้ คือ “Minimum Viable Product” (MVP) ที่มีจุดประสงค์เพื่อส่งเสริมความโปร่งใสระหว่างบริษัทและผู้มีส่วนได้ส่วนเสีย ซึ่งยังคงมีข้อจำกัดทางด้านเทคนิค ตลอดจนขนาดของชุดข้อมูลที่สามารถรองรับได้ แต่จัดว่ายังสามารถรองรับการทำงานได้ในปัจจุบัน
ซึ่งในอนาคตคาดว่าจะมีการพัฒนาอัพเกรดเป็นเวอร์ชันใหม่ ๆ ที่มีศักยภาพ และประสิทธิภาพมากขึ้นต่อไป สำหรับเป้าหมายของการพัฒนา AI Verify ก็คือ การกำหนดเกณฑ์มาตรฐานประสิทธิภาพสำหรับระบบ AI และแสดงเกณฑ์มาตรฐานเหล่านี้แก่ผู้มีส่วนได้ส่วนเสียทุกภาคส่วน ทั้งในส่วนผู้พัฒนาเอง และผู้บริโภค ซึ่งจะช่วยเพิ่มความน่าเชื่อถือให้กับองค์กรมากยิ่งขึ้น
อีกทั้งเป็นความพยายามส่วนหนึ่งของรัฐบาลสิงคโปร์ที่ต้องการจะสร้าง Community ในการเป็นศูนย์กลางในการกำกับดูแลและการทดสอบ AI ที่รวบรวม ทั้งผู้พัฒนา นักวิจัย ผู้ให้คำปรึกษา ผู้ให้บริการทางเทคโนโลยี ตลอดจนนักธุรกิจทางด้าน AI อย่างไรก็ดี หัวใจสำคัญแรกที่ผู้พัฒนา AI จำเป็นต้องแสดงให้ผู้ใช้งานได้เห็นถึง ความเป็นกลาง โปร่งใส่และตรวจสอบได้่ ของผลิตภัณฑ์ทางด้าน AI ที่ใช้อยู่
กรอบการทำงาน AI Verify หรือ AI Verify Framework อ้างอิงตามหลักจริยธรรม AI ตามมาตรฐานสากล โดยแบ่งเป็น 5 หลักสำคัญ ได้แก่ ความโปร่งใสในการใช้งาน AI และระบบ AI สอดคล้องกับ หลักการทางด้านความโปร่งใส โดยการเปิดเผยหรือให้ข้อมูลที่เหมาะสมที่เกี่ยวข้องกับเทคโนโลยี AI แก้ผู้ใช้งาน เพื่อให้สามารถตัดสินใจถึงผลลัพธ์ว่าจะมีการนำไปใช้งานต่อหรือไม่
การทำความเข้าใจว่า AI MODEL เข้าถึงการตัดสินใจได้อย่างไร
สอดคล้องกับ หลักการทางด้านการสามารถอธิบาย และหลักการในส่วนของการทำซ้ำได้ ซึ่งต้องอธิบายได้ถึงขั้นตอนกระบวนการต่าง ๆ อันเป็นที่มาของผลลัพธ์ที่แสดงจากระบบ AI ตลอดจนผลลัพธ์ที่เกิดขึ้นจากปัจจัยที่ใกล้เคียงกัน น่าจะต้องให้ผลลัพธ์ที่ไม่ต่างจากเดิมมากนัก
ความปลอดภัยและความยืดหยุ่นของระบบ AI สอดคล้องกับ หลักการทางด้านความปลอดภัย ความมั่นคงปลอดภัย และความทนทาน โดยระบบ AI ต้องมีความปลอดภัย เชื่อถือได้ และไม่เป็นสาเหตุของความเสียหายหรืออันตราย เช่น อันตรายด้าน Cybersecurity
ความเป็นธรรม หรือไม่จงใจเลือกปฏิบัติสอดคล้องกับหลักความเป็นธรรม ไม่มีอคติหรือเลือกปฏิบัติ รวมถึงคุณภาพของข้อมูลที่เป็นจุดตั้งต้นของการเทรนโมเดล ต้องเป็นข้อมูลคุณภาพดี ไม่โน้มเอียง ซึ่งอาจมีผลต่อผลลัพธ์ที่เกิดขึ้นได้
การบริหารจัดการและการกำกับดูแล AI สอดคล้องกับหลักการด้านความรับผิดชอบและการไม่ลดทอนการตัดสินใจของมนุษย์ รวมถึงต้องสนับสนุนการเติบโตอย่างทั่วถึง (Inclusive growth) ทั้งภาคเศรษฐกิจ สังคม และสิ่งแวดล้อม
ชุดเครื่องมือของ AI Verify หรือ AI Verify Toolkits ประกอบด้วย SHAP (Shapley Additive ExPlanations) สำหรับทดสอบการอธิบาย, Adversarial Robustness Toolkit สำหรับทดสอบความทนทาน และ AIF360 และ Fairlearn สำหรับทดสอบความเป็นธรรม ไม่อคติ ผู้ใช้สามารถปรับใช้ Toolkit เพื่อตรวจสอบภายใต้สภาพแวดล้อมภายในของตนเองได้
เมื่อผู้ใช้ทำการประเมินเรียบร้อยแล้ว ชุดเครื่องมือจะทำการวิเคราะห์ผล และจะจัดทำรายงานสรุปที่ช่วยให้ผู้ทดสอบสามารถเข้าใจผลการทดสอบได้ อย่างไรก็ดี ชุดเครื่องมือนี้ ยังมีข้อจำกัดในการทดสอบอยู่บ้าง
อาทิ การรองรับโมเดล AI ได้เฉพาะโมเดลที่มีลักษณะ Binary classification, Multiclass classification, and Regression ไม่สามารถทดสอบ Generative AI หรือ Large Language Modeling (LLM) ได้ รวมทั้งไม่แสดงผลลัพธ์ของมาตรฐานทางจริยธรรมในลักษณะว่า ประเมินไม่ผ่าน หรือ ประเมินตก เป็นต้น
การทดสอบผ่าน AI Verify ที่เป็นการทดสอบระบบ AI เทียบกับ AI Principles ที่ได้รับการยอมรับในระดับสากลนั้น จะสามารถสร้างความไว้วางใจกับผู้มีส่วนได้ส่วนเสีย ช่วยในการกำหนดกรอบการทดสอบที่พัฒนาโดยหน่วยงานกำกับดูและยกระดับ Toolkit กับแนวปฏิบัติที่ดีและเกณฑ์มาตรฐานของอุตสาหกรรม รวมถึงการมีส่วนร่วมในการพัฒนามาตรฐานระดับสากล
จะกล่าวโดยสรุปก็คือ AI Verify เป็นกรอบการดำเนินงานและเครื่องมือหนึ่งที่ถูกพัฒนาขึ้นเพื่อสนับสนุนหลักการจริยธรรมและธรรมมาภิบาลให้เกิดขึ้นใน AI ecosystem และภาคส่วนอื่น ๆ ที่มีการนำ AI ไปใช้ประโยชน์ เพื่อให้ผู้พัฒนา และผู้ใช้งานสามารถใช้งานได้อย่างไม่มีข้อกังวลใจ ทั้งในเรื่องความถูกต้องของข้อมูล การละเมิดสิทธิ์หรือองค์ความรู้ต่าง ๆ ที่มีอยู่เดิม
สำหรับในประเทศไทยนั้น มีหลายหน่วยงานของรัฐ ที่อยู่ระหว่างการศึกษาและจัดทำการส่งเสริมธรรมาภิบาล AI (AI governance) ในประเทศ ต่อเนื่องจาก การจัดทำแนวปฏิบัติทางด้านจริยธรรม AI (AI Ethics) ที่ดำเนินการเรียบร้อยไปแล้ว จึงมีความเป็นไปได้ว่า ในประเทศไทยอาจมีการพัฒนาเครื่องมือในลักษณะ AI Verify เพื่อใช้งานในอนาคตก็เป็นไปได้
ที่มา : grandviewresearch , aiverifyfoundation , imda
เรียบเรียงโดย คุณจินตนา พัฒนาพรชัย นักวิเคราะห์ ฝ่ายพัฒนาเครือข่ายเชิงกลยุทธ์และประเมินผล
—————————————————————————————————————————————————
ที่มา : สปริงนิวส์ / วันที่เผยแพร่ 6 ก.ย.66
Link : https://www.springnews.co.th/digital-tech/technology/842934