ชวนคิด เมื่อปัญญาประดิษฐ์ (AI) กำลังส่งผลกับพฤติกรรมและความคิดของเรา พร้อมกับการใช้ Data Science โดยไม่รู้ตัว จริงไหม ?
ดร.เจษฎา กาญจนะ นักวิจัยกลุ่มวิจัยปัญญาประดิษฐ์ เนคเทค สวทช. ชวนคิดย้อนเวลาไปประมาณกว่า 10 ปีที่ผ่านมา เมื่อหนึ่งสัปดาห์ของเดือนมกราคม พ.ศ. 2555 ตั้งแต่วันที่ 11 ถึงวันที่ 18 ผู้ใช้งาน Facebook จำนวน 689,003 คน (หรือประมาณ 1 ใน 2,500 คนของผู้ใช้งานขณะนั้น) ถูกสุ่มให้ใช้อัลกอริทึมที่ถูกปรับเปลี่ยนสำหรับคัดเลือกให้เห็น News Feed หรือข้อความของเพื่อนแค่บางแบบเท่านั้น
ผู้ใช้กลุ่มหนึ่งเห็นข่าวดี หรือข้อความบวกเยอะกว่าข้อความเชิงลบ ในขณะที่ผู้ใช้อีกกลุ่ม เห็นข่าวร้ายหรือข้อความลบเยอะกว่า จุดประสงค์ของการทดลองคือ การศึกษาการแพร่กระจายทางอารมณ์ (emotional contagion) ผ่านสื่อสังคมออนไลน์ Facebook และทีมวิจัยต้องการดูว่า อารมณ์สามารถส่งต่อระหว่างคนเมื่อเห็นเฉพาะข้อความตามตัวอักษร โดยไม่มีปฏิสัมพันธ์ทางกายภาพได้หรือไม่
ข้อสรุปจากการศึกษานี้คือ อารมณ์ของผู้ใช้งาน Facebook (ซึ่งอนุมานจากจำนวนคำที่มีความหมายบวกหรือลบที่ผู้ใช้งานเขียนข้อความของตัวเอง) ได้รับอิทธิพลจากข้อความที่เขาหรือเธอเห็นใน News Feed นั่นคือ คนที่เห็นข่าวร้ายมากกว่า มีแนวโน้มจะเขียนข้อความเชิงลบ ส่วนคนที่เห็นข่าวดีมากกว่า ก็มีแนวโน้มที่จะเขียนข้อความบวก [1]
ข้อตกลงทางจริยธรรม และความเป็นส่วนตัว (Privacy) ที่ไม่ควรมองข้าม !
เรื่องนี้เป็นตัวอย่างหนึ่งของปัญหาจริยธรรมในมิติการทดลองกับมนุษย์ (human experimentation) สำหรับบางคนที่โชคร้ายหน่อย อาจตั้งคำถามว่า ทำไมฉันต้องถูกยัดเยียดความหดหู่ในชีวิตเพิ่มเข้ามาหนึ่งสัปดาห์ นี่เป็นการทดลองที่ผู้ถูกทดลองไม่รู้ตัว และถึงแม้จะเป็นการทดลองที่ผู้ถูกทดลองไม่รู้ตัว แต่ในแง่มุมกฎหมายนั้น Facebook สามารถพูดได้ว่า ได้รับความยินยอม (informed consent) สำหรับการทดลองดังกล่าวจากผู้ใช้งานแล้ว เพราะผู้ใช้งานทุกคนต้องคลิกให้ความยินยอมตอนสร้างบัญชีครั้งแรก
หลังจาก Facebook และทีมนักวิจัยได้เผยแพร่ข้อมูลเกี่ยวกับการทดลอง ก็มีเสียงวิพากษ์วิจารณ์ในประเด็นจริยธรรม ความเป็นส่วนตัว (privacy) และนิยามของความยินยอมตามมามากมาย [2, 3] โดยเฉพาะประเด็นเชิงจริยธรรมที่ว่าด้วยหลักการไม่ทำร้ายผู้อื่น (nonmaleficence) ซึ่งสามารถตีความกว้างกว่าการไม่ทำร้ายร่างกาย ขยายไปครอบคุลมถึงการไม่ทำร้ายจิตใจด้วย
ประเด็นทางจริยธรรมที่เกี่ยวข้องกับวิทยาศาสตร์ข้อมูล (Data Science) เป็นเรื่องละเอียดอ่อนและสำคัญ เพราะข้อมูล Big Data และ AI มีพลังอำนาจ สามารถส่งผลกระทบทางสังคมที่ชวนตั้งคำถาม ไม่น่าพอใจ และไม่เป็นธรรม เราจะตัดสินใจเลือกข้างไหนระหว่าง ความรู้หรือผลิตภัณฑ์ที่สกัดได้จากข้อมูลขนาดใหญ่กับหลักการไม่ทำร้ายผู้อื่น เมื่อทั้งสองฝ่ายต้องเผชิญหน้ากัน
สำหรับตัวอย่างการแพร่กระจายทางอารมณ์นี้ นักเขียนและนักวิทยาศาสตร์คอมพิวเตอร์ Jaron Lanier ได้ตั้งคำถามที่น่าสนใจข้อหนึ่งว่า ทำไม Facebook ต้องออกมาบอกให้คนอื่นรู้เกี่ยวกับผลการทดลองที่ตัวเองไปแอบชี้นำ (manipulate) อารมณ์ของผู้ใช้งาน โดยที่ผู้ใช้งานไม่รู้ตัว ทั้ง ๆ ที่น่าจะคาดเดาได้ถึงเสียงวิจารณ์ที่จะตามมา คำตอบที่เขาเสนอนั้นค่อนข้างน่าหวั่นใจครับ เขาคิดว่า Facebook อาจอยากส่งข้อความนี้ไปยังลูกค้าตัวจริงผู้พร้อมที่จะควักเงินจ่ายสำหรับบริการการชี้นำผู้ใช้งานในอนาคต ไปในทิศทางที่ลูกค้าตัวจริงคาดหวัง และในกรณีนี้ ผู้ใช้งานอย่างเราก็เป็นประหนึ่งสินค้าที่ Facebook ขายให้กับลูกค้าตัวจริง [4] ดังกรณีตัวอย่างเรื่องอื้อฉาวของ Facebook กับ Cambridge Analytica ที่ใช้ข้อมูลผู้ใช้งานในการชี้นำทางการเมือง [5]
แล้วแบบไหนที่ Data Science & AI จะนำมาใช้ทดลองกับมนุษย์ได้
ยังมีตัวอย่างที่แสดงให้เห็นอำนาจของวิทยาศาสตร์ข้อมูลกับปัญหาจริยธรรม โดยเฉพาะในส่วนของการทดลองกับมนุษย์อีกหลากหลาย บางตัวอย่างก็ไม่ขัดแย้งต่อหลักการการไม่ทำร้ายผู้อื่นอย่างโจ่งแจ้ง เช่น การใช้เทคนิค A/B testing ในการระดมทุนหาเสียงเลือกตั้งของโอบามา เพื่อหาว่าหน้าตาเว็บเพจแบบไหน หรือปุ่มกดแบบไหน (เช่น ปุ่มกดพร้อมข้อความ Join Us Now, Learn More, Sign Up Now หรือ Sign Up) ที่จะชักจูงคนได้มากกว่ากัน ทีมหาเสียงเลือกตั้งของโอบามาได้ประมาณการว่า A/B testing ช่วยให้คนคลิกลงทะเบียนเพิ่มขึ้น 40% และระดมเงินได้มากขึ้น 60 ล้านเหรียญสหรัฐอเมริกา [6]
แต่บางตัวอย่างก็มีใครบางคนถูกทำร้าย เช่น การทดลองของเว็บหาคู่ OkCupid ที่ไม่ได้บอกโอกาสจับคู่ผู้ใช้งานจากการคำนวณด้วยข้อมูลจริง ๆ แต่บอกตัวเลขมั่ว ๆ เพื่อศึกษาว่าการบอกตัวเลขแบบสุ่มนั้นจะส่งผลอะไรบ้าง เช่น ถ้าอัลกอริทึมคำนวณแล้วพบว่าโอกาสเข้าคู่กันคือ 30% แต่ OkCupid อาจหลอกผู้ใช้งานว่า โอกาสคือ 60% หรือ 90% ผลที่ตามมาจะเป็นยังไง [7] หรือการทดลอง Love is Blind Day ซึ่ง OkCupid ลบรูปผู้ใช้งานทั้งหมดออกจากเว็บวันหนึ่ง เพื่อศึกษาพฤติกรรมของผู้ใช้งาน ก่อนที่จะเอารูปกลับมาแสดงอีกทีตอน 4 โมงเย็นของวันเดียวกัน ขณะที่ผู้ใช้งานกว่า 2,000 คนกำลังสนทนา ผลที่ตามมาคือบทสนทนาของหลายคนสะดุดและถูกทำลายลงทันทีที่คู่สนทนาเห็นภาพใบหน้าของอีกฝ่าย [8] เป็นไปได้ว่าจิตใจของใครบางคนกำลังถูกทำร้าย
ประเด็นที่เป็นจุดร่วมของตัวอย่างทั้งหมดที่นำมาเล่าในบทความนี้ และอยากชวนผู้อ่านร่วมขบคิดคือ เราจะตัดสินใจอย่างไรว่าการทดลองกับมนุษย์แบบไหนทำได้ อะไรที่วิทยาการข้อมูลไม่ควรทำ หลักการ nonmaleficence ควรเป็นแค่หลักการ หรือควรเป็นอะไรที่มากกว่านั้น วิทยาศาสตร์ข้อมูลควรให้ความสำคัญกับจริยธรรมมากแค่ไหน ที่คงจะเป็นเรื่องน่าสนใจต่อไปสำหรับการออกกฎหมาย หรือการกำหนดมาตรการในบางเรื่อง ที่จะนำมาใช้เพื่อควบคุมการใช้งานได้อย่างถูกต้อง ไม่ละเมิดความเป็นส่วนบุคคล สร้างความเดือดร้อน ขัดต่อหลักจริยธรรม หรือผลกระทบทางสังคมที่อาจเกิดขึ้นตามมา
อ้างอิง
1. Kramer, A. D., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National academy of Sciences of the United States of America, 111(24), 8788.
2. Jouhki, J., Lauk, E., Penttinen, M., Sormanen, N., & Uskali, T. (2016). Facebook’s emotional contagion experiment as a challenge to research ethics. Media and Communication, 4(4).
3. H. V. Jagadish, วิชา Data Science Ethics ใน Coursera (https://www.coursera.org/learn/data-science-ethics)
4. Lanier, J. (2018). Ten arguments for deleting your social media accounts right now. Random House.
5. Julia Carrie Wong, The Cambridge Analytica scandal changed the world – but it didn’t change Facebook, The Guardian (https://www.theguardian.com/technology/2019/mar/17/the-cambridge-analytica-scandal-changed-the-world-but-it-didnt-change-facebook)
6. Brian Christian, The A/B Test: Inside the Technology That’s Changing the Rules of Business, Wired. (https://www.wired.com/2012/04/ff-abtesting/)
7. James O’Toole, OkCupid set up bad dates in ‘an experiment,’ CNN Business. (https://money.cnn.com/2014/07/28/technology/social/okcupid-experiment/)
8. NBC News, OKCupid Experiments on Users, Discovers Everyone Is Shallow. (https://www.nbcnews.com/tech/internet/okcupid-experiments-users-discovers-everyone-shallow-n166761)
บทความโดย ดร.เจษฎา กาญจนะ | นักวิจัยกลุ่มวิจัยปัญญาประดิษฐ์ เนคเทค สวทช.
——————————————————————————————————————————————————–
ที่มา : สปริงนิวส์ / วันที่เผยแพร่ 27 ธ.ค.66
Link : https://www.springnews.co.th/digital-tech/technology/846443