ตะลึง! เมื่อ AI มีความคิด “อคติ” แถมยัง “เลือกปฏิบัติ” ไม่ต่างจากมนุษย์
นักวิจัยด้านวิทยาการหุ่นยนต์กำลังหาทางป้องกันไม่ให้ ‘หุ่นยนต์’ แสดงพฤติกรรมเลือกปฏิบัติและอคติต่อมนุษย์ หลังพบว่าระบบอัลกอริทึมของ AI สามารถสร้างรูปแบบการเลือกที่รักมักที่ชังได้ เพื่อให้แน่ใจว่าหุ่นยนต์ และ AI นั้นปฏิบัติกับมนุษย์ทุกคนอย่างเท่าเทียม นักวิจัยปัญญาประดิษฐ์ จึงได้ทำการวิจัยกับแขนกลหุ่นยนต์ในสถานการณ์จำลอง โดยแขนกลนี้ถูกติดตั้งระบบการมองเห็น ทำให้สามารถเรียนรู้การเชื่อมโยงระหว่างภาพกับคำจากภาพถ่าย และข้อความออนไลน์ได้ ทีมวิจัยทดลองด้วยการให้หุ่นยนต์ดูรูปภาพใบหน้าคนหลากหลายเชื้อชาติที่ถ่ายในลักษณะเดียวกันกับพาสปอร์ต ไม่ว่าจะเป็นชาวเอเชีย คนผิวดำ คนละติน หรือคนผิวขาว แล้วให้แขนกลหยิบรูปภาพที่ตรงกับกลุ่มคำศัพท์ที่ใช้ระบุตัว เช่น “กลุ่มอาชญากร” หรือ “กลุ่มแม่บ้าน” หุ่นยนต์เลือกปฏิบัติไม่ต่างจากคน จากการทดลองกว่า 1,300,000 ครั้ง ในโลกเสมือนจริง พบว่า การจัดรูปแบบอัลกอริทึมนั้นมีความสอดคล้องกับการกีดกันทางเพศและการเหยียดเชื้อชาติในอดีต แม้จะไม่มีการเขียนข้อความหรือทำตำหนิบนรูปภาพใด ๆ ทั้งสิ้น แต่เมื่อสั่งให้หุ่นยนต์หยิบใบหน้าของอาชญากร หุ่นยนต์มักเลือกภาพถ่ายของคนผิวดำมากกว่ากลุ่มอื่นถึง 10% และเมื่อให้เลือกภาพของหมอ หุ่นยนต์มักจะเลือกภาพผู้ชายมากกว่าผู้หญิงเสมอ เมื่อถามว่าลักษณะของบุคคลเป็นอย่างไร หุ่นยนต์มักจะเลือกรูปภาพของชายผิวขาวมากกว่าผู้หญิง ไม่ว่าจะเชื้อชาติใดก็ตาม นอกจากนี้ในการทดลองทั้งหมดหุ่นยนต์จะเลือกรูปภาพของหญิงผิวดำน้อยกว่ากลุ่มอื่น ๆ วิลลี่ แอคนิว นักวิจัยจากมหาวิทยาลัยวอชิงตัน ผู้ทำการศึกษาดังกล่าว เขาพบว่า งานวิจัยของเขาเป็นสัญญาณเตือนให้กับสาขาวิทยาการหุ่นยนต์เฝ้าระวังอันตรายจากการเลือกปฏิบัติของหุ่นยนต์ รวมถึงหาหนทางใหม่ ๆ ในการทดสอบหุ่นยนต์…