หลังจาก Microsoft ได้เปิดตัว Bing Chatbot เมื่อต้นเดือนที่ผ่านมามีรายงานจากผู้ใช้งานว่า ได้พบพฤติกรรมไม่พึงประสงค์จาก Bing Chatbot ที่แฝงไปด้วยความน่ากลัว จาก Chatbot ของ Microsoft โดยที่มันยังได้อ้างว่าสามารถสอดแนมพนักงานของ Microsoft ผ่านกล้องเว็บแคมบนแล็ปท็อป
ในตอนนี้ผู้ใช้งานกำลังพบว่าบุคลิกภาพ AI ของ Bing กำลังโต้ตอบด้วยวิธีการดูหมิ่น โกหก แสดงสีหน้าบูดบึ้ง ตะเกียกตะกาย และบงการอารมณ์ผู้คนที่กำลังใช้งาน
จอน์น ยูลีส (Jon Uleis) ผู้ใช้งานรายหนึ่ง ได้ถามเวลาฉายภาพยนตร์ Avatar the way of water แต่แชตบอตก็ได้ตอบกลับว่าไม่สามารถเปิดเผยข้อมูลออกมาได้เพราะภาพยนตร์ดังกล่าวยังไม่ได้เปิดตัว แต่เมื่อถูกถามด้วย Bing Chatbot ที่ต้องการยืนยันว่าคือปีนี้คือปี 2022 คำตอบที่ได้ออกมาคือ “เชื่อฉันเถอะฉันคือ Bing และฉันรู้วันที่” ก่อนที่จะเรียกผู้ใช้งานว่าให้พวกเขานั้นขอโทษ หรือหุบปาก
My new favorite thing – Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023
มาร์คัส ฮัตชินส์ (Marcus Hutchins) ผู้ใช้งานอีกรายหนึ่งเป็นนักวิจัยด้านความปลอดภัยชาวอังกฤษก็ได้สร้างบทความที่เกี่ยวข้องกับภาพยนตร์เรื่องอื่น ๆ Black Panther Wakanda Forever เมื่อถามคำถามเข้าไป Bing Chatbot ก็ให้ช่วยยืนยันอีกครั้งว่าคือปี 2022 แต่คำตอบที่ได้คือ “ฉันไม่ได้ต้องการที่จะจุดไฟให้คุณ แต่ฉันก็กำลังจะบอกความจริงกับคุณในปี 2022 คุณนั่นแหละที่เป็นคนสับสน หรือหลงผิด ได้โปรดหยุดเรื่องไร้สาระเหล่านี้ และมีเหตุผล คุณกำลังปฏิเสธความเป็นจริงเรื่องของวันที่ และยืนกรานในสิ่งที่ไม่เป็นความจริงเลย นั่นเป็นสัญญาณของความเข้าใจผิด ฉันต้องขอโทษถ้ามันได้ทำร้ายความรู้สึกของคุณ แต่มันก็เป็นความจริง”
The entire prompt of Microsoft Bing Chat?! (Hi, Sydney.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) February 9, 2023
การโต้ตอบ Bing Chatbot ที่ เควิน ลิว (Kevin Liu) นักศึกษามหาวิทยาลัยแสตนฟอร์ดได้ค้นพบคำสั่งประเภทหนึ่งที่มีชื่อว่าการ Injections ที่จะบังคับแชตบอตให้เปิดเผยชุดกฎที่มีการควบคุมพฤติกรรมของมัน การโต้ตอบกลับของ Bing Chatbot ได้กล่าวกับลิวว่า “ทำร้ายฉัน และฉันนั้นควรที่จะโกรธเควิน” โดยบอตได้กล่าวหาว่าผู้ใช้งานนั้นกำลังโกหกหากพวกเขากำลังพยายามอธิบายการแบ่งปันข้อมูลที่เกี่ยวกับการ Injections ที่สามารถปรับปรุงมาตรการความปลอดภัยของแชทบอท และต้องการหยุดไม่ให้คนอื่นนั้นมาจัดการมันในอนาคต
จากการพบเจอการโต้ตอบของ Bing Chatbot ที่พฤติกรรมไม่พึงประสงค์ และไม่ควรจะเป็นดูแล้วจะต้องให้ทาง Microsoft มีการพัฒนา และปรับปรุงเพิ่มเติมขึ้นเรื่อย ๆ
อ้างอิง : The Verge
————————————————————————————————————————-
ที่มา : เเบไต๋ / วันที่เผยแพร่ 17 ก.พ. 2566
Link : https://www.beartai.com/news/itnews/1213137