วิวัฒนาการ AI สู่ Deep Research เมื่อ LLM เปลี่ยนโฉมวิจัย ค้นคว้า

Loading

    Generative AI ภาษาขนาดใหญ่ (LLM) อย่าง ChatGPT มีพัฒนาการอย่างรวดเร็ว เมื่อเทียบกับช่วงเปิดตัว ChatGPT 3.5 ครั้งแรกในเดือน พ.ย.2565 Generative AI ภาษาขนาดใหญ่ (LLM) อย่าง ChatGPT มีพัฒนาการอย่างรวดเร็ว เมื่อเทียบกับช่วงเปิดตัว ChatGPT 3.5 ครั้งแรกในเดือน พ.ย.2565 ตอนนั้น ChatGPT ถือเป็นระบบปิด ทำหน้าที่เสมือนคลังความรู้ขนาดใหญ่ที่ตอบคำถามหรือสร้างข้อความตามรูปแบบคลังข้อมูลมหาศาลที่เคยเรียนรู้ โดยไม่มีความสามารถค้นคว้าข้อมูลนอกเหนือจากข้อมูลที่ฝังอยู่ในโมเดลของตนเอง   ข้อมูลนี้มักไม่ทันสมัยและไม่สามารถเข้าถึงข้อมูลแบบเรียลไทม์ได้ ดังนั้น เมื่อมีการค้นหาคำตอบจาก ChatGPT ในตอนนั้นก็จะเป็นการสรุปหรือสร้างเนื้อหาจากความรู้ที่มีอยู่โดยขาดการอ้างอิงแหล่งที่มาและไม่สามารถเข้าถึงข้อมูลล่าสุดได้ ทำให้มีความเสี่ยงในการให้ข้อมูลผิด (Hallucination) และไม่ทราบบริบทปัจจุบันอย่างเพียงพอ   ในตอนนั้นหลายคนยังใช้ ChatGPT ไม่ถูกกับงาน โดยเอามาค้นหาข้อมูลแทน Google แท้จริงโมเดล LLM เหล่านั้น จะถูกสร้างมาเพื่องานสร้างเนื้อหา (ถึงเรียกว่า Generative AI) และจะมีจินตนาการสร้างสรรค์เนื้อหาค่อนข้างมาก จึงไม่แปลกที่จะได้คำตอบที่ผิด เพราะโมเดลเหล่านั้นถูกสร้างมาจากคลังข้อมูลที่ไม่ได้ถูกระบุว่าถูกหรือผิด ดังนั้น ChatGPT จึงไม่ได้เอามาแทน Google…

ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…