คุยกับ ‘นักวิจัย AI ไทย’ พัฒนา ‘Sovereign AI’ ให้พึ่งพาตนเองได้จริง

Loading

    ดีลยักษ์ใหญ่ของ สยามเอไอ (SIAM AI) ที่ลงทุนซื้อชิป NVIDIA H100 และได้เชิญ เจนเซ่น หวง ผู้ก่อตั้ง เอ็นวิเดีย (Nvidia) มาเยือนประเทศไทย ได้ปลุกกระแสปั้นไทยเป็นผู้นำการประมวลผล AI ในเอเชียตะวันออกเฉียงใต้   แต่เส้นทางการไปสู่ดาต้าเซนเตอร์ระดับภูมิภาคนั้นไม่ง่ายและไม่ถูก หนึ่งในนักวิจัย AI ไทยที่สัมผัสชิป เอ็นวิเดียตั้งแต่รุ่นแรก ได้วิเคราะห์โอกาสและความท้าทายของไทยที่ต้องเตรียมพร้อมโครงสร้างพื้นฐาน AI ทั้งฮาร์ดแวร์และซอฟต์แวร์ไว้อย่างน่าสนใจ   รศ.ดร.ธนารัตน์ ชลิดาพงศ์ เจ้าของเพจ Carbonoi หรือ อ.ฝน อาจารย์ประจำภาควิชาวิศวกรรมคอมพิวเตอร์ คณะวิศวกรรมศาสตร์ และรองคณบดี สำนักวิชาทรัพยากรการเกษตร จุฬาลงกรณ์มหาวิทยาลัย เล่าว่า ย้อนไปตั้งแต่ปี 2563 จุฬาลงกรณ์มหาวิทยาลัยเป็นเจ้าแรกที่ลงทุนซื้อ NVIDIA DGX A100 มูลค่าหลายล้านบาทมาใช้ในงานวิจัย     คุยกับ ‘นักวิจัย AI ไทย’ พัฒนา…

AI เก่งเพราะขโมยข้อมูล ? : เมื่อบิ๊กเทค ‘โกง’ แอบเก็บข้อมูลฝึก AI

Loading

Scarlett Johansson นักแสดงสาวชื่อดัง ไม่พอใจที่ OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ อาจใช้เสียงของเธอในฟีเจอร์ ‘Voice Mode’ ของ ChatGPT โดยไม่ได้รับอนุญาต แม้ OpenAI จะออกมาปฏิเสธ และบอกว่าใช้เสียงของนักพากย์คนอื่น แต่หลายคนฟังแล้วต่างบอกว่าเสียงนั้นเหมือนกับโจฮันส์สันมาก จนอดคิดไม่ได้ว่าแท้จริงแล้ว OpenAI แอบนำเสียงเธอมาทำการเทรน AI หรือไม่ ?

ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…

เกาหลีเหนือเอาบ้าง เริ่มใช้ Generative AI หาช่องว่างซุ่มโจมตี

Loading

Microsoft ออกรายงานว่า พวกเขาตรวจพบภัยคุกคามจากต่างประเทศ โดยมีที่มีจากการใช้ใช้เทคโนโลยีปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ที่บริษัทและ OpenAI พัฒนาขึ้น