คุยกับ ‘นักวิจัย AI ไทย’ พัฒนา ‘Sovereign AI’ ให้พึ่งพาตนเองได้จริง

Loading

    ดีลยักษ์ใหญ่ของ สยามเอไอ (SIAM AI) ที่ลงทุนซื้อชิป NVIDIA H100 และได้เชิญ เจนเซ่น หวง ผู้ก่อตั้ง เอ็นวิเดีย (Nvidia) มาเยือนประเทศไทย ได้ปลุกกระแสปั้นไทยเป็นผู้นำการประมวลผล AI ในเอเชียตะวันออกเฉียงใต้   แต่เส้นทางการไปสู่ดาต้าเซนเตอร์ระดับภูมิภาคนั้นไม่ง่ายและไม่ถูก หนึ่งในนักวิจัย AI ไทยที่สัมผัสชิป เอ็นวิเดียตั้งแต่รุ่นแรก ได้วิเคราะห์โอกาสและความท้าทายของไทยที่ต้องเตรียมพร้อมโครงสร้างพื้นฐาน AI ทั้งฮาร์ดแวร์และซอฟต์แวร์ไว้อย่างน่าสนใจ   รศ.ดร.ธนารัตน์ ชลิดาพงศ์ เจ้าของเพจ Carbonoi หรือ อ.ฝน อาจารย์ประจำภาควิชาวิศวกรรมคอมพิวเตอร์ คณะวิศวกรรมศาสตร์ และรองคณบดี สำนักวิชาทรัพยากรการเกษตร จุฬาลงกรณ์มหาวิทยาลัย เล่าว่า ย้อนไปตั้งแต่ปี 2563 จุฬาลงกรณ์มหาวิทยาลัยเป็นเจ้าแรกที่ลงทุนซื้อ NVIDIA DGX A100 มูลค่าหลายล้านบาทมาใช้ในงานวิจัย     คุยกับ ‘นักวิจัย AI ไทย’ พัฒนา…

แอบขโมยข้อมูล ใช้ ช่องโหว่ ChatGPT สร้างความทรงจำปลอม

Loading

เมื่อไม่นานมานี้ นักวิจัยด้านความปลอดภัยชื่อ Johann Rehberger ได้รายงานถึงช่องโหว่ใน ChatGPT ที่ทำให้ผู้โจมตีสามารถจัดเก็บข้อมูลเท็จและคำสั่งอันตรายไว้ในส่วนการตั้งค่าความทรงจำระยะยาวของผู้ใช้ได้

‘Uncle Scam’ การโจมตีทางไซเบอร์ด้วยฟิชชิ่งแบบใหม่

Loading

เมื่อเร็วๆ นี้ นักวิจัยด้านความปลอดภัยตรวจพบฟิชชิ่งที่ขับเคลื่อนด้วย AI ชื่อว่า “Uncle Scam” ซึ่งเป็นการใช้เทคนิคขั้นสูงเชิงโต้ตอบและโมเดลภาษาขนาดใหญ่ LLM (Large Language Models) เพื่อสร้างอีเมลฟิชชิงที่น่าเชื่อ

ขนาดเป็น AI ยังต้องรักชาติ รัฐบาลจีนสั่งสอบโมเดล AI ในประเทศ ต้องดำรงไว้ซึ่งหลักสังคมนิยม

Loading

รัฐบาลจีน เดินหน้าตรวจสอบ AI ในจีน ว่ามีการตอบสนองต่อประเด็นการเมืองรวมถึงการพูดถึงประธานาธิบดี สี จิ้นผิง อย่างไร

AI เก่งเพราะขโมยข้อมูล ? : เมื่อบิ๊กเทค ‘โกง’ แอบเก็บข้อมูลฝึก AI

Loading

Scarlett Johansson นักแสดงสาวชื่อดัง ไม่พอใจที่ OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ อาจใช้เสียงของเธอในฟีเจอร์ ‘Voice Mode’ ของ ChatGPT โดยไม่ได้รับอนุญาต แม้ OpenAI จะออกมาปฏิเสธ และบอกว่าใช้เสียงของนักพากย์คนอื่น แต่หลายคนฟังแล้วต่างบอกว่าเสียงนั้นเหมือนกับโจฮันส์สันมาก จนอดคิดไม่ได้ว่าแท้จริงแล้ว OpenAI แอบนำเสียงเธอมาทำการเทรน AI หรือไม่ ?

ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…