ฟ้อง! OpenAI ใช้ข้อมูลสาธารณะฝึก ChatGPT

Loading

    กลุ่มบุคคลนิรนามบริษัท โอเพ่นเอไอ (OpenAI) ฐานใช้ข้อมูลสาธารณะเพื่อฝึกปัญญาประดิษฐ์หรือเอไอ (AI) อย่างแชตจีพีที (ChatGPT)   ปัญญาประดิษฐ์หรือเอไอ (AI) ชื่อดังอย่าง แชตจีพีที (ChatGPT) ของบริษัท โอเพ่นเอไอ (OpenAI) กลายเป็นดราม่าอีกครั้ง เมื่อกลุ่มบุคคลนิรนามรวมตัวกันเพื่อฟ้องร้องบริษัท โอเพ่นเอไอ ต่อศาลแขวงของสหรัฐอเมริกา เขตทางตอนเหนือของแคลิฟอร์เนีย ฐานใช้ข้อมูลสาธารณะเพื่อฝึกเอไอ ซึ่งละเมิดกฎหมายความเป็นส่วนตัว     คำฟ้องของกลุ่มคนนิรนาม   โดยกลุ่มบุคคลนิรนามระบุเอกสารในการยื่นฟ้องว่าบริษัท โอเพ่นเอไอได้คัดลอกข้อความบนอินเทอร์เน็ตกว่า 3 แสนล้านคำ เพื่อฝึกเอไอ ซึ่งเป็นข้อมูลสาธารณะที่อยู่บนวิกิพีเดีย (Wikipedia) และบนเฟซบุ๊ก (Facebook)   “แม้จะมีสนธิสัญญาชั้นต้นที่กำหนดไว้สำหรับการซื้อและการใช้ข้อมูลส่วนบุคคล แต่จำเลยกลับใช้วิธีการที่แตกต่างออกไป นั่นคือการโจรกรรม พวกเขาคัดแยกคำศัพท์ 3 แสนล้านคำจากอินเทอร์เน็ต, หนังสือ, บทความ, เว็บไซต์และโพสต์ รวมถึงข้อมูลส่วนบุคคลที่ได้มาโดยไม่ได้รับความยินยอม” – ข้อความที่ระบุไว้ในเอกสารยื่นฟ้องที่มีความยาวกว่า 157 หน้า   โดยกลุ่มผู้ฟ้องร้องได้อ้างถึงพระราชบัญญัติการฉ้อฉลและการใช้คอมพิวเตอร์ซึ่งเป็นกฎหมายต่อต้านการแฮ็กของรัฐบาลกลาง…

ข้อควรระวัง ‘ChatGPT’ ผู้เชี่ยวชาญระบุมีข้อมูลรั่ว ขายบนเว็บมืดมากที่สุด

Loading

  ข้อควรระวังใช้ ‘ChatGPT’ ผู้เชี่ยวชาญระบุพบข้อมูลรั่วไหลกว่า 1 แสนเครื่องส่วนหนึ่งเป็นข้อมูลจากระบบ chatgpt ถูกโจรกรรมปล่อยขายบนเว็บมืด เอเชียแปซิฟิกข้อมูลหลุดมากที่สุด   “ChatGPT” ระบบปัญญาประดิษฐ์ขั้นสูง หรือ AI ที่ถูกพัฒนาขีดความสามารถให้ตอบสอนได้คล้ายกับมนุษย์มากที่สุด โดย ChatGPT ได้รับการออกแบบมาให้มีการสนทนากับมนุษย์ในลักษณะที่แยกไม่ออกจากการสนทนาระหว่างมนุษย์ ส่งผลให้ที่ผ่านมาโปรแกรมดังกล่าวได้รับความนิยมอย่างมาก จนมีผู้เชี่ยวชาญออกมาบอกว่าเจ้า “ChatGPT” อาจจะสามารถเข้ามาแทนที่มนุษย์ในบางอาชีพได้เลย   หลังจากที่มีการเปิดตัว “ChatGPT” มีผู้ใช้งานสูงกว่า 50 ล้านคน และคาดว่าจะมีผู้ใช้งานหน้าใหม่เพิ่มขึ้นเรื่อย ๆ เพราะสามารถทำงานได้ดีสามารถตอบได้ทุกข้อสงสัย หากเปรียบเทียบกับการทำงานของ Google นั้นเรียกได้ว่าทำงานได้ละเอียดและสามารถหาข้อมูลที่ซ้ำซ้อนได้มากกว่า อย่างไรก็ตาที่ผ่านมา “ChatGPT” เติบโตอย่างรวดเร็วแซงหน้าแพลตฟอร์มอื่น ๆ แน่นอนว่าการเติบโตของเทคโนโลยีที่รวดเร็วมากขึ้นย่อมส่งผลเสียได้เช่นกัน   ผู้เชี่ยวชาญระบุไว้ว่า แท้จริงแล้ว “ChatGPT” ก็มีข้อเสียที่ควรจะระวัง เพราะที่ผ่านมาความนิยมของแพลตฟอร์มดังกล่าวไปเร็วและแรงมาก เพียงแค่เวลา 2 เดือนกลับมีคนทั่วโลกใช้งานไปแล้วกว่า 50 ล้านคน ตัวเลขดังกล่าวแสดงให้เห็นว่า เทคโนโลยีและดิจิทัลเติบโตไปเร็วมากๆ และแม้ว่าเทคโนโลยีจะทำให้การทำงาน หรือการทำธุรกิจเกิดความได้เปรียบ ต้องทำความเข้าใจว่า…

เปิดมุมมองความปลอดภัยไซเบอร์

Loading

    ในช่วงที่ผ่านมาได้มีการจัดงาน Trend Micro Risk to Resilience World Tour โดยมีผู้เชี่ยวชาญได้มาร่วมแลกเปลี่ยนประสบการณ์และมุมมองด้านภัยคุกคามทางไซเบอร์ รวมไปถึงการวางกลยุทธ์รับมือภัยคุกคามที่เกิดขึ้นจริงในปัจจุบัน จึงอยากมาแชร์มุมมองต่างๆ เพราะปัจจุบันเรื่องภัยไซเบอร์นับว่าเป็นปัญหาใกล้ตัวทุกคนเป็นอย่างมาก   เริ่มกันที่ ชัชวัฒน์ อัศวรักวงศ์ กรรมการผู้จัดการและประธานเจ้าหน้าที่บริหารด้านความมั่นคงปลอดภัยเทคโนโลยีสารสนเทศ (CISO) กสิกร บิซิเนส-เทคโนโลยี กรุ๊ป (KBTG) เล่าถึงสถานการณ์ที่ธุรกิจต้องรับมือกับการโจมตีว่า ในวันที่ธุรกิจธนาคารต้องยกระดับ ดิสรัปต์ตัวเองเข้าสู่ดิจิทัล เพื่อลดต้นทุนและเข้าถึงผู้บริโภคมากขึ้น ทำให้ทุกธนาคารต้องรับมือการโจมตีในรูปแบบคล้ายๆ กัน ไม่ว่าจะเป็น มัลแวร์ แรนซัมแวร์ หากใครมีจุดอ่อนหรือช่องโหว่ให้แฮกเกอร์เห็นก็จะถูกโจมตีทันที ขณะที่การโจมตี DDoS ยังมีอยู่ตลอดและไม่ได้ลดลง   ขณะที่บางองค์กรถูกโจมตีผ่าน Third Party เพราะเปิดให้พนักงานนำเครื่องมือส่วนตัวมาเชื่อมกับเน็ตเวิร์กในองค์กร หรือการนำเครื่องจากองค์กรกลับไปทำงานต่อที่บ้าน ซึ่งองค์กรจะต้องตระหนักว่าการทำงานลักษณะนี้มันปลอดภัยหรือไม่ และองค์กรพร้อมรับมือจากการถูกโจมตีรูปแบบนี้ไหม หรือในปัจจุบันที่ ChatGPT เข้ามาช่วยให้คนทำงานง่ายขึ้น ที่ผ่านมามีหลายองค์กรนำโค้ดหรือช่องโหว่องค์กรไปถาม ChatGPT ว่าสิ่งที่ทำอยู่มันดีหรือไม่ เพียงเพราะอยากให้ ChatGPT ช่วยแนะนำ กลับกลายเป็นว่าข้อมูลบริษัทของตัวเองรั่วไหลออกไปสู่โลกออนไลน์…

หยุดวิกฤตวันสิ้นโลก: AI อันตรายกับองค์กรของคุณอย่างไร

Loading

    เครื่องมือ AI ช่วยเพิ่มประสิทธิภาพในการทำงานได้ก็จริง แต่ก็ทำให้ชีวิตของวายร้ายไซเบอร์สะดวกขึ้นด้วยเช่นกัน งานวิจัยจาก Salesforce ให้ข้อมูลว่าผู้บริหารอาวุโสฝ่ายไอทีราว 2 ใน 3 (67%) ให้ความสำคัญกับ Generative AI (AI เชิงสร้างผลงาน) ในอนาคตอันใกล้นี้ ขณะเดียวกันราว 71% ก็เชื่อว่า AI จะนำมาซึ่งความเสี่ยงด้านความปลอดภัยของข้อมูลในรูปแบบใหม่ ๆ     ข้อมูลจากสมาคมผู้ประกอบการปัญญาประดิษฐ์ประเทศไทยระบุว่า ประเทศไทยมีการใช้ AI อย่างแพร่หลาย ทั้งในระดับผู้ประกอบการไปจนถึงหน่วยงานภาครัฐ โดยส่วนใหญ่ตื่นตัวในการนำเทคโนโลยี AI มาใช้ในองค์กร ขณะเดียวกันรายได้ของบริษัทสตาร์ตอัปด้านการพัฒนา AI ของไทยก็เพิ่มขึ้น 25% ในปี 2565 และคาดการว่าเพิ่มขึ้นราว 35% ในปี 2566   ปัจจุบันคนร้ายได้ใช้ ChatGPT และ Generative AI เพื่อช่วยเขียนโค้ดอันตราย (และอวดผลงานระหว่างกันในกลุ่มนักพัฒนา) ขณะที่ฝ่ายสนับสนุน ChatGPT…

เปิดเทคนิคการโจมตี ด้วย ‘ChatGPT’ แบบใหม่

Loading

  ปัจจุบัน ChatGPT ได้รับความสนใจจากผู้ใช้งานเป็นวงกว้างและคาดว่าจะเพิ่มสูงขึ้นเรื่อย ๆ ซึ่งจุดนี้เองนี้ที่ทำให้เหล่าบรรดาแฮ็กเกอร์มองเห็นโอกาสและช่องโหว่ในการบุกเข้าโจมตีเหยื่อ   ในวันนี้ผมจะขออธิบายเพื่อให้ท่านผู้อ่านได้เข้าใจถึงภัยคุกคามรูปแบบใหม่นี้เพื่อเป็นการตั้งรับกับสิ่งที่เราต้องเผชิญในเร็ว ๆ นี้กันนะครับ   ก่อนอื่นเลยผมขอพูดถึงเรื่องเทคนิคการโจมตีทางไซเบอร์แบบใหม่ที่ได้รับการขนานนามในวงการว่า “AI package hallucination” โดยได้รับการเปิดเผยจากทีมนักวิจัยว่า มีการใช้โมเดลภาษา OpenAI ChatGPT ทำให้แฮ็กเกอร์สามารถปล่อยสิ่งที่เป็นอันตรายเข้าไปในระบบที่นักพัฒนาทำงานอยู่   ChatGPT จะสร้างสิ่งต่าง ๆ ไม่ว่าจะเป็น URL ตัวอย่างอย่างอิงอ้าง (Reference) ไลบรารีโค้ด (Library code) และฟังก์ชันที่ไม่มีอยู่จริงขึ้นมาใหม่ โดยการปลอมแปลงโมเดลภาษาขนาดใหญ่หรือ LLM ซึ่งได้มีการรายงานแจ้งเตือนและอาจเป็นผลลัพธ์ที่ได้มาจากการเทรนนิ่งก่อนหน้านี้แล้ว   ทั้งนี้แฮ็กเกอร์จะใช้ความสามารถสร้างรหัสของ ChatGPT และใช้ประโยชน์จากไลบรารีโค้ดที่สร้างขึ้นเป็นแพ็กเกจเพื่อหลอกลวงและเผยแพร่ออกสู่โลกไซเบอร์ผ่าน typosquatting หรือ masquerading   เทคนิคนี้จะดำเนินการผ่านการตั้งคำถามกับ ChatGPT เพื่อขอแพ็คเกจการแก้ไขปัญหาเกี่ยวกับโค้ดและขอคำแนะนำแพ็กเกจที่หลากหลาย รวมไปถึงการขอบางแพ็คเกจที่ไม่ได้เผยแพร่ในที่เก็บข้อมูลที่ถูกกฏหมาย   จากนั้นจะเริ่มกระบวนการต่อไปคือการแทนที่แพ็กเกจเหล่านี้ทั้งหมดด้วยแพ็คเกจปลอมต่าง ๆ ซึ่งแฮ็กเกอร์จะหลอกล่อผู้ที่มีแนวโน้มจะใช้ตามคำแนะนำของ ChatGPT   ทั้งนี้ จากการทำ…

ทนายสหรัฐที่ใช้ตัวอย่างคดีปลอมในชั้นศาล ถูกศาลตัดสินสั่งปรับ 5,000 ดอลลาร์

Loading

  หลังจากการพิจารณาคดี ที่ทนายความ Steven Schwartz ใช้หลักฐานและตัวอย่างคดีปลอมจาก ChatGPT ในคดีฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย   ล่าสุด ศาลแขวงแมนแฮตตัน สหรัฐอเมริกา มีคำสั่งให้ Steven Schwartz, Peter LoDuca (ผู้รับช่วงต่อคดีจาก Steven) และ สำนักงานกฎหมายต้นสังกัด Levidow, Levidow & Oberman ถูกปรับ 5,000 ดอลลาร์   ผู้พิพากษาให้เหตุผลว่า Steven จงใจให้ข้อมูลเท็จกับศาลโดยการใช้หลักฐานและคดีปลอมจาก AI ขณะที่สำนักงานกฎหมายของฝั่ง Steven โต้แย้งว่าเป็นความผิดโดยบริสุทธิ์ใจ   ในคดีระหว่าง Steven และสายการบิน Avianca ซึ่งเป็นที่มาของเหตุการณ์ครั้งนี้ สายการบินขอให้ศาลยกฟ้อง ขณะที่ Steven รวบรวมหลักฐานคดีต่าง ๆ จาก ChatGPT ซึ่งเป็นข้อมูลปลอมมาใช้สู้คดี แต่กลับไม่สามารถหาที่มาของทั้ง 6 คดีที่นำมาอ้างได้เมื่อถูกทีมกฎหมายของสายการบินทวงถาม…