ฟ้อง! OpenAI ใช้ข้อมูลสาธารณะฝึก ChatGPT

Loading

    กลุ่มบุคคลนิรนามบริษัท โอเพ่นเอไอ (OpenAI) ฐานใช้ข้อมูลสาธารณะเพื่อฝึกปัญญาประดิษฐ์หรือเอไอ (AI) อย่างแชตจีพีที (ChatGPT)   ปัญญาประดิษฐ์หรือเอไอ (AI) ชื่อดังอย่าง แชตจีพีที (ChatGPT) ของบริษัท โอเพ่นเอไอ (OpenAI) กลายเป็นดราม่าอีกครั้ง เมื่อกลุ่มบุคคลนิรนามรวมตัวกันเพื่อฟ้องร้องบริษัท โอเพ่นเอไอ ต่อศาลแขวงของสหรัฐอเมริกา เขตทางตอนเหนือของแคลิฟอร์เนีย ฐานใช้ข้อมูลสาธารณะเพื่อฝึกเอไอ ซึ่งละเมิดกฎหมายความเป็นส่วนตัว     คำฟ้องของกลุ่มคนนิรนาม   โดยกลุ่มบุคคลนิรนามระบุเอกสารในการยื่นฟ้องว่าบริษัท โอเพ่นเอไอได้คัดลอกข้อความบนอินเทอร์เน็ตกว่า 3 แสนล้านคำ เพื่อฝึกเอไอ ซึ่งเป็นข้อมูลสาธารณะที่อยู่บนวิกิพีเดีย (Wikipedia) และบนเฟซบุ๊ก (Facebook)   “แม้จะมีสนธิสัญญาชั้นต้นที่กำหนดไว้สำหรับการซื้อและการใช้ข้อมูลส่วนบุคคล แต่จำเลยกลับใช้วิธีการที่แตกต่างออกไป นั่นคือการโจรกรรม พวกเขาคัดแยกคำศัพท์ 3 แสนล้านคำจากอินเทอร์เน็ต, หนังสือ, บทความ, เว็บไซต์และโพสต์ รวมถึงข้อมูลส่วนบุคคลที่ได้มาโดยไม่ได้รับความยินยอม” – ข้อความที่ระบุไว้ในเอกสารยื่นฟ้องที่มีความยาวกว่า 157 หน้า   โดยกลุ่มผู้ฟ้องร้องได้อ้างถึงพระราชบัญญัติการฉ้อฉลและการใช้คอมพิวเตอร์ซึ่งเป็นกฎหมายต่อต้านการแฮ็กของรัฐบาลกลาง…

ข้อควรระวัง ‘ChatGPT’ ผู้เชี่ยวชาญระบุมีข้อมูลรั่ว ขายบนเว็บมืดมากที่สุด

Loading

  ข้อควรระวังใช้ ‘ChatGPT’ ผู้เชี่ยวชาญระบุพบข้อมูลรั่วไหลกว่า 1 แสนเครื่องส่วนหนึ่งเป็นข้อมูลจากระบบ chatgpt ถูกโจรกรรมปล่อยขายบนเว็บมืด เอเชียแปซิฟิกข้อมูลหลุดมากที่สุด   “ChatGPT” ระบบปัญญาประดิษฐ์ขั้นสูง หรือ AI ที่ถูกพัฒนาขีดความสามารถให้ตอบสอนได้คล้ายกับมนุษย์มากที่สุด โดย ChatGPT ได้รับการออกแบบมาให้มีการสนทนากับมนุษย์ในลักษณะที่แยกไม่ออกจากการสนทนาระหว่างมนุษย์ ส่งผลให้ที่ผ่านมาโปรแกรมดังกล่าวได้รับความนิยมอย่างมาก จนมีผู้เชี่ยวชาญออกมาบอกว่าเจ้า “ChatGPT” อาจจะสามารถเข้ามาแทนที่มนุษย์ในบางอาชีพได้เลย   หลังจากที่มีการเปิดตัว “ChatGPT” มีผู้ใช้งานสูงกว่า 50 ล้านคน และคาดว่าจะมีผู้ใช้งานหน้าใหม่เพิ่มขึ้นเรื่อย ๆ เพราะสามารถทำงานได้ดีสามารถตอบได้ทุกข้อสงสัย หากเปรียบเทียบกับการทำงานของ Google นั้นเรียกได้ว่าทำงานได้ละเอียดและสามารถหาข้อมูลที่ซ้ำซ้อนได้มากกว่า อย่างไรก็ตาที่ผ่านมา “ChatGPT” เติบโตอย่างรวดเร็วแซงหน้าแพลตฟอร์มอื่น ๆ แน่นอนว่าการเติบโตของเทคโนโลยีที่รวดเร็วมากขึ้นย่อมส่งผลเสียได้เช่นกัน   ผู้เชี่ยวชาญระบุไว้ว่า แท้จริงแล้ว “ChatGPT” ก็มีข้อเสียที่ควรจะระวัง เพราะที่ผ่านมาความนิยมของแพลตฟอร์มดังกล่าวไปเร็วและแรงมาก เพียงแค่เวลา 2 เดือนกลับมีคนทั่วโลกใช้งานไปแล้วกว่า 50 ล้านคน ตัวเลขดังกล่าวแสดงให้เห็นว่า เทคโนโลยีและดิจิทัลเติบโตไปเร็วมากๆ และแม้ว่าเทคโนโลยีจะทำให้การทำงาน หรือการทำธุรกิจเกิดความได้เปรียบ ต้องทำความเข้าใจว่า…

หยุดวิกฤตวันสิ้นโลก: AI อันตรายกับองค์กรของคุณอย่างไร

Loading

    เครื่องมือ AI ช่วยเพิ่มประสิทธิภาพในการทำงานได้ก็จริง แต่ก็ทำให้ชีวิตของวายร้ายไซเบอร์สะดวกขึ้นด้วยเช่นกัน งานวิจัยจาก Salesforce ให้ข้อมูลว่าผู้บริหารอาวุโสฝ่ายไอทีราว 2 ใน 3 (67%) ให้ความสำคัญกับ Generative AI (AI เชิงสร้างผลงาน) ในอนาคตอันใกล้นี้ ขณะเดียวกันราว 71% ก็เชื่อว่า AI จะนำมาซึ่งความเสี่ยงด้านความปลอดภัยของข้อมูลในรูปแบบใหม่ ๆ     ข้อมูลจากสมาคมผู้ประกอบการปัญญาประดิษฐ์ประเทศไทยระบุว่า ประเทศไทยมีการใช้ AI อย่างแพร่หลาย ทั้งในระดับผู้ประกอบการไปจนถึงหน่วยงานภาครัฐ โดยส่วนใหญ่ตื่นตัวในการนำเทคโนโลยี AI มาใช้ในองค์กร ขณะเดียวกันรายได้ของบริษัทสตาร์ตอัปด้านการพัฒนา AI ของไทยก็เพิ่มขึ้น 25% ในปี 2565 และคาดการว่าเพิ่มขึ้นราว 35% ในปี 2566   ปัจจุบันคนร้ายได้ใช้ ChatGPT และ Generative AI เพื่อช่วยเขียนโค้ดอันตราย (และอวดผลงานระหว่างกันในกลุ่มนักพัฒนา) ขณะที่ฝ่ายสนับสนุน ChatGPT…

ความเป็นส่วนตัวและความปลอดภัย สิ่งสำคัญของการใช้เทคโนโลยี

Loading

    ตอนนี้เทคโนโลยี อย่าง AI, Blockchain และ Cloud เข้ามามีส่วนสำคัญในการขับเคลื่อนธุรกิจ ดังนั้น ความเป็นส่วนตัวและการป้องกันความปลอดภัย จึงเป็นสิ่งที่ตามมา ซึ่งเทคโนโลยีถ้าไม่มีการให้ความรู้กับผู้ใช้งาน ก็จะไร้ประโยชน์   ดร.ภาสกร ประถมบุตร รองผู้อำนวยการใหญ่ สำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa) กล่าวในงาน Digital Life Forum 2023 : นวัตกรรม เปลี่ยนชีวิต เปลี่ยนโลก จัดขึ้นโดย สปริงนิวส์ ว่า บทบาทของเราทำหน้าที่ส่งเสริมเศรษฐกิจดิจิทัล ผมอยากให้สิ่งที่ Drive คือความต้องการของคน เพราะเทคโนโลยีดียังไงแต่ไม่มีคนใช้ มันก็ไปไม่รอด เราพยายามผลักดัน SME ให้เทคโนโลยี ซึ่งจะเห็นได้ว่าเทคโนโลยีใช้เวลาน้อยลงในการเปลี่ยนวัฎจักร ซึ่งโควิดมาความต้องการเปลี่ยนก็ทำให้เทคโนโลยีเปลี่ยน ยกตัวอย่าง เวลาเราขึ้นตึกแล้วต้องแลกบัตรประชาชน เราก็กลัวข้อมูลรั่วไหล ก็ต้องมีการพัฒนาเทคโนโลยีเพื่อตอบโจทย์ความต้องการ     ปัจจุบันเรื่องของ Data มีความสำคัญและมี Value มาก ดังนั้นจึงมีเทคโนโลยีเกี่ยวกับ…

รัฐสภายุโรปผ่านร่างกฎหมายปัญญาประดิษฐ์ของยุโรป (EU AI Act)

Loading

    เว็บไซต์ The New York Times รายงานเมื่อ 14 มิ.ย.66 ว่า รัฐสภายุโรปได้ผ่านร่างกฎหมายปัญญาประดิษฐ์เมื่อ 14 มิ.ย.66 เพื่อเข้าสู่การพิจารณาในวาระสุดท้ายก่อนมีผลบังคับใช้ เพื่อปกป้องผู้บริโภคของสหภาพยุโรปจากการใช้ปัญญาประดิษฐ์ที่อาจเป็นอันตราย ทั้งนี้ กฎหมาย AI ของสหภาพยุโรปจะใช้วิธีการอิงตามความเสี่ยง (Risk-Based Approach) จากศักยภาพสูงสุดที่จะสามารถทำอันตรายต่อมนุษย์ และให้ความสำคัญกับระบบ AI ที่นำมาใช้ในโครงสร้างพื้นฐานสำคัญด้านน้ำและพลังงาน และในระบบกฎหมาย นอกจากนี้ยังกำหนดข้อบังคับต่าง ๆ เช่น ห้ามใช้ระบบการจดจำใบหน้า (facial recognition) ตามเวลาจริง และห้ามใช้ชุดข้อมูลชีวมาตรจากสื่อสังคมออนไลน์เพื่อสร้างฐานข้อมูล รวมถึงการใช้ข้อมูลที่มีลิขสิทธิ์ซึ่งมิใช่ของตนในการฝึกระบบ AI นอกจากนี้ ผู้สร้างระบบ AI จะต้องทำการประเมินความเสี่ยงก่อนการให้บริการ ซึ่งคล้ายกับกระบวนการอนุมัติยา และต้องวางมาตรการเพื่อป้องกันไม่ให้ AI สร้างเนื้อหาที่ผิดกฎหมาย เป็นต้น อย่างไรก็ดี ปัจจุบัน สหรัฐฯ ได้ออกนโยบายและมาตรการทดสอบระบบ AI ก่อนเผยแพร่สู่สาธารณะเพื่อปกป้องสิทธิความเป็นส่วนตัวของชาวอเมริกัน ขณะที่จีนกำลังร่างกฎหมายควบคุมผู้ผลิต AI ในจีนให้ประเมินความปลอดภัยผลิตภัณฑ์ก่อนนำออกสู่สาธารณะ…

ChatGPT ความเสี่ยงจาก การสร้างเนื้อหาที่ผิดพลาด

Loading

    ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม   ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม ซึ่งเราจะเห็นความน่าทึ่งจากความสามารถของ ChatGPT ในการสร้างข้อมูล   แต่ในขณะเดียวกัน เราก็ยังพบว่า ChatGPT อาจจินตนาการและสร้างข้อมูลที่ไม่ถูกต้องมาได้ด้วย จนเริ่มมีคำถามว่าเราควรจะอนุญาตให้มีการใช้ ChatGPT ในงานด้านต่างๆ เพียงใด และหากมีการนำมาใช้งานจำเป็นจะต้องระบุด้วยหรือไม่ว่าเนื้อหาถูกสร้างจาก ChatGPT   เหตุผลหลักที่ทำให้ ChatGPT สร้างข้อมูลที่ไม่ถูกต้องได้นั้น เกิดจากการที่ ChatGPT ได้รับการเรียนรู้มาด้วยข้อมูลจำนวนมหาศาลจากเนื้อหาในอินเทอร์เน็ต ที่อาจประกอบไปด้วยข้อมูลทั้งที่ถูกต้อง และที่ไม่ถูกต้อง ซึ่ง ChatGPT ไม่สามารถตรวจสอบความถูกต้องของข้อมูลที่ได้จากการเรียนรู้ ดังนั้นจึงไม่แปลกใจที่มันจะสร้างข้อมูลที่ไม่ถูกต้องออกมาในบางครั้งจากคลังความรู้ที่ผิดๆ บางส่วน   นอกจากนี้ ChatGPT ถูกฝึกอบรมมาจากข้อมูลถึงเมื่อเดือนกันยายน…