ChatGPT:กฎหมาย AI และอนาคต (จบ)

Loading

  ความเดิมจากตอนที่แล้ว ผู้เขียนได้กล่าวถึง ChatGPT ในมุมที่อาจมีผลกระทบต่องานในปัจจุบัน โดยเน้นวิเคราะห์ในสายงานกฎหมาย ฉบับนี้จะวิเคราะห์ถึงข้อสังเกตทางกฎหมายในการใช้งาน ChatGPT และ AI   1.กฎหมายว่าด้วยปัญญาประดิษฐ์ ประเด็นแรก ธรรมาภิบาลและการประเมินความเสี่ยงจากการใช้ AI เพื่อรองรับการใช้งานอย่างมีประสิทธิภาพและน่าเชื่อถือ จึงควรมีการกำหนดมาตรฐานหรือกฎเกณฑ์ และการจัดการความเสี่ยงที่เหมาะสม อันจะเป็นการใช้เทคโนโลยีอย่างมีความรับผิดชอบต่อสังคม   ในกรณีของ ChatGPT การใช้ AI จะอยู่ในรูปแบบของแชตบอตที่สื่อสารตอบโต้และให้ข้อมูลกับผู้ใช้งาน ดังนั้น การใช้งานในลักษณะดังกล่าวอาจมากับปัญหา AI bias and discrimination ซึ่งเป็นความเสี่ยงในเรื่องข้อจำกัดและคุณภาพของข้อมูล ความน่าเชื่อถือและการให้ข้อมูลที่เป็นกลาง   เพื่อแก้ไขปัญหานี้ ควรมีแนวทางในการประเมินความเสี่ยงที่เหมาะสมในระดับองค์กร และมีการกำหนดกฎเกณฑ์หรือกฎหมายที่ควบคุมการใช้งานอย่างเหมาะสม เช่น ในสหรัฐกำหนด AI Risk Management framework (จัดทำโดย NIST)   และในสหภาพยุโรปยกร่าง AI Act ซึ่งมีวัตถุประสงค์ในการกำหนดแนวทางการจัดการ การประเมินความเสี่ยง และการตรวจสอบการงาน AI โดยเฉพาะอย่างยิ่งในกรณีที่ AI…

บริษัทญี่ปุ่นกังวลพนักงานใช้ ChatGPT ห่วงข้อมูลรั่ว เตรียมออกกฎป้องกัน

Loading

    บริษัทญี่ปุ่นนำโดย SoftBank Hitachi ได้เริ่มตั้งกฎจำกัดการใช้งานเทคโนโลยี AI ที่สามารถโต้ตอบได้อย่างเช่น ChatGPT ในการดำเนินธุรกิจ ห่วงข้อมูลรั่วไหล สั่งห้ามพนักงานป้อนข้อมูลสำคัญ   ความนิยมของ ChatGPT ความน่าทึ่งในศักยภาพของมัน และมูลค่าทางธุรกิจในอนาคต ทำให้หลายบริษัทยักษ์ใหญ่ทั่วโลกโดยเฉพาะบริษัทเทคโนโลยีเริ่มนำ AI เข้ามาใช้ช่วยงาน ไม่ว่าจะเป็นการตอบข้อความ ร่างอีเมล สรุปประชุม และถามตอบข้อสงสัย อย่างไรก็ตามการใช้งานเทคโนโลยีนี้ยังคงทิ้งข้อกังวลไว้ให้ธุรกิจ โดยเฉพาะเรื่องข้อมูล ซึ่งล่าสุดบริษัทในญี่ปุ่นเริ่มขยับตัวออกมาตรการควบคุมป้องกัน   บริษัทญี่ปุ่นจำกัดการใช้งาน ChatGPT ห่วงข้อมูลรั่ว   เมื่อเดือนที่แล้ว SoftBank ได้เตือนพนักงานเกี่ยวกับการใช้งาน ChatGPT และแอปพลิเคชันทางธุรกิจอื่น ๆ โดยห้ามพนักงานป้อนข้อมูลที่เป็นความลับหรือข้อมูลใด ๆ ที่จะระบุถึงบริษัท และหลังจากนี้บริษัทจะสร้างกฎระเบียบขึ้นมาระบุว่าภาคส่วนใดบ้างในองค์กรที่จะสามารถใช้เทคโนโลยีได้ รวมถึงระบุประเภทแอปพลิเคชันที่อนุญาตให้ใช้   ด้าน Hitachi พิจารณากำหนดกฎจริยธรรมใหม่สำหรับการใช้งาน AI แบบโต้ตอบ เช่นเดียวกับกลุ่มเทคโนโลยีของ Fujitsu ก็ได้เตือนพนักงานเกี่ยวกับการใช้งาน ChatGPT และบริการ AI…

ระวัง! กลลวงใหม่ ‘คนร้าย’ ใช้ AI ปลอมเสียง หลอกโอนเงิน

Loading

    เตือนภัย มิจฉาชีพคิดกลโกงใหม่ ใช้ AI ปลอมเสียงเป็นคนคุ้นเคยหลอกยืมเงิน ระวังสกิลการโกงใหม่ ก่อนไหวตัวไม่ทัน     ในปัจจุบัน มีมิจฉาชีพเกิดขึ้นอยู่หลายรูปแบบ และหากพูดถึงมิจฉาชีพยอดฮิตที่หลาย ๆ คนต้องตกเป็นเหยื่ออยู่บ่อยครั้งนั้น คือ “แก็งคอลเซ็นเตอร์”   ต้องบอกเลยว่า มิจฉาชีพในปัจจุบันนั้น มีการพัฒนาทั้งเรื่องของการพูดคุยและสกิลการโกง ที่ทำเอาผู้เสียหายต้องเสียทรัพย์มหาศาลไปหลายคนแล้ว     ล่าสุดมีเครื่องมือ AI ที่ถูกพัฒนาช่วยอำนวยความสะดวกแก่ผู้ใช้ได้หลากหลาย แต่ด้วยความสามารถที่มากล้น ก็ย่อมมีความกังวลว่าจะถูกนำไปใช้งานในทางผิดได้ แน่นอนว่าล่าสุดพบนักหลอกลวงออนไลน์ นำ AI มาปลอมแปลงเสียง เพื่อหลอกเหยื่อให้โอนเงินช่วยเหลือ   โดยเกิดขึ้นกับสามีภรรยาชาวแคนาดาวัย 70 ปีคู่หนึ่ง รับโทรศัพท์ที่คิดว่าเป็นหลายชายโทรมา โดยในสายเผยว่าตนเองกำลังติดคุก และต้องการเงินประกันตัวด่วน ด้วยความร้อนรน สามีภรรยาคู่นี้จึงถอนเงินถึง 3,000 ดอลลาร์ฯ หรือประมาณ 1 แสนบาทมารอไว้ แต่เคราะห์ดีที่ยังไม่ทันได้โอน     หลังกำลังจะถอนเงินจำนวนเดียวกันนี้ออกจากอีกธนาคารหนึ่ง ก็ได้ผู้จัดการของธนาคารเตือนก่อนว่า พวกเขากำลังถูกหลอกลวง…

หลุดแผนสหรัฐฯ ทำ IO ด้วย Deepfake หวังใช้เกลือจิ้มเกลือ

Loading

    สำนักข่าวดิอินเตอร์เซปต์ (The Intercept) รายงานข่าวอ้างว่ากลาโหมสหรัฐฯ มีแผนใช้ Deepfake หรือหน้าปลอมจากปัญญาประดิษฐ์ (AI) สร้างวิดีโอโฆษณาชวนเชื่อเพื่อความมั่นคงแห่งชาติ   IO หรือ Information Operation เป็นปฏิบัติการทางความมั่นคงเพื่อใช้ต่อต้านข่าวกรองหรือต่อต้านการปล่อยข่าวด้วยข้อมูลจากภาครัฐที่ในปัจจุบันมักใช้อินเทอร์เน็ตเป็นสื่อกลาง (Internet Propaganda) อย่างไรก็ตาม กระแสข่าวปลอมนั้นเกิดขึ้นได้อย่างรวดเร็ว หน่วยบัญชาการปฏิบัติการพิเศษ (Special Operations Command: SOCOM) ของกระทรวงกลาโหมสหรัฐอเมริกาจึงมีแนวคิดในการนำเทคโนโลยีดีปเฟค (Deepfake) หรือการสร้างใบหน้าปลอมด้วยปัญญาประดิษฐ์ (AI) มาแก้ปัญหานี้   ในเอกสารที่อ้างว่าเป็นแผนยุทธศาสตร์ของสำนักโซคอม (SOCOM) จากสำนักข่าวดิอินเตอร์เซปต์ (The Intercept) นั้นระบุว่า มีความพยายามในการเตรียมเทคโนโลยีดีปเฟคยุคใหม่ (Next-generation Deepfake) สำหรับการสร้างวิดีโอขึ้นมาเพื่อส่งข้อมูลและชักนำทางความคิดผ่านช่องทางสื่อสารนอกกระแส (Non-traditional Channel) โดยเล็งเป้าหมายไปยังกลุ่มผู้ต้องสงสัยว่าเป็นภัยต่อความมั่นคงแห่งชาติซึ่งอาจอพยพเข้ามาหรือมีเชื้อชาติอื่นที่เป็นศัตรูกับสหรัฐอเมริกา   นอกจากนี้ยังมีแผนการรวบรวมข้อมูลบนโซเชียลมีเดียและการพูดคุยบนอินเทอร์เน็ตบนพื้นที่สาธารณะด้วยเครื่องมือที่ทรงพลังด้วยเช่นกัน ซึ่งเป็นหนึ่งในแผนแม่งานเพื่อการโต้ตอบข่าวลวงและข่าวปลอมจากต่างประเทศ   อย่างไรก็ตาม คริส เมเซอโรล (Chris Meserole) หัวหน้าสถาบันบรู๊คกิงส์เพื่อปัญญาประดิษฐ์และการริเริ่มเทคโนโลยีเกิดใหม่ (Brookings Institution’s Artificial Intelligence and Emerging Technology Initiative…

หอการค้าสหรัฐฯ เรียกร้องให้มีมาตรการควบคุม AI

Loading

  หอการค้าสหรัฐอเมริกา (USCC) เรียกร้องให้รัฐบาลออกมาตรการควบคุมเทคโนโลยีปัญญาประดิษฐ์เพื่อป้องกันไม่ให้กระทบต่อการเติบโตทางเศรษฐกิจหรือกลายเป็นภัยความมั่นคง   USCC ชี้ว่านักกำหนดนโยบายและผู้นำด้านธุรกิจจะต้องเร่งกำหนดแนวทางกำกับดูแลด้านความเสี่ยง เพื่อสร้างความมั่นใจว่าปัญญาประดิษฐ์จะถูกใช้อย่างมีความรับผิดชอบ   ทาง USCC ยังประเมินว่าปัญญาประดิษฐ์จะเพิ่มมูลค่าการเติบทางเศรษฐกิจโลกสูงถึง 13 ล้านล้านเหรียญ (ราว 455 ล้านล้านบาท) ภายในปี 2030 และเห็นด้วยว่าที่ผ่านมาเทคโนโลยีดังกล่าวช่วยเสริมศักยภาพทางการแพทย์และการป้องกันไฟป่าของรัฐ   โดยมีการประเมินว่า หน่วยงานรัฐบาลและองค์กรธุรกิจเกือบทุกแห่งจะนำปัญญาประดิษฐ์มาใช้ภายใน 20 ปีต่อจากนี้   ในทางกลับกัน ก็จำเป็นต้องมีความพร้อมรับมือกับภัยคุกคามที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ในอนาคตด้วย ซึ่งก็ต้องดำเนินการอย่างระมัดระวังและเหมาะสม มาตรการที่จะออกมาต้องมีความยืดหยุ่นเพียงพอ     ที่มา Reuters         ————————————————————————————————————————- ที่มา :                   แบไต๋           …

อีกก้าวของมิจฉาชีพ! พบเหยื่อถูกนักต้มตุ๋น ใช้ AI เลียนเสียงญาติหลอกขโมยเงิน!

Loading

  หนึ่งในความกังวลเกี่ยวกับเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่ใช้เลียนเสียงผู้คนก็คือการที่ผู้ไม่ประสงค์ดีใช้เทคโนโลยีดังกล่าวในทางที่ผิด ลอกเลียนเสียงคนเพื่อหลอกเอาเงินจากเหยื่อ ซึ่งล่าสุด Washington Post รายงานว่า มีเคสเหยื่อที่ถูกหลอกเกิดขึ้นแล้ว!   คู่รักชาวแคนาดาวัย 70 ปี ได้รับโทรศัพท์จากผู้พูดที่มีเสียงคล้ายหลานของตนเองที่อ้างว่า เขาติดคุกและต้องการเงินประกันตัว ทำให้ทั้ง 2 ตัดสินใจถอนเงินจำนวน 3,000 ดอลลาร์แคนาดา (ราว 76,000 บาท) จากธนาคาร และกำลังจะถอนเงินจำนวนเดียวกันจากอีกธนาคาร ก่อนที่ผู้จัดการธนาคารจะบอกกับคู่รักคู่นี้ว่าเขาถูกมิจฉาชีพหลอกแล้ว!   สาเหตุที่ผู้จัดการธนาคารคนนี้รู้ทันกลโกงของมิจฉาชีพเพราะมีลูกค้าของเขาที่โดนหลอกลวงด้วยวิธีเดียวกันมาก่อนนั่นเอง   ลูกค้าที่โชคไม่ดีคนนั้นได้รับโทรศัพท์จากทนายแจ้งว่า ลูกชายของเขาทำให้นักการฑูตสหรัฐฯ เสียชีวิตจากอุบัติเหตุทางรถยนต์ และในตอนนี้ลูกชายคนนั้นก็กำลังติดคุกและต้องการเงินค่าดำเนินการทางกฎหมาย ซึ่งในภายหลังผู้เสียหายระบุว่า เสียงจากโทรศัพท์นั้นเหมือนกับลูกชายของเขามากจนเขาหลงเชื่อกลโกงดังกล่าวจนทำให้เขาโอนเงินจำนวน 15,449 เหรียญ (ราว 391,000 บาท) ในรูปแบบของบิตคอยน์ และเขาก็ไม่สามารถตามเงินนั้นกลับมาได้   ตัวอย่างของเทคโนโลยี AI เลียนเสียงนั้นได้แก่ Microsoft Vall-E ที่เป็นปัญญาประดิษฐ์จำลองเสียงของคนได้จากตัวอย่างเสียงความยาวเพียงแค่ 3 วินาที อีกทั้งยังสามารถปรับโทนเสียงได้อีกด้วย โดยหากใครที่สงสัยว่า Vall-E…