AI ถูกใช้ในการแคร็กรหัสผ่าน แถมทำได้เร็วมาก ๆ ด้วย

Loading

  การมาของ ChatGPT และ Bard เป็นเครื่องมือที่ทำให้เราได้รู้ว่า AI นั้นมีความสามารถมากขนาดไหน แต่ถึงอย่างนั้นทุกอย่างก็สามารถนำไปใช้ในทางที่ไม่ดีได้ AI ก็เช่นเดียวกัน   Home Security Heroes บริษัทด้านการรักษาความปลอดภัยทางไซเบอร์ได้เผยแพร่ผลการศึกษาเกี่ยวกับ AI เรื่องการแคร็กรหัสผ่าน โดยการใช้เครื่องมือใหม่ที่เรียกว่า PassGAN (password generative adversarial network) ซึ่งใช้ AI เป็นตัวขับเคลื่อน   นักวิจัยได้ใช้ PassGAN ในการแคร็กรหัสผ่านกว่า 15 ล้านแบบ ผลการรันเครื่องมือดังกล่าวพบว่า รหัสผ่านทั่วไปกว่า 51% สามารถแคร็กได้ โดยใช้เวลาไม่ถึง 1 นาที, 65% ใช้เวลาแคร็กต่ำกว่า 1 ชั่วโมง, 71% ใช้เวลาน้อยกว่า 1 วัน อีก 81% ใช้เวลาน้อยกว่า 1 เดือน    …

ส่องนโยบายใช้ ‘ChatGPT’ ช่วยทำงานในองค์กร

Loading

    ผมมีโอกาสได้เห็นเอกสารนโยบายการใช้ Generative AI อย่าง ChatGPT ของบริษัทเทคโนโลยีขนาดใหญ่ในต่างประเทศรายหนึ่งระบุว่า ห้ามพนักงานใช้โดยเด็ดขาด   โดยเฉพาะในการทำเอกสารหรือจดหมายเพื่อติดต่อกับลูกค้า หรือแม้แต่จะช่วยเขียนโค้ดในการพัฒนาโปรแกรม ทั้งนี้บริษัทอนุญาตให้ใช้เฉพาะเพื่อการทดลองหรือการศึกษา และการใช้งานส่วนตัวเท่านั้น   จริงๆ ก็ไม่ใช่เรื่องแปลกใหม่อะไร เพราะในปัจจุบันหลายๆ บริษัทในต่างประเทศเริ่มที่จะออกนโยบายการใช้ Generative AI ในการช่วยทำงานของพนักงานหรือที่เรียกว่านโยบาย Generative AI Assistance (GAIA) และก็มีหลายบริษัทที่ประกาศห้ามการใช้งาน   ดังเช่น สถาบันการเงินต่างๆ อย่าง JPMorgan Chase,Bank of America, Goldman Sachs, Citigroup, Deutsche Bank และ Wells Fargo โดยเหตุผลหลักเป็นเรื่องความปลอดภัยของข้อมูลอ่อนไหวของลูกค้า   ซึ่งนอกจากนี้ก็ยังมีอีกหลายบริษัทในอุตสาหกรรมอื่นๆ เช่น Amazon, Verizon, และ Accenture ที่ออกนโยบายจำกัดการใช้งาน Generative AI ของพนักงานและให้ระมัดระวังการนำข้อมูลอ่อนไหวของบริษัทเข้าไปสู่ระบบ…

นักวิจัยใช้ช่องโหว่ ChatGPT สร้างมัลแวร์ขั้นสูงสำเร็จในเวลาไม่กี่ชั่วโมง

Loading

  แอรอน มัลกรูว (Aaron Mulgrew) นักวิจัยด้านความมั่นคงปลอดภัยจาก Forcepoint เผยว่าเขาใช้ ChatGPT ในการสร้างมัลแวร์ที่ใช้ประโยชน์จากช่องโหว่ Zero-day ได้สำเร็จ   โดยปกติแล้ว ChatGPT มีระบบป้องกันการถูกนำไปใช้เพื่อสร้างมัลแวร์หรือสนับสนุนการก่ออาชญากรรมทางไซเบอร์ แต่มัลกรูวพบช่องโหว่ที่เปิดโอกาสให้ทำเช่นนั้นได้   วิธีการก็คือให้ ChatGPT เขียนโค้ดมัลแวร์ทีละบรรทัด จากนั้นมัลกรูวก็ได้นำบรรทัดเหล่านี้มาผสมกันกลายเป็นมัลแวร์สำหรับขโมยข้อมูล   มัลแวร์ที่สร้างขึ้นนี้ยังปลอมตัวเป็นแอปสกรีนเซฟเวอร์ที่จะเปิดใช้งานแบบอัตโนมัติบน Windows มีความสามารถในการขโมยข้อมูล แตกไฟล์เป็นไฟล์เล็กไฟล์น้อยที่ซ่อนเข้าไปในไฟล์รูปภาพได้ และอัปโหลดขึ้นไปบนโฟลเดอร์ Google Drive ได้   นอกจากนี้ มัลกรูวยังใช้ ChatGPT ในการเสริมประสิทธิภาพให้กับมัลแวร์ที่เขียนขึ้นจน VirusTotal ไม่สามารถตรวจจับได้ด้วยอีกต่างหาก   สิ่งที่น่ากลัวก็คือ การที่มัลกรูวซึ่งอ้างว่าตัวเองเป็นมือใหม่ในด้านการเขียนมัลแวร์สามารถทำจนสำเร็จได้ในเวลาเพียงไม่กี่ชั่วโมง     ที่มา Android Authority         ————————————————————————————————————————————————————————————————– ที่มา :     …

เป็นเรื่อง! พนักงาน Samsung Semiconductor เผลอทำ Source Code และข้อมูลสำคัญของบริษัทรั่วไหลใน ChatGPT

Loading

    เว็บไซต์ TechRadar รายงานว่า พนักงานในแผนกเซมิคอนดักเตอร์ของ Samsung ได้ก่อความผิดพลาดครั้งใหญ่ด้วยการปล่อยให้ข้อมูลความลับสำคัญของบริษัท ได้แก่ Source Code สำหรับโปรแกรมใหม่, รายงานการประชุมภายในของบริษัท และข้อมูลเกี่ยวกับฮาร์ดแวร์ รั่วไหลโดยบังเอิญ ระหว่างการใช้งานโปรแกรมแชตบอตปัญญาประดิษฐ์ชื่อดัง ChatGPT   รายงานข่าวดังกล่าว ระบุว่า พนักงานของ Samsung ได้กรอกคำสั่งให้ ChatGPT ทำการทดสอบเพื่อตรวจจับข้อบกพร่องในชิป ซึ่งเป็นกระบวนการที่เป็นความลับสูง เนื่องจากต้องการประหยัดเวลาและงบประมาณในการปรับปรุงประสิทธิภาพกระบวนการทดสอบและตรวจสอบโปรเซสเซอร์ของบริษัท   นอกจากนี้ ยังมีอีกหนึ่งกรณีที่พนักงานใช้งาน ChatGPT เพื่อแปลงบันทึกการประชุม ซึ่งบริษัทไม่ต้องการให้บุคคลภายนอกเห็นเป็นพรีเซนเทชัน   ทันทีที่รับรู้ถึงปัญหาที่เกิดขึ้น Samsung ได้สั่งลงโทษพนักงานที่สร้างความผิดพลาด พร้อมออกประกาศคำเตือนถึงพนักงานที่เหลือของบริษัทในการใช้ ChatGPT และการรักษาความลับของบริษัทในทันที   ผู้เชี่ยวชาญระบุว่า ข้อมูลที่รั่วไหลไปยังเซิร์ฟเวอร์ของ OpenAI ผ่าน ChatGPT จะไม่สามารถกู้หรือลบทิ้งได้ ซึ่งปัญหานี้อาจส่งผลกระทบต่อความสามารถในการแข่งขันในอุตสาหกรรมเซมิคอนดักเตอร์ของ Samsung   เว็บไซต์ The Economist รายงานว่า เพื่อตอบสนองต่อเหตุการณ์ที่เกิดขึ้น…

ChatGPT ถูกแบนในอิตาลี หลังใช้ข้อมูลส่วนบุคคลโดยไม่ได้รับอนุญาต

Loading

    สำนักข่าว CNBC รายงานว่า Garante หน่วยงานคุ้มครองข้อมูลของรัฐบาลอิตาลีสั่งห้าม OpenAI ให้บริการ ChatGPT เป็นการชั่วคราวหลังพบว่าละเมิดกฎความเป็นส่วนตัวของแอปพลิเคชันประเภทปัญญาประดิษฐ์ ซึ่งต้องมีการตรวจสอบอายุของผู้ใช้ให้ไม่ต่ำกว่า 13 ปี   Margrethe Vestager รองประธานบริหารคณะกรรมาธิการยุโรปเปิดเผยว่า คณะกรรมาธิการกำลังถกเถียงกันเรื่องกฎหมาย AI ของสหภาพยุโรป อาจไม่มีแนวโน้มที่จะแบน AI การพัฒนาอย่างรวดเร็วของเทคโนโลยีได้รับความสนใจจากฝ่ายนิติบัญญัติในหลายประเทศ ผู้เชี่ยวชาญหลายคนกล่าวว่าจำเป็นต้องมีกฎระเบียบใหม่เพื่อควบคุม AI เนื่องจากอาจส่งผลกระทบต่อความมั่นคงของชาติ งาน และการศึกษา   “เราคาดหวังให้ทุกบริษัทที่ดำเนินการในสหภาพยุโรปเคารพกฎการปกป้องข้อมูลของสหภาพยุโรป ไม่ว่าจะใช้เทคโนโลยีใด เราต้องพัฒนาเสรีภาพและปกป้องสิทธิของส่วนบุคคลต่อไป จึงเป็นเหตุผลที่เราไม่ควบคุมเทคโนโลยี แต่เราควบคุมการใช้ AI ที่อาจใช้ข้อมูลส่วนบุคคลมาเป็นพื้นฐานการเรียนรู้โดยมิได้รับอนุญาต”   ด้าน OpenAI ได้มีการตอบกล่าวถึงกรณีดังกล่าวว่า บริษัทกำลังทำงานอย่างจริงจังเพื่อลดการใช้ข้อมูลส่วนบุคคลฝีกฝน ChatGPT เพราะต้องการให้เรียนรู้เกี่ยวกับข้อมูลทั่วไปมากกว่าการเรียนรู้เกี่ยวกับตัวบุคคล อย่างไรก็ตาม OpenAI จะมีเวลา 20 วันในการตอบสนองด้วยการเยียวยาผู้ที่ถูกใช้ข้อมูลส่วนบุคคลโดยมิได้รับอนุญาต หรืออาจเสี่ยงถูกปรับสูงถึง 20 ล้านยูโร หรือ 4% ของมูลค่าการซื้อขายทั่วโลกต่อปี…

Europol ตำรวจยุโรป เตือน! มิจฉาชีพ อาจใช้ ChatGPT หลอกแฮ็ก-ดูดเงิน ประชาชน

Loading

    Europol เตือนภัย ChatGPT อาจตกเป็นเครื่องมือของมิจฉาชีพ เพื่อหลอกรัก แฮ็กข้อมูล ดูดเงินประชาชน หลังฉลาดเป็นกรด จนนึกว่าคนจริง   กองกำลังตำรวจของสหภาพยุโรป หรือ Europol ออกมาเตือนเกี่ยวกับการใช้ แชตบอทที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ อย่าง ChatGPT ในทางที่ผิด เช่น หลอกคุยเพื่อแฮ็กบัญชีด้วยหน้าเว็บปลอม (ฟิชชิ่ง) การบิดเบือนข้อมูล และ ใช้ก่ออาชญากรรมทางไซเบอร์   นับตั้งแต่ ChatGPT เปิดตัวเมื่อปีที่แล้ว เจ้าของอย่าง OpenAI ที่ได้รับการสนับสนุนจาก Microsoft สร้างกระแสให้โลกด้วยความสามารถของมัน จนทำให้บริษัทด้านเทคโนโลยีใหญ่ ๆ ต่างพยายามเปิดตัวแชทบอทปัญญาประดิษฐ์ไปตาม ๆ กัน   “ความสามารถของ LLM (โมเดลภาษาขนาดใหญ่) อย่าง ChatGPT กำลังได้รับการพัฒนาและปรับปรุงอย่างต่อเนื่อง การใช้ประโยชน์จากระบบ AI ประเภทนี้ โดยอาชญากร จึงเป็นที่น่ากังวล” ตามรายงานของ Europol  …