ทุกเทคโนโลยีมีศักยภาพในการใช้งานทั้งในเชิงบวกและเชิงลบ โดยเฉพาะอย่างยิ่งสำหรับเทคโนโลยี “generative AI” อย่างเช่น ChatGPT ซึ่งนับเป็นแพลตฟอร์มที่ถูกกล่าวถึงอย่างมากในแวดวงไอที
แซม ออลท์แมน ประธานเจ้าหน้าที่บริหารของ OpenAI ผู้สร้าง ChatGPT เองก็ได้แสดงความกังวลในแถลงการณ์ฉบับล่าสุด โดยได้เน้นย้ำถึงความสำคัญของเอไอ และให้นำไปใช้งานอย่างเหมาะสม โปร่งใส ให้ความสำคัญกับประเด็นความท้าทายระดับโลก ไม่ก่อให้เกิดความเสี่ยงกับมนุษยชาติ
ChatGPT ช่องทางภัยร้าย
เอกภาวิน สุขอนันต์ ผู้จัดการประจำวีเอ็มแวร์ประเทศไทย เล่าถึงประเด็นนี้ว่า ความกังวลและข้อเสนอแนะข้างต้นเป็นการกระตุ้นและเน้นยำให้บริษัทต่างๆ พิจารณาเชิงรุกถึงผลกระทบด้านความปลอดภัยของ generative AI
เป็นโอกาสสำหรับองค์กรที่จะต้องเริ่มตื่นตัวในเรื่องการปกป้องระบบและข้อมูลของตนเมื่อเผชิญกับเทคโนโลยีที่ก้าวหน้าเหล่านี้
นอกจากนี้ ยังได้พบว่า ผู้ประสงค์ร้ายอาศัยช่องทางเหล่านี้สร้างประโยชน์แก่ตนเอง ตัวอย่าง ไม่กี่สัปดาห์ หลังจากการเปิดตัว ChatGPT เมื่อเดือนพ.ย.ที่ผ่านมา อาชญากรไซเบอร์ได้นำเครื่องมือไปแชร์และใช้บนฟอรัมดาร์กเว็บ
โดยเฉพาะอย่างยิ่ง เครื่องมือที่สามารถใช้โดยผู้ที่ไม่มีประสบการณ์ในการเขียนโค้ด เพื่อสร้างมัลแวร์ที่ซับซ้อนขึ้นมาใหม่ สำหรับคนหลายล้านคน
ChatGPT นั้นเป็นเสมือนวิศวกรคนหนึ่งที่บริษัทจ้างทำงาน หรือเปรียบเสมือนพนักงานที่มีศักยภาพคนหนึ่งที่เต็มไปด้วยความรู้และสามารถเข้าถึงข้อมูลบนอินเทอร์เน็ต สั่งงานได้ตลอด จัดการข้อมูลที่เราเสนอได้อย่างมหาศาลโดยไม่เสียค่าใช้จ่าย นับเป็นอีกหนึ่งตัวอย่างที่น่ากลัว
อีกหนึ่งตัวอย่างการใช้งานจริงอีกเคส คือ นักเทคโนโลยีอาวุโสซึ่งได้รับอนุญาตให้ทำการทดลอง โดยระบุตัวเองว่าเป็นผู้เชี่ยวชาญด้านความปลอดภัย “white hat” ได้ขอให้ ChatGPT ช่วยค้นหาซอฟต์แวร์เพื่อเจาะไปยังช่องโหว่ด้านความปลอดภัยที่มีอยู่ และปรับเปลี่ยนเพื่อให้ไม่สามารถถูกตรวจจับหรือต้นพบได้ด้วยซอฟต์แวร์รักษาความปลอดภัยส่วนใหญ่ในปัจจุบัน
เขาใช้เวลาเพียงสองนาทีกับหกคำถามเพื่อให้ได้รหัสที่ “ซับซ้อน” ที่เขาต้องการ เพื่อทดสอบขอบเขตความปลอดภัยของบริษัท
ดังนั้นสำหรับการใช้งานแล้ว สิ่งสำคัญคือต้องทราบว่า OpenAI ซึ่งเป็นบริษัทที่สร้าง ChatGPT มีวิธีป้องกันใครก็ตามที่ใช้แพลตฟอร์มอย่างโจ่งแจ้งเพื่อจุดประสงค์ที่เป็นอันตรายหรือไม่
เตรียมรับมือความเสี่ยงรอบทิศ
แม้ว่าจะยังอยู่ในช่วงเริ่มต้นของการใช้งาน แต่ก็คาดการณ์ได้ไม่ยากถึงความเป็นไปได้ที่จะเห็นผู้ไม่หวังดีที่ใช้ประโยชน์จาก generative AI ในการสร้างความเดือดร้อน
การระบาดของฟิชชิ่งที่เพิ่มขึ้นและน่ากลัวยิ่งขึ้น: ดังตัวอย่างข้างต้นที่แสดงให้เห็นว่า ChatGPT สามารถดำเนินการที่ซับซ้อนได้ เขียนอีเมลฟิชชิ่งได้ง่ายๆ
การโจมตีแบบ Deepfake: ผู้โจมตีอาจสร้างโน้ตที่ดูเหมือนว่ามาจากซีอีโอหรืออาจสร้างข้อความที่คล้ายมากจนแยกไม่ออก
ระบบออโตเมชัน: การโจมตีทางไซเบอร์ที่มีประสิทธิภาพจำเป็นต้องทำงานที่น่าเบื่อมากมาย ซึ่งส่วนใหญ่เหมาะสำหรับ generative AI ดังนั้น ผู้ใช้ทั้งที่ประสงค์ดีและประสงค์ร้ายจึงกำลังตรวจสอบวิธีการใช้ generative AI เพื่อทำให้งานเป็นไปโดยอัตโนมัติ
การโจมตีแบบ Live off the land: ในช่วงไม่กี่ปีที่ผ่านมา เป้าหมายของการโจมตีคือการเจาะเข้าไปในเครือข่ายและหลบเลี่ยงการตรวจจับเนื่องจากพวกเขามองหาเป้าหมายที่มีค่า
ความกังวลเรื่องความเป็นส่วนตัวเกี่ยวกับทรัพย์สินทางปัญญา: ChatGPT เชื่อมโยงกับการรั่วไหลของข้อมูล โดยเมื่อพนักงานแชร์ข้อมูลลับขององค์กรกับ ChatGPT ก็มีโอกาสที่จะเป็นการเปิดข้อมูลให้กับผู้ใช้ OpenAI ด้วย
มีช่องโหว่ แต่ไม่เคยรู้ตัว
เมื่อเป็นเช่นนี้ เกิดคำถามคือแล้วบริษัทต่าง ๆ จะทำอะไรได้บ้างเพื่อเตรียมพร้อมสำหรับการโจมตีที่เสริมประสิทธิภาพด้วยเอไอ สำหรับผู้เริ่มต้นแน่นอนว่าพวกเขาจำเป็นต้องมีระบบการรักษาความปลอดภัยที่ดี
การสำรวจเมื่อเร็ว ๆ นี้ พบว่า 71% กล่าวว่าการโจมตีเปิดเผยช่องโหว่ที่พวกเขาไม่รู้ตัวด้วยซ้ำว่ามี ดังนั้นการมองเห็นและการรับรู้ถือเป็นเรื่องพื้นฐานสำหรับการรักษาความปลอดภัยที่ดี
แม้ว่าจะสามารถหลีกเลี่ยงการโจมตีมาได้หลายต่อหลายครั้งแล้วก็ตาม แต่เมื่อ generative AI มีมากขึ้น โอกาสในการตกเป็นเป้าหมายก็จะเพิ่มขึ้น
นอกจากนี้ ในองค์กรควรจะพูดคุยอย่างเปิดเผยในเรื่องภัยคุกคามต่าง ๆ ต่อกันและกันมากขึ้น เพื่อให้สามารถรวบรวมความรู้ร่วมกันและป้องกันการโจมตีครั้งใหม่ได้
“ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์จะพร้อมมากขึ้นหากองค์กรและภาคส่วนต่าง ๆ แบ่งปันข่าวกรองภัยคุกคาม ที่สำคัญตรวจสอบให้แน่ใจว่าได้ใช้ generative AI ให้เกิดประโยชน์สูงสุด”
บทความโดย โต๊ะข่าวไอที ดิจิทัล | กรุงเทพธุรกิจ
————————————————————————————————————————-
ที่มา : กรุงเทพธุรกิจออนไลน์ / วันที่เผยแพร่ 31 ก.ค.66
Link : https://www.bangkokbiznews.com/tech/gadget/1081174