สุดล้ำ!!! นักวิจัยคิดวิธีขโมยรหัสผ่าน จากการฟังเสียงแป้นพิมพ์

Loading

แฮกเกอร์พยายามสรรหาวิธีใหม่ ๆ มาขโขมยรหัสผ่านของเรา ล่าสุดนักวิจัยประสบความสำเร็จ ในการขโมยรหัสผ่าน ด้วยการฟังเสียงสิ่งที่เรากำลังพิมพ์ ตอนนี้มีแฮกเกอร์ใช้หลากหลายวิธีในการขโมยรหัสผ่าน วิธีที่ง่ายที่สุดคือการเดารหัสผ่านที่คนนิยมใช้เป็นประจำอย่าง 1234 ซึ่งไม่ต้องใช้ความพยายามมากมายอะไรนัก วิธีขั้นสูงขึ้นไปก็มีตั้งแต่การใช้เครื่องมือดักรหัสผ่านหรือการฟิชชิ่งปลอมเป็นบริการต่างๆ หลอกให้คนที่หลงเชื่อ กรอกรหัสของตัวเองเข้าไป จากนั้นก็นำรหัสไปใช้เพื่อขโมยข้อมูลที่ต้องการ ซึ่งแฮกเกอร์เองก็พยายามสรรหาวิธีใหม่ๆมาช่วยให้ขโมยได้แนบเนียนและง่ายยิ่งขึ้น ล่าสุดทางนักวิจัยจาก University of Cambridge และ Linköping University ได้คิดค้นวิธีขโมยรหัสผ่านรูปแบบใหม่จากการฟังเสียงสิ่งที่เราพิมพ์ลงไปบนคีย์บอร์ด การจะใช้เทคนิกนี้ได้ แฮกเกอร์จะต้องติดตั้งมัลแวร์ลงในเครื่องของเป้าหมายก่อน เพื่อให้เข้าถึงการใช้ไมโครโฟนบนมือถือหรือคอมพิวเตอร์ จากนั้นก็ทำการเก็บคลื่นเสียงและการสั่นสะเทือนเวลาที่เรากดคีย์บอร์ดหรือแป้นพิมพ์บนหน้าจอ อัลกอริทึ่จะคำนวณออกมาว่าเรากดตัวไหนไป โดยระยะเวลาเดินคลื่นเสียงที่เดินทางมายังไมโครโฟนซึ่งจะเป็นตัวช่วยบอกตำแหน่งอีกทางนึง แน่นอนว่ามันยังเป็นงานวิจัยที่ยังไม่สมบูรณ์ 100% แต่ก็เป็นเครื่องพิสูจน์ว่าแนวคิดนี้นำมาใช้ได้จริง ตัวระบบจะใช้อัลกอริทึ่มในการคาดเดาการพิมพ์รหัสผ่าน 4 หลักจากการฟังเสียงที่เรากดแป้นพิมพ์ ผลที่ได้คือสามารถเดารหัสผ่านได้สำเร็จ 31 ล็อกกินจากทั้งหมด 50 ล็อกอินด้วยความพยายามแค่ 10 ครั้งเท่านั้น  นั่นหมายความว่าถ้ายิ่งรหัสผ่านยาวขึ้น ความสามารถในการเดารหัสผ่านจากการฟังเสียงจะยากขึ้นตามไปด้วย ———————————————————— ที่มา : DailyGizmo / Jun 6, 2019 Link : https://www.dailygizmo.tv/2019/06/06/steal-password-by-hearing-typing/

พบมัลแวร์ทำลายล้างอุปกรณ์ IoT ใหม่ ‘Silex’ คาดฝีมือแฮ็กเกอร์วัย 14 ปี

Loading

Larry Cashdollar นักวิจัยด้านความมั่นคงปลอดภัยจาก Akamai ได้รายงานพบมัลแวร์ประเภททำลายล้างตัวใหม่ โดยให้ชื่อว่า ‘Silex’ ที่ได้เข้าไปลบพื้นที่บนอุปกรณ์ IoT หรือปฏิบัติการอื่นที่ทำให้อุปกรณ์ไม่สามารถใช้การได้ โดยหลังจากมัลแวร์ปฏิบัติการได้เพียงไม่กี่ชั่วโมงมีอุปกรณ์ถูกโจมตีแล้วกว่า 2,000 ชิ้น Silex ได้อาศัยใช้ Default Credentials เพื่อล็อกอินเข้าไปทำลายล้างอุปกรณ์ โดยฟีเจอร์ที่พบมีดังนี้ เขียนค่าสุ่มจาก /dev/random ไปยังพื้นที่ Mount Storage ที่ค้นพบ ลบการตั้งค่าของเครือข่าย เช่น rm -rf / Flush ค่าใน iptable และเพิ่ม Rule เพื่อตัดทุกการเชื่อมต่อทิ้งจากนั้นก็ทำให้อุปกรณ์หยุดทำงาน นักวิจัยกล่าวว่า “มัลแวร์จ้องเล่นงานระบบที่คล้าย Unix โดยใช้ Default Credentials” นอกจากนี้ยังเสริมว่า “IP Address ที่เข้ามาโจมตี Honeypot นั้นมาจาก VPS ที่ตั้งในอิหร่านจาก novinvps.com” ทั้งนี้ปัจจุบัน IP ดังกล่าวถูกเพิ่มเข้าไปในบัญชีดำแล้ว นอกจากนี้สำหรับเหยื่อที่ถูกโจมตีจำเป็นต้องเข้าไปลง…

เตือนผู้ใช้ VLC เล่นไฟล์วิดีโอแปลกปลอมเสี่ยงถูกแฮ็กได้

Loading

Symeon Paraschoudis นักวิจัยด้านความมั่นคงปลอดภัยจาก Pen Test Partners ออกมาแจ้งเตือนถึงช่องโหว่บน VLC แอปพลิเคชันสำหรับเล่นวิดีโอยอดนิยม ซึ่งช่วยให้แฮ็กเกอร์สามารถเข้าควบคุมระบบคอมพิวเตอร์จากระยะไกล ถ้าผู้ใช้เผลอเล่นไฟล์วิดีโออะไรก็ไม่รู้ที่ดาวน์โหลดมาจากอินเทอร์เน็ต Paraschoudis พบว่า VLC เวอร์ชันก่อน 3.0.7 มีช่องโหว่ความรุนแรงระดับสูงถึง 2 รายการ และช่องโหว่ความรุนแรงระดับปานกลางและต่ำอีกไม่รู้กี่รายการ ซึ่งช่องโหว่เหล่านี้อาจนำไปสู่การโจมตีแบบ Arbitrary Code Execution ได้ ช่องโหว่ความรุนแรงระดับสูงประกอบด้วย CVE-2019-12874 ซึ่งเป็นช่องโหว่ประเภท Double-free บนฟังก์ชัน zlib_decompress_extra ของ VLC อาจถูกโจมตีได้เมื่อมีการ Parse ไฟล์ MKV ที่ถูกปรับแต่งมาเป็นพิเศษภายใน Matroska Demuxer และ CVE-2019-5439 ซึ่งเป็นช่องโหว่ Read-buffer Overflow บนฟังก์ชัน ReadFrame อาจถูกโจมตีได้เมื่อใช้ไฟล์ AVI ที่ถูกปรับแต่งมาเป็นพิเศษ จากการ PoC โดยใช้ช่องโหว่ทั้งสอง เพียงแค่สร้างไฟล์วิดีโอ MKV หรือ AVI ขึ้นมาเป็นพิเศษ แล้วหลอกให้ผู้ใช้เล่นไฟล์นั้นๆ…

พี่เห็น (ข้อมูล) หนูด้วยหรอคะ?

Loading

เคยไหมที่จู่ ๆ ก็มีคนรู้ข้อมูลบางเรื่องของเราจากโลกออนไลน์ ทั้ง ๆ ที่เรามั่นใจว่าปกปิดไว้อย่างดีแล้ว? เชื่อว่าหลายคนอาจจะเคยพบกับเหตุการณ์นี้ด้วยตัวเองจนเกิดข้อสงสัยขึ้นมา เมื่อไม่นานมานี้มีผู้ใช้งานเครือข่ายสังคมออนไลน์แห่งหนึ่งได้โพสต์เล่าว่า เธอบังเอิญไปรับรู้รายละเอียดการสั่งซื้อสินค้าของคนรู้จักภายในแอปพลิเคชันหนึ่งได้ ทั้งที่คนรู้จักนั้นใช้นามแฝงในการสั่งซื้อแล้วก็ตาม จนสุดท้ายพบว่า ภายในแอปพลิเคชันมีการตั้งค่าพื้นฐานของข้อมูลส่วนบุคคลเหล่านี้เป็นสาธารณะ “ข้อมูลส่วนตัว” ทำอย่างไรไม่ให้รั่วไหลในโลกออนไลน์? หลายท่านคงสงสัยว่าจะทำอย่างไรให้ข้อมูลส่วนตัวของเราไม่ถูกเปิดเผยแก่คนอื่น ๆ ที่อาจเป็นคนรู้จักหรืออาจเป็นผู้ไม่หวังดี ขั้นตอนที่สำคัญที่สุด 2 ขั้นตอนที่ควรทำและศึกษารายละเอียดอย่างรอบครอบก่อนทำการเลือกใช้แอปพลิเคชัน หรือ แพลตฟอร์มออนไลน์ต่าง ๆ ได้แก่ 1) อ่านนโยบายการใช้ข้อมูลบนเว็บไซต์หรือแอปพลิเคชันอย่างละเอียด  นโยบายการใช้เว็บไซต์หรือแอปพลิเคชันจะแสดงให้เห็นถึงข้อกำหนดและเงื่อนไขการใช้บริการของแต่ละแพลตฟอร์มว่ามีกฎข้อบังคับการใช้งานอย่างไร รวมทั้งเรื่องของนโยบายข้อมูลส่วนบุคคลว่าบริษัทผู้ให้บริการแพลตฟอร์มนั้น ๆ มีการจัดเก็บข้อมูลส่วนบุคคลอย่างไรและเก็บข้อมูลของเราเพื่อประโยชน์อะไร รวมทั้งเรื่องการจำกัดความรับผิดชอบจากการใช้งานในกรณีใดบ้าง ส่วนใหญ่แล้วบริษัทผู้ให้บริการจะสอบถามความยินยอมข้อตกลงดังกล่าวในขั้นตอนการสมัครเข้าใช้บริการ ซึ่งขั้นตอนนี้ถือเป็นขั้นตอนที่สำคัญขั้นตอนหนึ่งในการใช้งานเว็บไซต์หรือแพลตฟอร์มใด ๆ ก็ตาม  จาก รายงานผลการสำรวจพฤติกรรมผู้ใช้อินเทอร์เน็ตในประเทศไทย ปี 2561 โดย สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ หรือ ETDA พบว่า มีผู้ใช้งานอินเทอร์เน็ต 63.3% เคยอ่านข้อตกลงเรื่องสิทธิและความรับผิดชอบหรือนโยบายการใช้ข้อมูล แต่ในกลุ่มผู้ที่ตอบว่าเคยอ่านข้อตกลง มีเพียง 12.3% เท่านั้นที่อ่านอย่างละเอียด อีก 36% จะอ่านเฉพาะหัวข้อที่สำคัญ ในขณะที่ 51.7% อ่านเป็นบางส่วนเท่านั้น ในส่วนนี้เองที่อาจทำให้ผู้ใช้งานไม่ทราบถึงรายละเอียดการนำข้อมูลส่วนตัวต่าง ๆ ไปใช้และมีข้อจำกัดอย่างไร 2) สำรวจข้อมูลการตั้งค่าความเป็นส่วนตัวของเว็บไซต์หรือแอปพลิเคชันอย่างละเอียด หลังจากอ่านนโยบายการใช้ข้อมูลบนเว็บไซต์หรือแอปพลิเคชันอย่างละเอียดแล้ว ขั้นตอนต่อมาคือการเริ่มใช้งานเว็บไซต์หรือแอปพลิเคชัน ก่อนการใช้งานเราควรศึกษาและสำรวจการตั้งค่าความเป็นส่วนตัวอย่างละเอียดก่อนว่ามีข้อมูลส่วนใดที่จะเปิดเผยสู่สาธารณะและเราจะยอมเปิดเผยข้อมูลส่วนนั้นหรือไม่…

เทคโนโลยี deepfake ใหม่! ใช้แค่รูปและไฟล์เสียงก็สร้างคลิปปลอมร้องเพลงได้ง่ายๆ

Loading

งานวิจัยใหม่จาก Imperial College ในกรุงลอนดอน และศูนย์วิจัย AI ของ Samsung ในสหราชอาณาจักร แสดงวิธีการที่รูปภาพเพียงรูปเดียวและไฟล์เสียงสามารถนำไปใช้สร้างคลิปวีดีโอคนร้องเพลงหรือพูดได้ นักวิจัยก็ใช้วิธีเช่นเดียวกับงาน deepfake อื่นๆ ที่เราเคยเห็น นั่นคือ ใช้ระบบเรียนรู้สร้างเอาท์พุต และแม้ว่าผลที่ออกมาจะยังห่างไกลจากความสมจริง 100 เปอร์เซ็นต์ แต่ก็น่าประหลาดใจที่สามารถสร้างผลลัพธ์ออกมาได้จากข้อมูลเพียงนิดเดียว ดังที่เห็นได้จากตัวอย่างของคลิปอัลเบิร์ต ไอน์สไตน์ ซึ่งถูกแปลงออกมาเป็นคลิปบรรยายที่คุณคงไม่เคยเห็นที่ไหนมาก่อน อีกหนึ่งตัวอย่างคือ คลิปของกริกอรี รัสปูติน กำลังร้องเพลงของบียอนเซ่ ไม่เพียงแต่จะทำให้ภาพวีดีโอที่ออกมาตรงกับไฟล์เสียงเท่านั้น ระบบยังสามารถทำให้คนพูดสื่ออารมณ์ออกมาได้ตรงตามที่กำหนดด้วย โดยมีอินพุตเพียงแค่ภาพรูปเดียวและไฟล์เสียง แล้วอัลกอริธึมก็จัดการส่วนที่เหลือนั้น ดังที่กล่าวไว้แล้วข้างต้น ผลงานที่ออกมาไม่ได้ดูสมจริงนัก แต่เป็นการแสดงให้เห็นว่าเทคโนโลยีพัฒนาไปได้เร็วแค่ไหน เทคนิคในการสร้าง deepfake นั้นง่ายขึ้นทุกที และแม้ว่างานวิจัยเช่นนี้ยังไม่ออกสู่ตลาด แต่คงอีกไม่นานที่เทคโนโลยีนี้อาจจะมาในรูปแบบซอฟต์แวร์ที่ใช้งานง่าย เป็นที่เข้าใจได้ว่า งานวิจัยแนวนี้สร้างความกังวลใจแก่คนทั่วไปหากถูกนำไปใช้เผยแพร่ข้อมูลเท็จและโฆษณาชวนเชื่อ หรือถูกนำไปใช้ก่อความเสียหายแก่ตัวบุคคล โดยเฉพาะผู้หญิง ซึ่งยังคงตกเป็นเป้าถูกนำภาพไปใช้สร้างภาพอนาจารสร้างความอับอายได้ ————————————————————- ที่มา : ADPT News / JUNE 21, 2019 Link : https://www.adpt.news/2019/06/21/new-deepfake-tech-turns-single-photo-and-audio-file-into-singing-vdo/

ใหม่! เครื่องมือตรวจจับคลิปปลอม deepfake ได้แม่นยำถึง 96%

Loading

เครื่องมือใหม่ที่พัฒนาโดยทีมวิจัยจาก the USC Information Sciences Institute (USCISI) อาจเป็นตัวช่วยยับยั้งการแพร่ระบาดของคลิปปลอม deepfake ได้ โดยเครื่องมือนี้จะตรวจจับการเคลื่อนไหวของใบหน้าและศีรษะ และสิ่งแปลกปลอมในไฟล์เพื่อดูว่าวีดีโอนั้นถูกปลอมขึ้นมาหรือไม่ จากงานวิจัยที่เผยแพร่โดย the Computer Vision Foundation พบว่า ระบบสามารถตรวจพบวีดีโอที่สร้างโดยคอมพิวเตอร์ได้แม่นยำถึง 96 เปอร์เซ็นต์ โมเดลที่ใช้ตรวจจับคลิปปลอมทั่วไปวิเคราะห์วีดีโอแบบเฟรมต่อเฟรมเพื่อหาจุดที่มีการดัดแปลง แต่เทคนิคใหม่ที่สร้างโดยทีมนักวิจัย USC ใช้เวลาและการคำนวณทางคอมพิวเตอร์ที่น้อยกว่านั้น โดยระบบจะรีวิวดูวีดีโอทั้งหมดครั้งเดียว ซึ่งทำให้ระบบประมวลผลข้อมูลได้เร็วขึ้น จากนั้นจึงนำเฟรมวีดีโอวางซ้อนกันและตรวจหาความไม่สอดคล้องกันจากการขยับของคนในคลิป ซึ่งอาจจะเป็นการขยับเปลือกตาเล็กน้อยหรือการเคลื่อนไหวท่าทางแปลกๆ ที่นักวิจัยเรียกว่า “softbiometric signature (สัญลักษณ์ทางข้อมูลอัตลักษณ์บุคคล)” ทีมนักวิจัยใช้ชุดข้อมูลวีดีโอที่ผ่านการดัดแปลงมาประมาณ 1,000 คลิป ในการฝึกเครื่องมือนี้ ทำให้ระบบค่อนข้างชำนาญในการระบุคลิปปลอมของนักการเมืองหรือเหล่าผู้มีชื่อเสียง นี่จึงอาจเป็นประโยชน์อย่างยิ่งโดยเฉพาะในช่วงการเลือกตั้งประธานาธิบดีสหรัฐอเมริกาปี 2563 การหยุดการแพร่ระบาดข้อมูลเท็จจึงเป็นสิ่งจำเป็นและสำคัญยิ่ง —————————————————- ที่มา : ADPT News / JUNE 22, 2019 Link : https://www.adpt.news/2019/06/22/new-tool-detects-deepfakes-with-96-percent-accuracy/