สันติไม่ใช่คำตอบ PaintCam Eve กล้องวงจรปิดอัจฉริยะตอบโต้ผู้บุกรุก

Loading

  กล้องวงจรปิด ถือเป็นอุปกรณ์รักษาความปลอดภัยพื้นฐานและได้รับการใช้งานทั่วไปในปัจจุบัน โดยมากกล้องวงจรปิดทำหน้าที่บันทึกภาพตรวจสอบเหตุการณ์ แต่ล่าสุดเรากำลังจะล้ำไปอีกขั้น เมื่อมีกล้องวงจรปิดอัจฉริยะ PaintCam Eve ที่ตอบโต้ผู้บุกรุกโดยอัตโนมัติ   เมื่อพูดถึงอุปกรณ์รักษาความปลอดภัยอย่างกล้องวงจรปิด เราย่อมนึกถึงกล้องที่ติดตั้งไว้ตามสถานที่ต่างๆ สำหรับตรวจสอบและบันทึกเหตุการณ์ที่เกิดแบบเรียลไทม์ ใช้เฝ้าดูพื้นที่เฝ้าระวังหรือมุมอับสายตาเพื่อตรวจสอบสถานการณ์ ไปจนนำภาพบันทึกที่ได้มานำเสนอเป็นหลักฐานทางกฎหมายต่อไป   อย่างไรก็ตามกล้องวงจรปิดตามปกติถูกใช้งานเพื่อตรวจสอบและเก็บบันทึกภาพเหตุการณ์จริงเป็นหลัก ทำได้มากสุดเพียงการสอดแนมสิ่งที่เกิดขึ้นในบริเวณนั้นซึ่งบางครั้งมันไม่เพียงพอ ทั้งในกรณีที่อีกฝ่ายไม่เกรงกลัวว่าจะถูกบันทึกภาพ หรือการรุกล้ำเข้ามาของสัตว์ที่สร้างความรำคาญได้ไม่แพ้กัน   นี่เองจึงนำไปสู่กล้องวงจรปิดอัจฉริยะรุ่นใหม่ที่สามารถทำการตอบโต้ผู้บุกรุกได้โดยอัตโนมัติ     PaintCam Eve กล้องวงจรปิดอัจฉริยะที่ยิงตอบโต้ผู้บุกรุกได้ ผลงานนี้เป็นของบริษัท OZ-IT สตาร์ทอัพจากสโลวีเนีย กับการพัฒนากล้องวงจรปิดอัจฉริยะ PaintCam Eve ไม่เพียงใช้ตรวจตราและจับภาพการบุกรุกแบบกล้องวงจรปิดทั่วไป แต่เมื่อตรวจพบความผิดปกติหรืออันตราย ตัวกล้องยังสามารถยิงกระสุนเพนท์บอลเพื่อตอบโต้ได้อีกด้วย   จริงอยู่กล้องวงจรปิดในปัจจุบันมีฟังก์ชันการทำงานหลากหลาย สามารถส่งเสียงแจ้งเตือนไปจนสัญญาณขอความช่วยเหลือจากเจ้าหน้าที่โดยตรงเมื่อตรวจพบการบุกรุก แต่หลายท่านอาจรู้สึกว่าเพียงการแจ้งเตือนอย่างเดียวยังไม่เพียงพอและอยากได้การตอบสนองที่แข็งกร้าวมากยิ่งขึ้น   ด้วยเหตุนี้พวกเขาจึงพัฒนากล้องวงจรปิดอัจฉริยะ PaintCam Eve อาศัยระบบตรวจจับการเคลื่อนไหวระดับสูงเพื่อความแม่นยำในการค้นหาสิ่งแปลกปลอมที่รุกล้ำเข้าสู่พื้นที่ พร้อมกับระบบจดจำใบหน้าเพื่อระบุและยืนยันตัวตนของผู้อยู่อาศัยที่ได้รับการบันทึกในระบบเพื่อแยกแยะเป้าหมาย   กรณีกล้องตรวจพบการบุกรุกของสิ่งแปลกปลอม ระบบจะเริ่มจากการส่งเสียงเตือนให้เป้าหมายทำการออกจากพื้นที่ที่กำหนดภายใน 5 วินาที หากไม่ปฏิบัติตามกล้องจะเริ่มทำการส่งกระสุนเพนท์บอลเข้าใส่เป้าหมายโดยอัตโนมัติ เพื่อให้สามารถระบุตัวตนของผู้บุกรุกได้ทันทีเมื่อมีการแจ้งความต่อไป   เมื่อตรวจพบการบุกรุกผู้ใช้งานจะได้รับการแจ้งเตือนจาก…

รู้จัก Bruteforce ภัยไซเบอร์โจมตีบริษัทอาเซียนอ่วม 61 ล้านครั้งในปีเดียว

Loading

แคสเปอร์สกี้ (Kaspersky) รายงานว่าได้บล็อกการโจมตีแบบ Bruteforce ตั้งแต่เดือนมกราคมถึงธันวาคม 2023 Bruteforce. Generic. RDP ทั้งหมด 61,374,948 รายการที่มุ่งโจมตีบริษัทขนาดต่างๆ ในภูมิภาคเอเชียตะวันออกเฉียงใต้ สะท้อนโจรไซเบอร์มุ่งเจาะรหัสผ่านองค์กรธุรกิจทั่วอาเซียนต่อเนื่อง

ดับไฟใต้…ต้องเข้าใจ “ยุทธศาสตร์แนวร่วม – ยุทธศาสตร์ชิงมวลชน”

Loading

พูดถึง “แนวทาง” หรือ “ยุทธศาสตร์ดับไฟใต้” จะว่าไปจนถึงป่านนี้ ผ่านมา 20 ปีแล้ว ยังถกเถียงกันอยู่ว่า รัฐบาลไทยทุกชุดที่ผ่านมามี “ยุทธศาสตร์ดับไฟใต้” ในบริบทของการ “เอาชนะสงครามที่ปลายด้ามขวาน” แล้วหรือยัง

จะเป็นอย่างไร หาก ‘เอไอ’ กลายเป็นภัยคุกคามโลก?

Loading

เมื่อวันพุธ คณะทำงานของประธานาธิบดีโจ ไบเดน แห่งสหรัฐฯ กางแผนเบื้องต้นในการรับมือกับโมเดลปัญญาประดิษฐ์ หรือ AI ขั้นสูงจากจีนและรัสเซีย โดยนักวิจัยจากภาครัฐและเอกชนต่างกังวลว่าประเทศคู่แข่งสหรัฐฯ อาจใช้ AI เป็นเครื่องมือในการสร้างภัยคุกคามได้หลากหลายรูปแบบ

แนะวิธีสุดง่าย ป้องกันแก๊งโจรใช้ “เอไอ” แปลงเสียงโทรฯหลอกให้โอนเงิน

Loading

เทคโนโลยีปัญญาประดิษฐ์หรือ “เอไอ” นั้น มีทั้งประโยชน์และโทษ ขึ้นอยู่กับเจตนาของผู้ใช้ และในตอนนี้ โปรแกรมเอไอบางโปรแกรมก็ได้กลายเป็นเครื่องมือที่มิจฉาชีพนำไปใช้ปลอมแปลงเสียงพูดทางโทรศัพท์ แล้วแอบอ้างว่าเป็นญาติมิตรของเหยื่อ เพื่อหลอกให้โอนเงินหรือบอกข้อมูลสำคัญทางการเงิน

เตือนภัย มิจฉาชีพใช้ AI 3 รูปแบบมาหลอกเหยื่อให้หลงเชื่อโอนเงิน

Loading

  เตือนภัย ! ยุคเทคโนโลยีล้ำหน้า “มิจฉาชีพ” ใช้ AI 3 รูปแบบทั้ง ปลอมเสียง ปลอมแปลงใบหน้า หรือสร้างบทความหลอกให้มาร่วมลงทุน   ปัจจุบันมิจฉาชีพออนไลน์ มักมาทุกรูปแบบจนเหยื่อหลายรายตามไม่ทัน ซึ่งมุกมีใหม่ ๆ ที่ไม่มีใครคาดคิดทำให้มีประชาชนหลงกลตกเป็นผู้เสียหายจำนวนมาก ซึ่งที่ผ่านมาหน่วยงานต่าง ๆ ต่างเร่งแก้ไขปราบปราม ประชาชนสัมพันธ์ ให้ความรู้แก่ประชาชน แต่คนร้ายแก๊งคอลเซ็นเตอร์ก็พัฒนาวิธีการหลอกรูปแบบใหม่ๆ โดยเฉพาะการนำเทคโนโลยี Ai มาเป็นเครื่องมือในการหลอกลวงกระทำความผิด   รูปแบบของ AI ที่มิจฉาชีพนำมาใช้ ที่เริ่มพบเจอเยอะมากขึ้นได้แก่ •  Voice Cloning หรือ การใช้ AI ปลอมเสียง โดยจะเป็นการใช้ AI เลียนแบบเสียงของบุคคลให้มีความคล้ายคลึงกับบุคคล เพื่อใช้ในการหลอกเหยื่อให้คิดว่าได้คุยกับคน ๆ นั้นจริง ๆ ก่อนที่จะหลอกให้โอนเงินหรือทำอะไรอย่างอื่นต่อไป   •  Deepfake หรือการใช้ AI ปลอมแปลงใบหน้าให้มีความคล้ายคลึงกับบุคคลต่างๆ เพื่อหลอกเชื่อว่าคน ๆ…