Silicon Valley สหรัฐฯ เร่งคัดกรองพนักงานชาวจีนเพื่อป้องกันการจารกรรม

Loading

OpenAI หนึ่งในบริษัทเทคโนโลยีของสหรัฐฯ ที่ได้เพิ่มการตรวจสอบความปลอดภัยพนักงานและผู้สมัครงาน   เว็บไซต์ VOA News รายงานเมื่อ 4 ก.ค.67 ว่า ซิลิคอนแวลลีย์ (Silicon Valley) ศูนย์รวมบริษัทเทคโนโลยีชั้นนำของสหรัฐฯ อาทิ Google OpenAI NVIDIA และ Sequoia Capital ได้เพิ่มมาตรการรักษาความปลอดภัยเกี่ยวกับบุคคลต่อพนักงานและผู้สมัครงานทุกเชื้อชาติให้เข้มงวดขึ้น โดยเฉพาะชาวจีนหรือผู้ที่มีครอบครัวหรือมีความสัมพันธ์กับจีน ซึ่งถือว่ามีความเสี่ยงต่อแรงกดดันจากรัฐบาลจีนเป็นพิเศษ เพื่อรับมือกับภัยคุกคามทางไซเบอร์จากจีน และตอบสนองต่อคำเตือนของรัฐบาลสหรัฐฯ เกี่ยวกับภัยคุกคามจากการจารกรรมของจีนที่เพิ่มมากขึ้นในช่วงสองปีที่ผ่านมา   นักศึกษาจีนในสหรัฐฯ แซ่เจิ้ง ซึ่งไม่ต้องการเปิดเผยชื่อจริงเพราะกลัวถูกตอบโต้จากรัฐบาลจีนและกำลังขอสถานะผู้ลี้ภัยทางการเมืองในสหรัฐฯ กล่าวว่า “ฉันหวังว่าจะกลายเป็นกำลังสำคัญด้านความปลอดภัยทางไซเบอร์ของสหรัฐฯ และมีบทบาทในการต่อสู้กับการโจมตีทางไซเบอร์ของจีน” อย่างไรก็ตาม เขาไม่ได้กังวลว่าการตรวจสอบความปลอดภัยที่เพิ่มขึ้นนั้นจะส่งผลกระทบต่อโอกาสในการทำงาน แต่นักเรียนต่างชาติในสหรัฐฯ หลายคนอาจกังวลว่าพวกเขาจะถูกปิดกั้นจากงานด้านความปลอดภัยทางไซเบอร์ในสหรัฐฯ   นาย Ray Wang ซีอีโอของบริษัท Constellation Research ซึ่งตั้งอยู่ในซิลิคอนแวลลีย์ อ้างว่า การขโมยทรัพย์สินทางปัญญาของสหรัฐฯ มีมากขึ้นนับตั้งแต่เกิดการระบาดของโรคโควิด-19 และคนที่มีความเชื่อมโยงกับจีนมักตกเป็นเป้าหมาย โดยผู้คนในสหรัฐฯ ซึ่งมีญาติในจีน รัฐบาลจีนจะขอให้ทำงานบางอย่าง มิฉะนั้น…

AI เก่งเพราะขโมยข้อมูล ? : เมื่อบิ๊กเทค ‘โกง’ แอบเก็บข้อมูลฝึก AI

Loading

Scarlett Johansson นักแสดงสาวชื่อดัง ไม่พอใจที่ OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ อาจใช้เสียงของเธอในฟีเจอร์ ‘Voice Mode’ ของ ChatGPT โดยไม่ได้รับอนุญาต แม้ OpenAI จะออกมาปฏิเสธ และบอกว่าใช้เสียงของนักพากย์คนอื่น แต่หลายคนฟังแล้วต่างบอกว่าเสียงนั้นเหมือนกับโจฮันส์สันมาก จนอดคิดไม่ได้ว่าแท้จริงแล้ว OpenAI แอบนำเสียงเธอมาทำการเทรน AI หรือไม่ ?

แชทบอท AI ตอบคำถามเกี่ยวกับการเลือกตั้งสหรัฐ ผิดถึง 27%

Loading

การศึกษาพบแชทบอท AI ตอบคำถามเกี่ยวกับการเลือกตั้งสหรัฐ ผิดถึง 27% สตาร์ทอัพอเมริกัน เผยผลการวิจัย พบโมเดลภาษา AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับกฎหมายและการลงคะแนนการเลือกตั้งประธานาธิบดีสหรัฐผิดถึง 1 ใน 4 หวั่นสร้างความเข้าใจผิดให้สาธารณชน

เมื่อเสียง AI เหมือนมนุษย์เกินไปจนน่าขนลุก ล่าสุด ตัดสินใจระงับใช้งานไป

Loading

เมื่อเสียง AI เหมือนมนุษย์เกินไปจนน่าขนลุก หลังทำเสียง สการ์เลตต์ โจแฮนสัน จนเจ้าตัวไม่สบายใจ ล่าสุดตัดสินใจระงับใช้งานไป

“โอเพนเอไอ” ปิดกั้นเครือข่ายที่ใช้ AI ของบริษัทสร้างอิทธิพลในจีน-รัสเซีย

Loading

โอเพนเอไอ (OpenAI) เปิดเผยว่า บริษัทได้ระงับการดำเนินการของเครือข่ายปฏิบัติการสร้างอิทธิพล (Influence Operations) แอบแฝงจำนวน 5 เครือข่ายในช่วง 3 เดือนที่ผ่านมา รวมถึงเครือข่ายในรัสเซีย จีน อิหร่าน และอิสราเอลที่เข้าถึงผลิตภัณฑ์ด้านปัญญาประดิษฐ์ (AI) ของบริษัท เพื่อพยายามบิดเบือนความคิดเห็นของประชาชนหรือกำหนดทิศทางผลลัพธ์ทางการเมือง ในขณะที่ปกปิดตัวตนที่แท้จริง

ChatGPT ภาพหลอน และการละเมิดข้อมูลส่วนบุคคล

Loading

  หลาย ๆ ท่านอาจเคยได้ยินว่า Generative AI อาจให้ข้อมูลที่ผิดพลาดหรือไม่ตรงกับความเป็นจริงได้ ดังนั้น ผู้ใช้งานโมเดลภาษาขนาดใหญ่ (LLM: Larger language models) จึงต้องมีความตระหนักรู้ในข้อจำกัดของเทคโนโลยีประกอบด้วย   ข้อมูลที่ผิดพลาดอาจจะเป็นข้อเท็จจริงพื้นฐาน หรืออาจจะเป็นข้อมูลเกี่ยวกับบุคคลก็ได้ ลองจินตนาการว่าหาก Generative AI ให้ข้อมูลที่ไม่ถูกต้องเกี่ยวกับตัวท่าน เช่น “วันเดือนปีเกิด” ท่านในฐานะของผู้ใช้งานโมเดลภาษาหเล่านั้นหรือเจ้าของข้อมูลส่วนบุคคลที่ไม่ถูกต้อง   และโดยเฉพาะอย่างยิ่งหากมีการให้ข้อมูลที่ไม่ถูกต้องที่อาจสร้างความเสื่อมเสียต่อเจ้าของข้อมูลส่วนบุคคล   ท่านจะมีสิทธิตามกฎหมายอย่างไรบ้างหรือไม่ เพื่อจะทำให้ข้อมูลส่วนบุคคลของตนที่ถูกประมวลผลหรือแสดงผลโดย Generative AI นั้นถูกต้อง หรือขอให้ลบข้อมูลเหล่านั้นออกจากการประมวลผลหรือการแสดงผลลัพธ์   การที่ระบบปัญญาประดิษฐ์หรือ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ในทางเทคนนิค เรียกว่า AI Hallucination หรือการประดิษฐ์ภาพหลอนโดย AI   คือกรณีนี้เป็นสถานการณ์ที่ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้องหรือไม่เป็นความจริง ซึ่งเป็นผลลัพธ์การตอบสนองที่สร้างโดย AI ที่ให้ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิดว่าเป็นข้อเท็จจริง     เปรียบเสมือนภาพหลอนในจิตวิทยาของมนุษย์ที่อาจเกิดจากข้อจำกัดของโมเดล AI เอง…