NIST เตือนภัยวิธีการแฮ็ก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้
สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) พบว่าวิธีการโจมตีที่เรียกว่า Prompt Injection สามารถนำไปแฮ็ก AI เชิงสังเคราะห์ (GenAI) อย่าง ChatGPT ได้ NIST แบ่ง Prompt Injection เป็น 2 แบบ แบบแรกคือทางตรง (Direct Prompt Injection) เป็นการที่ผู้ใช้งานป้อนพรอมต์ (prompt) หรือคำสั่งไปยังตัว AI ด้วยข้อความที่ทำให้ AI ทำงานในแบบที่มันไม่ควรจะทำหรือไม่ได้รับอนุญาต แบบที่ 2 คือแบบทางอ้อม (Indirect Prompt Injection) ซึ่งเน้นพุ่งเป้าทำลายหรือสร้างความเสียหายต่อข้อมูลที่ตัว AI ดึงมาใช้ในสร้างข้อมูลใหม่ Direct Prompt Injection หนึ่งในวิธีทางตรงที่ NIST บอกว่าเป็นที่รู้จักมากที่สุดคือ DAN หรือ Do Anything Now คือการที่ผู้ใช้สวมบทให้กับตัว…