ทนายสหรัฐที่ใช้ตัวอย่างคดีปลอมในชั้นศาล ถูกศาลตัดสินสั่งปรับ 5,000 ดอลลาร์

Loading

  หลังจากการพิจารณาคดี ที่ทนายความ Steven Schwartz ใช้หลักฐานและตัวอย่างคดีปลอมจาก ChatGPT ในคดีฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย   ล่าสุด ศาลแขวงแมนแฮตตัน สหรัฐอเมริกา มีคำสั่งให้ Steven Schwartz, Peter LoDuca (ผู้รับช่วงต่อคดีจาก Steven) และ สำนักงานกฎหมายต้นสังกัด Levidow, Levidow & Oberman ถูกปรับ 5,000 ดอลลาร์   ผู้พิพากษาให้เหตุผลว่า Steven จงใจให้ข้อมูลเท็จกับศาลโดยการใช้หลักฐานและคดีปลอมจาก AI ขณะที่สำนักงานกฎหมายของฝั่ง Steven โต้แย้งว่าเป็นความผิดโดยบริสุทธิ์ใจ   ในคดีระหว่าง Steven และสายการบิน Avianca ซึ่งเป็นที่มาของเหตุการณ์ครั้งนี้ สายการบินขอให้ศาลยกฟ้อง ขณะที่ Steven รวบรวมหลักฐานคดีต่าง ๆ จาก ChatGPT ซึ่งเป็นข้อมูลปลอมมาใช้สู้คดี แต่กลับไม่สามารถหาที่มาของทั้ง 6 คดีที่นำมาอ้างได้เมื่อถูกทีมกฎหมายของสายการบินทวงถาม…

ผู้พิพากษารัฐเท็กซัสออกกฎให้ทนายตรวจสอบเนื้อหาที่สร้างจาก AI หลังมีกรณีใช้คดีปลอมในชั้นศาล

Loading

  หลังจากที่ ทนาย Steven Schwartz ถูกลงโทษหลังใช้คดีปลอมจาก ChatGPT มาใช้ในชั้นศาล มาคราวนี้ผู้พิพากษา Brantley Starr ในรัฐเท็กซัสได้กำหนดเกณฑ์ใหม่   ด้วย “ใบรับรองว่าด้วย Generative AI” ซึ่งระบุว่า ทนายที่ว่าความในศาลของเขาจะต้องยืนยันว่า “ไม่มีการใช้ Generative AI (เช่น ChatGPT, Harvey.AI หรือ Google Bard) เพื่อสร้างสำนวนในเอกสารที่ใช้ในชั้นศาล ซึ่งรวมถึง “การอ้างคำพูด การอ้างอิง การถอดความยืนยัน และการวิเคราะห์ทางกฎหมาย” หรือหากมีก็จะต้องมีการตรวจสอบความถูกต้องโดยสื่อสิ่งพิมพ์หรือฐานข้อมูลทางกฎหมายแบบดั้งเดิมซึ่งจัดทำโดยมนุษย์เท่านั้น”   แม้ว่า Brantley Starr จะเป็นผู้พิพากษาเพียงคนเดียวที่เริ่มใช้หลักการนี้ แต่ก็มีแนวโน้มว่าผู้อื่นจะหันมายึดถือกฎนี้เช่นกัน โดยผู้พิพากษา Starr ระบุด้วยว่า AI อาจเป็นเทคโนโลยีที่เป็นประโยชน์ แต่การใช้งานจะต้องมีการระบุอย่างชัดเจนและถูกตรวจสอบความถูกต้อง     ที่มา : TechCrunch     ——————————————————————————————————————————————————–…