ทนายสหรัฐที่ใช้ตัวอย่างคดีปลอมในชั้นศาล ถูกศาลตัดสินสั่งปรับ 5,000 ดอลลาร์

Loading

  หลังจากการพิจารณาคดี ที่ทนายความ Steven Schwartz ใช้หลักฐานและตัวอย่างคดีปลอมจาก ChatGPT ในคดีฟ้องร้องเรียกค่าเสียหายกับสายการบิน Avianca ของโคลอมเบีย   ล่าสุด ศาลแขวงแมนแฮตตัน สหรัฐอเมริกา มีคำสั่งให้ Steven Schwartz, Peter LoDuca (ผู้รับช่วงต่อคดีจาก Steven) และ สำนักงานกฎหมายต้นสังกัด Levidow, Levidow & Oberman ถูกปรับ 5,000 ดอลลาร์   ผู้พิพากษาให้เหตุผลว่า Steven จงใจให้ข้อมูลเท็จกับศาลโดยการใช้หลักฐานและคดีปลอมจาก AI ขณะที่สำนักงานกฎหมายของฝั่ง Steven โต้แย้งว่าเป็นความผิดโดยบริสุทธิ์ใจ   ในคดีระหว่าง Steven และสายการบิน Avianca ซึ่งเป็นที่มาของเหตุการณ์ครั้งนี้ สายการบินขอให้ศาลยกฟ้อง ขณะที่ Steven รวบรวมหลักฐานคดีต่าง ๆ จาก ChatGPT ซึ่งเป็นข้อมูลปลอมมาใช้สู้คดี แต่กลับไม่สามารถหาที่มาของทั้ง 6 คดีที่นำมาอ้างได้เมื่อถูกทีมกฎหมายของสายการบินทวงถาม…

Group-IB เตือนแฮ็กเกอร์ได้ล็อกอิน ChatGPT ไปมากขึ้นเรื่อยๆ

Loading

  บริษัทความปลอดภัยไซเบอร์ Group-IB ออกรายงานเหตุข้อมูลรั่วไหลจากมัลแวร์ขโมยข้อมูล พบว่า ช่วงหลังมัลแวร์ที่อาละวาดหนักๆ 3 ตัว คือ Raccoon , Vidar , และ Redline ดึงข้อมูลล็อกอิน ChatGPT ไปได้มากขึ้นเรื่อยๆ ตามความนิยมในบริการ โดยรวมพบล็อกอิน ChatGPT หลุดกว่าแสนรายการแล้ว   ไม่มีข้อมูลว่ามัลแวร์เหล่านี้มุ่งดึงข้อมูลเว็บ ChatGPT เป็นการเฉพาะ แต่การใช้งาน ChatGPT ในช่วงหลังเกี่ยวกับงานมากขึ้นเรื่อยๆ รายงานนี้ก็เป็นเครื่องเตือนใจว่าควรดูแลความปลอดภัย ChatGPT ให้ดี และรีเซ็ตรหัสผ่านหากมีเหตุข้อมูลรั่วไหล การตั้งค่าเริ่มต้นของ ChatGPT จะเก็บประวัติการแชตเป็นค่าเริ่มต้น หากพนักงานใส่ข้อมูลที่เป็นความลับในแชตก็อาจจะทำให้ข้อมูลเหล่านี้หลุดไปยังคนร้ายด้วย ที่มา – Group-IB   ——————————————————————————————————————————————————————————   ที่มา : blognone     /     วันที่เผยแพร่ 21 มิ.ย.66 Link : https://www.blognone.com/node/134461

ChatGPT ความเสี่ยงจาก การสร้างเนื้อหาที่ผิดพลาด

Loading

    ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม   ChatGPT เป็นตัวอย่างหนึ่งของ Generative AI ที่สามารถสร้างเนื้อหาได้เองกำลังเริ่มมีการใช้งานอย่างแพร่หลายมากขึ้น ทั้งนำมาเขียนจดหมาย รายงาน บทความ หรือช่วยระดมความคิดเห็นต่างๆ รวมไปจนถึงนำไปเขียนโค้ดในการพัฒนาโปรแกรม ซึ่งเราจะเห็นความน่าทึ่งจากความสามารถของ ChatGPT ในการสร้างข้อมูล   แต่ในขณะเดียวกัน เราก็ยังพบว่า ChatGPT อาจจินตนาการและสร้างข้อมูลที่ไม่ถูกต้องมาได้ด้วย จนเริ่มมีคำถามว่าเราควรจะอนุญาตให้มีการใช้ ChatGPT ในงานด้านต่างๆ เพียงใด และหากมีการนำมาใช้งานจำเป็นจะต้องระบุด้วยหรือไม่ว่าเนื้อหาถูกสร้างจาก ChatGPT   เหตุผลหลักที่ทำให้ ChatGPT สร้างข้อมูลที่ไม่ถูกต้องได้นั้น เกิดจากการที่ ChatGPT ได้รับการเรียนรู้มาด้วยข้อมูลจำนวนมหาศาลจากเนื้อหาในอินเทอร์เน็ต ที่อาจประกอบไปด้วยข้อมูลทั้งที่ถูกต้อง และที่ไม่ถูกต้อง ซึ่ง ChatGPT ไม่สามารถตรวจสอบความถูกต้องของข้อมูลที่ได้จากการเรียนรู้ ดังนั้นจึงไม่แปลกใจที่มันจะสร้างข้อมูลที่ไม่ถูกต้องออกมาในบางครั้งจากคลังความรู้ที่ผิดๆ บางส่วน   นอกจากนี้ ChatGPT ถูกฝึกอบรมมาจากข้อมูลถึงเมื่อเดือนกันยายน…

คำศัพท์ไอที น่ารู้ในปี 2023 Big Data, ChatGPT, scam คืออะไร?

Loading

      คำศัพท์ไอที น่ารู้ในปี 2023   คำศัพท์ไอที คำย่อ ตอนนี้มีเยอะแยะมากมาย เรามาดูกันดีกว่าว่า คำที่ฮิต ฮอท ถูกพูดถึงเยอะมาก ๆ ในตอนนี้มีคำว่าอะไรกันบ้างที่เราพลาดไม่ได้   ช่วงนี้เราจะเห็นเทคโนโลยีใหม่ ๆ เกิดขึ้นมาอยู่เรื่อยๆ ทำให้เราจะได้ยิน คำศัพท์ไอที แปลก ๆ ใหม่ ๆ หรือบางคำก็เป็นคนที่เราคุ้นเคย แต่เราก็อาจจะหลงลืมความหมายไปแล้ว งัันวันนี้เรามาได้รวบรวมคำศัพทางท์เทคโนโลยีที่น่าสนใจมาดูกันดีกว่าว่า มันหมายถึงอะไรกันบ้าง   คำศัพท์ไอที : ChatGPT ChatGPT เอไอที่มาแรงกลายเป็น Talk of the town กันมาตั้งแต่ปลายปีที่แล้ว ซึ่งจริง ๆ แล้ว ChatGPT ก็คือ Chatbotที่ มี AI โมเดลด้านภาษาที่ชื่อว่า GPT เวอร์ชัน 3.5 หรือ 4…

สหราชอาณาจักรเสนอ ควรมีการออก “ใบอนุญาตผู้พัฒนาเอไอ”

Loading

    พรรคฝ่ายค้านสหราชอาณาจักรเสนอ ควรมีการออก “ใบอนุญาต” สำหรับผู้ที่ต้องการพัฒนาปัญญาประดิษฐ์ ใครไม่มีจะพัฒนาเอไอไม่ได้   พรรคแรงงานแห่งสหราชอาณาจักรซึ่งเป็นพรรคฝ่ายค้าน เสนอว่า รัฐบาลสหราชอาณาจักรควรกำหนดให้มีการออก “ใบอนุญาต” สำหรับองค์กรหรือบริษัทที่ต้องการพัฒนาปัญญาประดิษฐ์ (เอไอ) และห้ามไม่ให้นักพัฒนาเทคโนโลยีทำงานเกี่ยวกับเครื่องมือปัญญาประดิษฐ์ขั้นสูง เว้นแต่จะมีใบอนุญาต   ลูซี พาวเวลล์ โฆษกฝ่ายดิจิทัลของพรรคแรงงาน บอกว่า ควรมีการออกกฎที่เข้มงวดมากขึ้นเกี่ยวกับบริษัทที่ฝึกอบรมและพัฒนาปัญญาประดิษฐ์บนชุดข้อมูลขนาดใหญ่ เหมือนที่ OpenAI ใช้สร้างแชตบอต ChatGPT     ความคิดเห็นของเธอเกิดขึ้นท่ามกลางความสนใจเกี่ยวกับเอไอที่เพิ่มขึ้นของเจ้าหน้าที่รัฐบาลระดับสูง เกี่ยวกับวิธีการควบคุมโลกที่กำลังเดินหน้าไปอย่างรวดเร็วของ โดยก่อนหน้านี้นายกรัฐมนตรีสหราชอาณาจักร ริชี ซูนัก ยอมรับว่า เอไออาจเป็นภัยคุกคามต่อมนุษยชาติ   แมตต์ คลิฟฟอร์ด ประธานสำนักงานเพื่อการวิจัยและการประดิษฐ์ (ARIA) หนึ่งในที่ปรึกษาของรัฐบาลเกี่ยวกับปัญญาประดิษฐ์ยังกล่าวเมื่อวานนี้ (5 มิ.ย.) ว่า มนุษยชาติอาจมีเวลาเพียง 2 ปีก่อนที่เอไอจะเอาชนะและมีสติปัญญาเหนือกว่ามนุษย์ได้   เขาบอกว่า เอไอกำลังพัฒนาเร็วกว่าที่คนส่วนใหญ่รับรู้ โดยมันสามารถถูกใช้เพื่อปล่อยอาวุธชีวภาพหรือการโจมตีทางไซเบอร์ขนาดใหญ่ได้ และเสริมว่ามนุษย์อาจถูกแซงหน้าอย่างรวดเร็วด้วยเทคโนโลยีที่พวกเขาสร้างขึ้น   คลิฟฟอร์ดกล่าวว่า “เป็นเรื่องจริงที่ถ้าเราพยายามสร้างปัญญาประดิษฐ์ที่ฉลาดกว่ามนุษย์และเราไม่รู้วิธีควบคุมมัน…

ผู้พิพากษารัฐเท็กซัสออกกฎให้ทนายตรวจสอบเนื้อหาที่สร้างจาก AI หลังมีกรณีใช้คดีปลอมในชั้นศาล

Loading

  หลังจากที่ ทนาย Steven Schwartz ถูกลงโทษหลังใช้คดีปลอมจาก ChatGPT มาใช้ในชั้นศาล มาคราวนี้ผู้พิพากษา Brantley Starr ในรัฐเท็กซัสได้กำหนดเกณฑ์ใหม่   ด้วย “ใบรับรองว่าด้วย Generative AI” ซึ่งระบุว่า ทนายที่ว่าความในศาลของเขาจะต้องยืนยันว่า “ไม่มีการใช้ Generative AI (เช่น ChatGPT, Harvey.AI หรือ Google Bard) เพื่อสร้างสำนวนในเอกสารที่ใช้ในชั้นศาล ซึ่งรวมถึง “การอ้างคำพูด การอ้างอิง การถอดความยืนยัน และการวิเคราะห์ทางกฎหมาย” หรือหากมีก็จะต้องมีการตรวจสอบความถูกต้องโดยสื่อสิ่งพิมพ์หรือฐานข้อมูลทางกฎหมายแบบดั้งเดิมซึ่งจัดทำโดยมนุษย์เท่านั้น”   แม้ว่า Brantley Starr จะเป็นผู้พิพากษาเพียงคนเดียวที่เริ่มใช้หลักการนี้ แต่ก็มีแนวโน้มว่าผู้อื่นจะหันมายึดถือกฎนี้เช่นกัน โดยผู้พิพากษา Starr ระบุด้วยว่า AI อาจเป็นเทคโนโลยีที่เป็นประโยชน์ แต่การใช้งานจะต้องมีการระบุอย่างชัดเจนและถูกตรวจสอบความถูกต้อง     ที่มา : TechCrunch     ——————————————————————————————————————————————————–…