คำตัดสินล่าสุดในสหรัฐฯ สะท้อนความจริงใหม่ของยุคปัญญาประดิษฐ์
AI อาจเป็นผู้ช่วยที่ทรงพลัง แต่ไม่ใช่พื้นที่ปลอดภัยสำหรับข้อมูลลับทางกฎหมาย
การสนทนากับแชตบอตอาจถูกนำไปใช้ในศาลได้ และการใช้ AI โดยไม่ระมัดระวังอาจทำให้สิทธิพิเศษทนาย-ลูกความสูญหายโดยไม่ตั้งใจในโลกที่เทคโนโลยีเคลื่อนที่เร็วกว่ากฎหมาย การรู้เท่าทันความเสี่ยงจึงเป็นเกราะป้องกันที่สำคัญที่สุด
ค่ำวันหนึ่งในนิวยอร์ก ห้องพิจารณาคดีของศาลรัฐบาลกลางเต็มไปด้วยความเงียบงันที่หนักอึ้ง ผู้พิพากษา Jed Rakoff อ่านคำตัดสินที่อาจกลายเป็นหมุดหมายสำคัญของยุคปัญญาประดิษฐ์ เมื่อข้อความสนทนาระหว่างผู้ต้องหากับ AI ไม่ได้รับความคุ้มครองแบบเดียวกับการสนทนาระหว่างทนายกับลูกความ และสามารถถูกนำไปใช้ในคดีอาญาได้
คำตัดสินนี้เกิดขึ้นในคดีของ Bradley Heppner อดีตผู้บริหารบริษัทการเงินที่ล้มละลาย เขาใช้ Claude แชตบอตของ Anthropic เพื่อช่วยจัดทำเอกสารสำหรับทีมทนาย แต่เมื่ออัยการขอให้ส่งมอบข้อมูลดังกล่าว ฝ่ายจำเลยอ้างว่าเป็นข้อมูลที่อยู่ภายใต้สิทธิพิเศษทนายลูกความ ทว่าศาลกลับเห็นต่างอย่างสิ้นเชิง
...การตัดสินครั้งนี้สะเทือนวงการกฎหมายสหรัฐฯ ทันที ราวกับสัญญาณเตือนดังลั่นว่า “อย่าคิดว่า AI คือที่ปรึกษาส่วนตัว” เพราะทุกคำที่พิมพ์ลงไปอาจย้อนกลับมาเป็นหลักฐานในศาลได้
ในโลกออนไลน์ ผู้คนจำนวนมากหันไปพึ่งพาแชตบอตเพื่อขอคำแนะนำ ตั้งแต่เรื่องงานเอกสาร ไปจนถึงคำถามทางกฎหมายเบื้องต้น แต่ทนายความหลายรายเริ่มออกมาเตือนว่า การคุยกับ AI ไม่ได้อยู่ภายใต้การคุ้มครองทางกฎหมายแบบเดียวกับการคุยกับทนายตัวจริง
สำนักงานกฎหมายหลายแห่งในสหรัฐฯ ส่งอีเมลเตือนลูกความอย่างเร่งด่วน บางแห่งถึงขั้นเพิ่มข้อกำหนดในสัญญาว่า การนำคำแนะนำของทนายไปป้อนให้แชตบอต อาจทำให้สิทธิพิเศษทางกฎหมายสูญหายทันที เพราะถือเป็นการเปิดเผยข้อมูลให้บุคคลที่สาม
ทนาย Alexandria Gutiérrez Swette จากบริษัท Kobre & Kim กล่าวอย่างตรงไปตรงมาว่า “เราบอกลูกความเสมอว่า ต้องระวังให้มากเมื่อใช้ AI ในเรื่องที่เกี่ยวข้องกับความเสี่ยงทางกฎหมาย”
กรณีของ Heppner กลายเป็นตัวอย่างชัดเจนที่สุด เขาใช้ Claude เพื่อร่างเอกสารเกี่ยวกับคดีของตนเอง โดยหวังว่าจะช่วยให้ทีมทนายทำงานได้เร็วขึ้น แต่ศาลตัดสินว่า AI ไม่ใช่ “บุคคล” และไม่สามารถมีความสัมพันธ์แบบทนาย-ลูกความได้
ผู้พิพากษา Rakoff ระบุว่า ผู้ใช้ “ไม่มีสิทธิ์คาดหวังความเป็นส่วนตัว” เมื่อใช้แพลตฟอร์มเช่น Claude ซึ่งมีเงื่อนไขการใช้งานที่อนุญาตให้บริษัทแบ่งปันข้อมูลกับบุคคลที่สามได้
ในอีกด้านหนึ่ง ผู้พิพากษาในรัฐมิชิแกนกลับตัดสินต่างออกไปในคดีของหญิงที่เป็นตัวแทนตนเอง โดยมองว่าการใช้ ChatGPT เป็นเพียง “เครื่องมือ” ในการเตรียมคดี ไม่ใช่การเปิดเผยข้อมูลให้บุคคลที่สาม แต่คำตัดสินนี้ก็ยังไม่เพียงพอที่จะสร้างมาตรฐานที่ชัดเจน
การใช้ AI ในงานกฎหมายไม่ใช่เรื่องใหม่ แต่กำลังทวีความซับซ้อนขึ้นอย่างรวดเร็ว ตั้งแต่การค้นคว้าข้อมูล ไปจนถึงการร่างเอกสาร ซึ่งบางครั้งนำไปสู่เหตุการณ์น่าอับอาย เช่น การที่ทนายยื่นเอกสารที่มีคดีปลอมซึ่ง AI “แต่งขึ้นมาเอง”
สำนักงานกฎหมายหลายแห่งเริ่มวางแนวทางป้องกัน เช่น
- แนะนำให้ใช้ระบบ AI แบบ “ปิด” ที่ทำงานภายในองค์กร
- ระบุในคำสั่งแชตว่าเป็นการทำงาน “ตามคำแนะนำของทนาย” เพื่อเพิ่มโอกาสได้รับความคุ้มครอง
- ห้ามลูกความนำข้อมูลลับไปป้อนให้แชตบอตสาธารณะ
บริษัท Sher Tremonte ถึงขั้นระบุในสัญญาว่า การเปิดเผยข้อมูลให้ AI อาจถือเป็นการสละสิทธิ์ความคุ้มครองทางกฎหมายโดยสมบูรณ์
แพลตฟอร์ม AI ส่วนใหญ่ ทั้ง OpenAI และ Anthropic ระบุชัดเจนในเงื่อนไขการใช้งานว่า ข้อมูลของผู้ใช้สามารถถูกแบ่งปันกับบุคคลที่สามได้ในบางกรณี และไม่ควรใช้เพื่อขอคำแนะนำทางกฎหมายโดยตรง
นั่นหมายความว่า การพิมพ์ข้อมูลสำคัญลงในแชตบอต อาจไม่ต่างจากการส่งอีเมลให้คนแปลกหน้าโดยไม่ตั้งใจ
ทนาย Justin Ellis จากบริษัท MoloLamken เชื่อว่า ในอนาคตจะมีคำตัดสินเพิ่มเติมเพื่อกำหนดขอบเขตว่า แชตกับ AI สามารถใช้เป็นหลักฐานได้มากน้อยเพียงใด แต่จนกว่าจะถึงวันนั้น กฎง่าย ๆ ที่ใช้มานานหลายทศวรรษยังคงเป็นจริง นั่นคืออย่าพูดเรื่องคดีของคุณกับใคร นอกจากทนายของคุณเอง
Key Takeaways
- แชตกับ AI ไม่ได้รับความคุ้มครองแบบเดียวกับการคุยกับทนาย
- ศาลสหรัฐฯ เริ่มอนุญาตให้ใช้ข้อความจากแชตบอตเป็นหลักฐานในคดี
- การเปิดเผยข้อมูลลับให้ AI อาจทำให้สิทธิพิเศษทนาย-ลูกความหมดโอกาสในการต่อสู้คดี
- สำนักงานกฎหมายแนะนำให้ใช้ระบบ AI แบบปิดหรือระบุว่าเป็นงานตามคำแนะนำของทนาย
- ผู้ใช้ควรอ่านเงื่อนไขความเป็นส่วนตัวของแพลตฟอร์ม AI อย่างละเอียด
….
เรียบเรียงโดย AiNextopia
อ้างอิง : AI ruling prompts warnings from US lawyers: Your chats could be used against you.