เหตุการณ์ที่ศาสตราจารย์มาร์เซล บูเชอร์สูญเสียงานวิจัยที่เพียรทำมาสองปี เพราะปิดตัวเลือกข้อมูลใน ChatGPT ไม่ใช่เพียงเรื่องส่วนตัว แต่เป็นภาพสะท้อนของความเปราะบางในยุคที่มนุษย์พึ่งพา AI มากขึ้นเรื่อย ๆ
มันเตือนเราว่าเครื่องมือดิจิทัลไม่ใช่พื้นที่ถาวร และการสำรองข้อมูลยังคงเป็นหลักการพื้นฐานที่ไม่ควรถูกละเลย ขณะเดียวกัน เหตุการณ์นี้ยังชี้ให้เห็นถึงความจำเป็นที่ผู้พัฒนา AI ต้องออกแบบระบบที่ปลอดภัยและโปร่งใสยิ่งขึ้น เพื่อรองรับการใช้งานที่มีความสำคัญสูงในโลกวิชาการและวงการวิทยาศาสตร์
ในเช้าวันหนึ่งที่ดูเหมือนจะเป็นวันธรรมดาในห้องทำงานของมหาวิทยาลัยโคโลญ ประเทศเยอรมนี ศาสตราจารย์มาร์เซล บูเชอร์ นักวิจัยด้านพฤกษศาสตร์ เปิดคอมพิวเตอร์ขึ้นมาเหมือนทุกวัน เขาตั้งใจจะกลับไปทำงานต่อในเอกสารที่เขาใช้เวลาสองปีเต็มค่อย ๆ สร้าง ค่อย ๆ ขัดเกลา ตั้งแต่ร่างข้อเสนองานวิจัย ไปจนถึงสไลด์สอนหนังสือและข้อสอบที่เตรียมไว้สำหรับภาคเรียนถัดไป
แต่เมื่อเขาเปิดหน้าต่างสนทนาของ ChatGPT ซึ่งเป็นพื้นที่ทำงานที่เขาใช้เป็นประจำทุกวัน สิ่งที่ปรากฏกลับเป็นเพียงหน้าว่างเปล่า ไม่มีร่องรอยของงานที่เคยอยู่ตรงนั้น ไม่มีข้อความ ไม่มีไฟล์ ไม่มีประวัติการสนทนา เหมือนว่างานที่ทำมาสองปีนั้นไม่เคยเกิดขึ้นมาก่อน
เขามองหน้าจออยู่นาน พยายามหาปุ่มย้อนกลับหรือสัญญาณเตือนที่อาจหลุดสายตาไป แต่ไม่มีอะไรเลย มีเพียงความเงียบงันของพื้นที่ทำงานที่ถูกลบจนหมดสิ้น
และทั้งหมดนี้เกิดขึ้นเพราะเขาเพียงแค่เขาปิดตัวเลือก “ยินยอมให้ใช้ข้อมูล” ของ ChatGPT เพื่อทดลองดูว่าเครื่องมือจะยังทำงานได้เหมือนเดิมหรือไม่...
โลกที่เราฝากงานไว้กับเครื่องจักร
ในช่วงไม่กี่ปีที่ผ่านมา นักวิจัยจำนวนมากเริ่มใช้เครื่องมือปัญญาประดิษฐ์เป็นผู้ช่วยประจำตัว ไม่ว่าจะเป็นการร่างบทความ ตรวจไวยากรณ์ หรือช่วยจัดระเบียบความคิด บูเชอร์เองก็เป็นหนึ่งในนั้น เขาใช้ ChatGPT Plus ทุกวันจนกลายเป็นส่วนหนึ่งของกระบวนการทำงานอย่างแยกไม่ออก
เขาไม่ได้เชื่อว่า AI ถูกต้องเสมอไป เขารู้ดีว่ามันอาจสร้างข้อมูลผิด ๆ ได้ แต่เขาเชื่อใน “ความต่อเนื่อง” ของพื้นที่ทำงาน เขาเชื่อว่าบทสนทนาและเอกสารที่เขาสร้างไว้จะยังอยู่ตรงนั้นเสมอ
แต่ความเชื่อนั้นกลับพังทลายลงในเสี้ยววินาที
เพราะการปิดตัวเลือกการยินยอมให้ใช้ข้อมูล ทำให้ระบบลบประวัติการสนทนาทั้งหมดของเขาโดยไม่ทิ้งร่องรอย บูเชอร์เขียนเล่าประสบการณ์นี้ลงในคอลัมน์ของวารสาร Nature พร้อมยอมรับว่าเขาไม่เคยสำรองข้อมูลไว้เลย เพราะคิดว่าพื้นที่ทำงานของ ChatGPT จะคงอยู่เหมือนเดิม
ปฏิกิริยาจากสังคมออนไลน์เกิดขึ้นทันที บางคนหัวเราะเยาะ บางคนตำหนิเขาที่ฝากงานสำคัญไว้กับเครื่องมือที่ยังใหม่และไม่เสถียร บางคนถึงขั้นเรียกร้องให้มหาวิทยาลัยสอบสวนว่าเขาพึ่งพา AI มากเกินไปหรือไม่
แต่ก็มีอีกหลายคนที่เห็นใจ และมองว่านี่คือบทเรียนร่วมของยุคสมัยที่ทุกคนกำลังเรียนรู้วิธีทำงานร่วมกับเทคโนโลยีที่เปลี่ยนแปลงอย่างรวดเร็ว
เหตุการณ์ของบูเชอร์เกิดขึ้นในช่วงเวลาที่วงการวิทยาศาสตร์กำลังเผชิญความท้าทายครั้งใหญ่จากการใช้ AI อย่างกว้างขวาง วารสารวิชาการหลายแห่งเริ่มพบว่ามีบทความที่สร้างด้วย AI ถูกส่งเข้ามาเป็นจำนวนมาก บางฉบับถึงขั้นเต็มไปด้วยข้อมูลที่ตรวจสอบไม่ได้ หรืออ้างอิงงานวิจัยที่ไม่เคยมีอยู่จริง
นักวิทยาศาสตร์หลายคนได้รับแจ้งว่าผลงานของตนถูกอ้างอิงในบทความใหม่ แต่เมื่อเปิดอ่านกลับพบว่าการอ้างอิงนั้นเป็นเพียง “ภาพลวงตา” ที่ AI สร้างขึ้นมาเอง
ในบางกรณี วารสารปลอมถูกตั้งขึ้นเพื่อรองรับบทความที่สร้างด้วย AI โดยเฉพาะ และที่น่ากังวลยิ่งกว่านั้นคือมีการใช้ AI ตรวจงาน AI ด้วยกันเอง ทำให้ระบบตรวจสอบคุณภาพของงานวิชาการเริ่มสั่นคลอน
ในบริบทนี้ เรื่องของบูเชอร์จึงไม่ใช่เพียงอุบัติเหตุส่วนบุคคล แต่เป็นสัญญาณเตือนถึงความเสี่ยงที่เกิดขึ้นเมื่อเราฝากงานสำคัญไว้กับระบบที่เราไม่เข้าใจอย่างถ่องแท้
OpenAI ชี้แจงต่อบูเชอร์ว่าการลบประวัติสนทนาเป็นกระบวนการถาวรและไม่สามารถกู้คืนได้ พร้อมยืนยันว่ามีหน้าต่างยืนยันก่อนลบเสมอ และแนะนำให้ผู้ใช้สำรองข้อมูลด้วยตนเองหากเป็นงานสำคัญ
คำชี้แจงนี้ทำให้เกิดคำถามสำคัญขึ้นว่าในโลกที่ AI กลายเป็นเครื่องมือทำงานหลักของผู้คนจำนวนมาก ผู้ใช้ควรรับผิดชอบแค่ไหน? และผู้พัฒนาควรรับผิดชอบแค่ไหน?
บูเชอร์มองว่าบริษัทควรมีมาตรการป้องกันพื้นฐานมากกว่านี้ โดยเฉพาะเมื่อผู้ใช้จำนวนมากเริ่มพึ่งพา AI ในงานที่มีความสำคัญสูง เขาไม่ได้กล่าวหาว่า AI ทำงานผิดพลาด แต่ตั้งคำถามว่าระบบควรปกป้องผู้ใช้จากการสูญเสียข้อมูลโดยไม่ตั้งใจหรือไม่
เหตุการณ์นี้สะท้อนความจริงที่หลายคนอาจลืมไป ว่าเครื่องมือดิจิทัลไม่ใช่พื้นที่ถาวร ไม่ใช่สมุดบันทึกที่วางอยู่บนโต๊ะ และไม่ใช่แฟ้มเอกสารที่เราสามารถหยิบกลับมาได้เสมอ
มันคือระบบที่อาจเปลี่ยนแปลงได้ตลอดเวลา และอาจลบทุกอย่างได้ในพริบตา
ในอีกด้านหนึ่ง มันยังเตือนเราว่า AI ไม่ใช่ผู้ช่วยที่ “เข้าใจ” งานของเราอย่างแท้จริง มันเพียงจัดการข้อมูลตามกฎที่ถูกกำหนดไว้ และกฎเหล่านั้นอาจไม่สอดคล้องกับความคาดหวังของมนุษย์เสมอไป
แม้จะมีความเสี่ยง แต่ AI ก็ยังเป็นเครื่องมือที่ทรงพลังอย่างไม่อาจปฏิเสธได้ นักวิจัยจำนวนมากยังคงใช้มันเพื่อช่วยคิด ช่วยเขียน ช่วยวิเคราะห์ และช่วยจัดการข้อมูลจำนวนมหาศาล
คำถามจึงไม่ใช่ว่าเราควรเลิกใช้ AI หรือไม่ แต่คือเราจะใช้มันอย่างไรให้ปลอดภัยและมีประสิทธิภาพ โดยไม่ฝากชีวิตการทำงานไว้กับมันจนหมดสิ้น
เหตุการณ์ของบูเชอร์อาจเป็นเพียงหนึ่งในหลายกรณีที่กำลังจะเกิดขึ้นในอนาคต แต่ก็เป็นกรณีที่ทำให้เราต้องหยุดคิดว่าในยุคที่เทคโนโลยีฉลาดขึ้นทุกวัน เราเองต่างหากที่ต้องฉลาดขึ้นตามไปด้วย
Key Takeaways
- การพึ่งพา AI ในงานวิชาการกำลังเพิ่มขึ้นอย่างรวดเร็ว แต่ยังเต็มไปด้วยความเสี่ยงที่ผู้ใช้มักมองข้าม
- การลบข้อมูลในระบบ AI อาจเกิดขึ้นได้ทันทีและไม่สามารถกู้คืนได้ หากไม่มีระบบสำรองข้อมูล
- วงการวิทยาศาสตร์กำลังเผชิญปัญหาจากบทความที่สร้างด้วย AI และการอ้างอิงที่ไม่ถูกต้อง
- ผู้ใช้ควรสำรองข้อมูลสำคัญเสมอ แม้จะทำงานบนแพลตฟอร์มที่ดูเสถียร
- ผู้พัฒนา AI ควรออกแบบระบบที่ปกป้องผู้ใช้จากการสูญเสียข้อมูลโดยไม่ตั้งใจ
- เหตุการณ์นี้เป็นสัญญาณเตือนว่า AI เป็นเครื่องมือที่ทรงพลัง แต่ไม่ควรถูกมองว่าเป็นพื้นที่ทำงานถาวรหรือปลอดภัย 100%
…..
เรียบเรียงโดย AiNextopia
Source: Scientist Horrified as ChatGPT Deletes All His “Research”.