เรากำลังยืนอยู่บนทางแยกที่สำคัญ ในขณะที่เทคโนโลยีช่วยให้เราทำงานได้เร็วขึ้น แต่มันก็กำลังพราก “บริบท” และ “จริยธรรม” ไปจากสังคม
ข้อมูลข่าวสารไม่ใช่เพียงแค่ตัวอักษรที่ร้อยเรียงกัน แต่มันคือการตรวจสอบอำนาจ การตั้งคำถาม และการเห็นอกเห็นใจเพื่อนมนุษย์ ซึ่งเป็นสิ่งที่แชตบอตไม่เคยเข้าใจ
หากเรายังปล่อยให้การบริโภคข่าวผ่าน AI กลายเป็นมาตรฐานใหม่ เราอาจไม่ได้เพียงแค่ได้รับข้อมูลที่ผิดพลาด แต่เรากำลังสูญเสียความสามารถในการวิพากษ์วิจารณ์ และสุดท้าย “ยาพิษ” ที่ว่านี้จะไม่ได้ทำลายแค่สมองของคนอ่าน แต่จะทำลายรากฐานของระบอบประชาธิปไตยที่พึ่งพาความจริงร่วมกัน
ท่ามกลางแสงสลัวของหน้าจอคอมพิวเตอร์ในห้องพักที่มอนทรีออล ศาสตราจารย์ฌอง-อูเกส รัว (Jean-Hugues Roy) นักวิชาการด้านวารสารศาสตร์ กำลังทำบททดสอบที่ฟังดูเหมือนนิยายไซไฟสยองขวัญ เขาตัดสินใจตัดขาดจากแหล่งข่าวที่เขียนโดยมนุษย์เป็นเวลาหนึ่งเดือนเต็ม แล้วหันไปพึ่งพา “สมองกล” หรือ AI Chatbots เพียงอย่างเดียวเพื่อติดตามความเป็นไปของโลก
คำถามของเขานั้นเรียบง่ายแต่ทรงพลัง: “พวกมันจะมอบความจริงให้ผม หรือแค่เศษขยะข้อมูล (News Slop) กันแน่?”
ผลลัพธ์ที่ได้นั้นน่าสะพรึงกลัวยิ่งกว่าที่คาดไว้ สิ่งที่ศาสตราจารย์รัวได้รับไม่ใช่รายงานข่าวที่เฉียบคม แต่เป็นสิ่งที่ถูกนิยามไว้อย่างเจ็บแสบว่า “การฉีดพิษร้ายเข้าสู่สมองโดยตรง”
...
ในโลกธรรมชาติ สารพิษมักมาในรูปแบบที่สวยงามเพื่อล่อหลอกเหยื่อ ในโลกของข้อมูลก็เช่นกัน แชตบอตอัจฉริยะเหล่านี้สร้างประโยคที่สละสลวย น่าเชื่อถือ และดูเป็นมืออาชีพ แต่ภายใต้เปลือกนอกนั้นกลับกลวงโบ๋ ศาสตราจารย์รัวพบว่ากว่าร้อยละ 18 ของคำตอบจาก AI เป็นการ “หลอน” (Hallucination) ข้อมูลขึ้นมาเองอย่างหน้าตาเฉย
มันอาจจะอ้างถึงแหล่งข่าวที่ไม่มีอยู่จริง หรือเชื่อมโยงไปหาเว็บไซต์ที่ไม่ใช่ข่าว เช่น หน้าเว็บล็อบบี้ยิสต์หรือหน่วยงานรัฐที่ไม่เกี่ยวข้อง นี่คือวิวัฒนาการของสิ่งที่เรียกว่า “AI Slop” หรือเนื้อหาขยะที่ถูกปั่นออกมาโดยไม่มีจุดประสงค์อื่นใดนอกจากเพื่อเพิ่มยอดเข้าชมและการจัดอันดับของอัลกอริทึม
แต่ความน่ากังวลไม่ได้หยุดอยู่แค่ความผิดพลาดส่วนบุคคล ข้อมูลสถิติจาก Graphite ล่าสุดบ่งชี้ว่า กว่าร้อยละ 52 ของเนื้อหาบนอินเทอร์เน็ตในปัจจุบันถูกสร้างขึ้นโดย AI นี่คือจุดตัดประวัติศาสตร์ที่ข้อมูลซึ่งสร้างโดยเครื่องจักรมีสัดส่วนมากกว่าสิ่งที่มนุษย์เขียนเป็นครั้งแรก และมันกำลังทำให้เส้นแบ่งระหว่าง “ความจริง” กับ “นิยายวิทยาศาสตร์” พร่าเลือนจนแทบแยกไม่ออก
หากมองลงไปในห่วงโซ่อาหารของวงการสื่อสารมวลชน เรากำลังเห็นการล่มสลายของระบบนิเวศดั้งเดิม Google ซึ่งเคยเป็น “ประตู” (Search Engine) นำพาผู้คนไปสู่หน้าหนังสือพิมพ์ดิจิทัล กำลังเปลี่ยนตัวเองเป็น “ผู้ตอบ” (Answer Engine)
ด้วยฟีเจอร์อย่าง AI Overviews แทนที่ผู้ใช้งานจะได้คลิกเข้าไปอ่านเนื้อหาต้นฉบับที่นักข่าวภาคสนามต้องเสี่ยงชีวิตลงไปเก็บข้อมูล AI กลับสรุปเนื้อหาเหล่านั้นมาเสิร์ฟให้ถึงที่ ส่งผลให้ยอดผู้เข้าชมเว็บไซต์ข่าวลดลงอย่างฮวบฮาบ ตัวอย่างที่น่าตกใจคือ Business Insider ที่พบว่าทราฟฟิกจากเสิร์ชเอนจินตกลงถึงร้อยละ 55 ภายในเวลาเพียง 3 ปี
นิโคลัส ทอมป์สัน ซีอีโอของ The Atlantic ถึงกับเอ่ยว่า นี่คือ “ภัยคุกคามที่มีอยู่จริง” (Existential Threat) เมื่อยักษ์ใหญ่เทคโนโลยีดูดกลืน “อาหารสมอง” จากสำนักข่าวไปหล่อเลี้ยง AI ของตนโดยไม่แบ่งผลประโยชน์อย่างเป็นธรรม ผลที่ตามมาคือสำนักข่าวค่อย ๆ ตายลง
และเมื่อไม่มีมนุษย์ไปผลิตข่าวใหม่ AI ก็จะเริ่ม "กินหางตัวเอง" ด้วยการนำข้อมูลที่ AI ตัวอื่นเขียนไว้มาประมวลผลซ้ำ จนกลายเป็นวงจรของข้อมูลที่เน่าเฟะและบิดเบี้ยว
ท่ามกลางวิกฤต บางสำนักข่าวพยายามดิ้นรนด้วยการรับ AI เข้ามาเป็นพนักงาน เช่น หนังสือพิมพ์ท้องถิ่นในฮาวายที่เริ่มใช้ “ผู้ประกาศข่าว AI” ชื่อเจมส์และโรส อย่างไรก็ตาม ปฏิกิริยาจากผู้อ่านกลับเป็นไปในทางลบ ความรู้สึกที่ว่ามัน “น่าขนลุก” (Uncanny Valley) และ “ไร้อารมณ์” ทำให้คุณค่าของข่าวท้องถิ่นที่ควรจะสะท้อนความเป็นมนุษย์กลับกลายเป็นความเย็นชาของโค้ดคอมพิวเตอร์
กรณีของ CNET ยิ่งเป็นอุทาหรณ์ที่ชัดเจน เมื่อพวกเขาแอบใช้ AI เขียนบทความแนะนำการเงินโดยไม่แจ้งผู้อ่านให้ชัดเจน ผลที่ได้คือบทความเหล่านั้นเต็มไปด้วยความผิดพลาดทางตัวเลขและข้อเท็จจริงพื้นฐาน จนต้องออกบทแก้ไขยาวเหยียด นี่คือหลักฐานว่าแม้แต่สื่อยักษ์ใหญ่ก็ยังพ่ายแพ้ต่อความมักง่ายของอัลกอริทึม
Key Takeaways
- AI ไม่ใช่แหล่งข่าว แต่เป็นเครื่องมือรวบรวม: อย่าเชื่อถือข้อมูลข่าวสารจากแชตบอต 100% เพราะมีโอกาสเกิด “อาการหลอน” (Hallucination) สูงถึง 18% หรือมากกว่า
- ระวังภาวะ ‘ข้อมูลขยะ’ (AI Slop): กว่าครึ่งของเนื้อหาบนอินเทอร์เน็ตตอนนี้ถูกสร้างโดย AI ซึ่งเน้นปริมาณและการทำ SEO มากกว่าคุณภาพและความถูกต้อง
- สนับสนุนสื่อต้นฉบับ: การอ่านข่าวจากแหล่งที่มาโดยตรง (Direct Source) ช่วยให้สำนักข่าวที่มีคุณภาพมีรายได้เพียงพอที่จะจ้าง “มนุษย์” ไปทำหน้าที่ตรวจสอบความจริง
- สังเกตความผิดปกติ: บทความที่เขียนโดย AI มักจะขาดความลึกซึ้ง มีการใช้คำซ้ำๆ หรือมีข้อผิดพลาดในตรรกะพื้นฐานที่มนุษย์ไม่ควรพลาด
- จริยธรรมคือเกราะกำบัง: การเปิดเผยความโปร่งใส (Transparency) ว่าส่วนไหนใช้ AI และส่วนไหนใช้มนุษย์ คือมาตรฐานใหม่ที่ผู้บริโภคควรเรียกร้องจากสื่อทุกสำนัก
…..
เรียบเรียงโดย AiNextopia
Source: AI in journalism.