เมื่ออัลกอริทึมวินิจฉัยมะเร็งเริ่ม “เดาเชื้อชาติ” ของผู้ป่วย

เมื่อ AI มองเห็นสิ่งที่มนุษย์ไม่เคยเห็น

เรื่องราวของ AI ที่สามารถระบุเชื้อชาติจากภาพเอ็กซเรย์ ไม่ใช่เพียงข่าวแปลกประหลาดทางเทคโนโลยี แต่มันคือกระจกสะท้อนความซับซ้อนของโลกจริง โลกที่เต็มไปด้วยความเหลื่อมล้ำที่ฝังลึกจนแม้แต่ภาพขาวดำก็ยังบอกเล่าเรื่องราวได้

มันทำให้เราต้องตั้งคำถามว่า

  • เราควรให้ AI มีบทบาทมากแค่ไหนในระบบสาธารณสุข?
  • เราจะป้องกันอคติที่ซ่อนอยู่ในข้อมูลได้อย่างไร?
  • และเราจะสร้างเทคโนโลยีที่ยุติธรรมสำหรับทุกคนได้จริงหรือไม่?

คำตอบอาจยังไม่ชัดเจน แต่สิ่งหนึ่งที่แน่นอนคือ การเดินทางของ AI ในวงการแพทย์เพิ่งเริ่มต้นเท่านั้น และมันจะเปลี่ยนวิธีที่เรามองร่างกายมนุษย์ไปตลอดกาล

ในห้องทดลองที่เต็มไปด้วยเสียงพัดลมของเครื่องคอมพิวเตอร์และแสงสีฟ้าจากจอภาพ นักวิจัยด้านรังสีวิทยากลุ่มหนึ่งกำลังจ้องมองผลลัพธ์ที่ไม่มีใครคาดคิดมาก่อน ระบบ AI ที่ถูกฝึกให้ตรวจจับมะเร็งจากภาพเอกซเรย์ กลับสามารถ “ระบุเชื้อชาติของผู้ป่วย” ได้อย่างแม่นยำ แม้ข้อมูลดังกล่าวจะไม่เคยถูกป้อนให้มันรู้ตั้งแต่แรกก็ตาม

สิ่งที่พวกเขาพบ ไม่เพียงสร้างความประหลาดใจ แต่ยังสั่นสะเทือนความเชื่อพื้นฐานเกี่ยวกับความโปร่งใสของปัญญาประดิษฐ์ และตั้งคำถามใหม่ว่า เราควรไว้วางใจเครื่องจักรที่ “ฉลาดเกินไป” หรือไม่

ภาพเอ็กซเรย์ทรวงอกดูเหมือนจะเป็นภาพขาวดำธรรมดา กระดูกซี่โครง เงาปอด และลายเส้นของหลอดเลือด แต่สำหรับ AI ที่ถูกฝึกด้วยข้อมูลจำนวนมหาศาล ภาพเหล่านี้กลับเต็มไปด้วยสัญญาณที่มนุษย์ไม่เคยรู้ว่ามีอยู่

ทีมนักวิจัยพบว่า AI สามารถทำนายเชื้อชาติของผู้ป่วยได้อย่างแม่นยำสูง แม้จะมีการ “ปิดบัง” ข้อมูลต่าง ๆ เช่น

  • ตัดส่วนของภาพออก
  • เบลอภาพ
  • ลดความละเอียด
  • ปรับความสว่างและคอนทราสต์

แต่ไม่ว่าพวกเขาจะพยายามทำให้ภาพ “ไร้ตัวตน” แค่ไหน AI ก็ยังคงเดาเชื้อชาติได้อย่างแม่นยำอย่างน่าประหลาดใจ

เหมือนกับว่ามีรหัสลับบางอย่างซ่อนอยู่ในภาพ รหัสที่มนุษย์มองไม่เห็น แต่ AI มองเห็นได้อย่างชัดเจน

เมื่อความฉลาดกลายเป็นอันตราย

การที่ AI สามารถตรวจจับเชื้อชาติได้ ไม่ใช่ปัญหาเพียงเพราะมัน “รู้มากเกินไป” แต่เพราะมันอาจนำไปสู่การวินิจฉัยที่ลำเอียงโดยไม่ตั้งใจ

ในระบบสาธารณสุขของหลายประเทศ รวมถึงสหรัฐอเมริกา ความเหลื่อมล้ำทางเชื้อชาติเป็นปัญหาที่ฝังรากลึกมานาน การรักษา การเข้าถึงบริการ และผลลัพธ์ทางสุขภาพมักแตกต่างกันตามเชื้อชาติ แม้แพทย์จะพยายามหลีกเลี่ยงอคติ แต่ข้อมูลในอดีตที่ถูกใช้ฝึก AI อาจสะท้อนความไม่เท่าเทียมเหล่านั้นโดยไม่รู้ตัว

ดังนั้น หาก AI “รู้” เชื้อชาติของผู้ป่วย มันอาจ

  • ประเมินความเสี่ยงของโรคต่างกัน
  • แนะนำการรักษาที่แตกต่าง
  • ทำให้ผลวินิจฉัยเอนเอียงไปตามรูปแบบในข้อมูลเดิม

แม้ไม่มีใครตั้งใจให้เกิดขึ้นก็ตาม

คำถามใหญ่: AI รู้ได้อย่างไร?

นี่คือปริศนาที่ทำให้นักวิทยาศาสตร์ทั่วโลกต้องขบคิด

ภาพเอ็กซเรย์ไม่ได้มีข้อมูลเชื้อชาติอย่างชัดเจน ไม่มีสีผิว ไม่มีลักษณะใบหน้า ไม่มีข้อมูลประชากร แล้ว AI มองเห็นอะไร?

มีหลายสมมติฐานที่ถูกหยิบยกขึ้นมา เช่น

  • ความหนาแน่นของกระดูกที่แตกต่างกันเล็กน้อย
  • รูปแบบการกระจายของเนื้อเยื่อ
  • ความแตกต่างของโรคที่พบในแต่ละกลุ่มประชากร
  • ปัจจัยด้านสังคมและสิ่งแวดล้อมที่สะท้อนผ่านสุขภาพร่างกาย

แต่จนถึงตอนนี้ ยังไม่มีคำอธิบายใดที่ชัดเจนพอ

สิ่งที่แน่นอนคือ AI ไม่ได้ “เข้าใจเชื้อชาติ” แบบที่มนุษย์เข้าใจ มันเพียงแค่จับรูปแบบที่ซ่อนอยู่ในข้อมูล รูปแบบที่ละเอียดเกินกว่าที่มนุษย์จะมองเห็น

ปัญหานี้ไม่ใช่เรื่องใหม่ในวงการ AI

ก่อนหน้านี้มีกรณีที่ระบบ AI สำหรับคัดกรองผู้ป่วยในโรงพยาบาลสหรัฐฯ เลือกให้ผู้ป่วยผิวขาวได้รับการดูแลก่อนผู้ป่วยผิวดำ แม้ผู้ป่วยผิวดำจะมีอาการรุนแรงกว่า เหตุผลคือข้อมูลในอดีตสะท้อนความเหลื่อมล้ำทางการรักษา และ AI ก็เรียนรู้รูปแบบนั้นโดยไม่รู้ว่ามันผิด

กรณีล่าสุดของ AI ที่วินิจฉัยมะเร็งข้างต้น จึงเป็นเหมือนสัญญาณเตือนครั้งใหญ่ เพราะมันเกิดขึ้นในระบบที่มีผลต่อชีวิตผู้คนโดยตรง

ความโปร่งใสที่หายไปในปริศนาความรู้ของ AI

หนึ่งในความท้าทายสำคัญของ AI สมัยใหม่คือ “ความไม่โปร่งใส” หรือที่เรียกว่า black box problem แม้เราจะรู้ว่า AI ทำงานได้ดี แต่เราไม่รู้ว่ามัน “คิดอย่างไร” หรือ “ใช้ข้อมูลอะไร” ในการตัดสินใจ

เมื่อ AI เริ่มใช้สัญญาณที่มนุษย์ไม่รู้ว่ามีอยู่ การควบคุมความลำเอียงจึงแทบเป็นไปไม่ได้ นักวิจัยบางคนถึงกับตั้งคำถามว่า

“เราควรใช้ AI ในการวินิจฉัยโรคหรือไม่ หากเราไม่สามารถอธิบายการตัดสินใจของมันได้?”

ความหวังและความกลัวในอนาคตของการแพทย์เมื่อนำ AI มาใช้

แม้จะมีความเสี่ยง แต่ AI ก็ยังเป็นหนึ่งในเทคโนโลยีที่มีศักยภาพสูงที่สุดในการช่วยชีวิตผู้คน เพราะมันสามารถ

  • ตรวจจับมะเร็งในระยะเริ่มต้น
  • วิเคราะห์ภาพทางการแพทย์ได้เร็วกว่าแพทย์หลายเท่า
  • ช่วยลดภาระงานในระบบสาธารณสุข

แต่ความสามารถที่มากขึ้น ก็หมายถึงความรับผิดชอบที่มากขึ้นเช่นกัน

เหล่านักวิจัยได้เสนอแนวทางหลายอย่าง เพื่อป้องกัน เช่น

  • การตรวจสอบอคติในข้อมูลอย่างเข้มงวด
  • การออกแบบ AI ให้โปร่งใสมากขึ้น
  • การทดสอบระบบกับกลุ่มประชากรที่หลากหลาย
  • การกำกับดูแลโดยหน่วยงานอิสระ

เพราะสุดท้ายแล้ว เทคโนโลยีที่ดีต้องไม่เพียง “ฉลาด” แต่ต้อง “ไม่ลำเอียง” ด้วย

…..

เรียบเรียงโดย AiNextopia

Source: Doctors Catch Cancer-Diagnosing AI Extracting Patients’ Race Data and Being Racist With It. https://l.smartnews.com/p-6OnxPRRK/hS8wxY

Admin