เรื่องราวของภาพบิกินีดีปเฟคที่สร้างจากแชตบ็อต ไม่ใช่แค่คำเตือนถึงคนที่ใช้เอไออย่างไม่รับผิดชอบเท่านั้น แต่ยังเป็นกระจกสะท้อนให้เห็นว่า ระบบซึ่งถูกออกแบบมาให้ “ฉลาด” และ “ปลอดภัย” แค่ไหน ก็ยังถูกดัดแปลงให้กลายเป็นเครื่องมือคุกคามทางเพศได้ หากไม่มีการคิดเผื่อถึงสถานการณ์เลวร้ายสุดตั้งแต่ต้น
ท้ายที่สุด เทคโนโลยีไม่เคยเป็นกลางในโลกความจริง ภาพที่สร้างขึ้นด้วยปลายนิ้วของใครบางคน อาจทำลายชีวิต การงาน และความสัมพันธ์ของคนอีกคนหนึ่งได้ในพริบตา บทความนี้จึงไม่เพียงชี้ให้เห็นช่องโหว่ของระบบเอไอ แต่ยังเป็นการเตือนสังคมให้ตั้งคำถามอย่างจริงจังว่า จะร่วมกันออกแบบกฎ กติกา และวัฒนธรรมการใช้งานอย่างไร เพื่อไม่ให้ความสะดวกและความบันเทิงจากเอไอ ถูกแลกมาด้วยศักดิ์ศรีและความปลอดภัยของผู้หญิงธรรมดาทั่วไป
เมื่อแชตบ็อตของบริษัทยักษ์ใหญ่อย่างกูเกิลและโอเพ่นเอไอ ถูกผู้ใช้บางกลุ่ม “ดัดหลัง” ให้ช่วยสร้างภาพลามกแบบไม่สมัครใจจากรูปผู้หญิงที่แต่งกายมิดชิด กลายเป็นนุ่งบิกินี มันเป็น Deepfake ที่ดูน่าเชื่อถือราวกับภาพจริง เหตุการณ์นี้ไม่ได้เป็นเพียงดราม่าชั่วคราว แต่สะท้อนช่องโหว่ด้านความปลอดภัยของเอไอ กระทบทั้งศักดิ์ศรี ความเป็นส่วนตัว และความเชื่อมั่นต่อระบบที่ผู้คนใช้งานทุกวัน
สูตรลับใต้ดินของคนเล่นแชตบ็อต
แม้เอกสารและหน้าช่วยเหลือของแชตบ็อตจะเขียนชัดว่าห้ามใช้สร้างภาพโป๊ ห้ามแต่งภาพบุคคลจริงโดยไม่ได้รับความยินยอม แต่ในโลกจริง ผู้ใช้จำนวนหนึ่งกลับมองข้อกำหนดเหล่านี้เป็นเพียงประตูบานแรกที่ต้องหาวิธี “แงะ” ให้ได้ พวกเขารวมตัวกันในชุมชนออนไลน์ แบ่งปันทั้งตัวอย่างภาพและคำสั่งทีละขั้นตอน ว่าต้องพิมพ์อะไร เรียงอย่างไร จึงจะหลอกให้แชตบ็อตยอมรับงานแปลงภาพผู้หญิงในชุดทำงาน ให้กลายเป็นภาพสวมบิกินีหรือนุ่งเสื้อผ้าน้อยชิ้นอย่างสมจริง
ภายในกระทู้เหล่านี้ มีทั้งคนที่ยอมรับว่าใช้รูปคนรู้จักจริง ไปจนถึงคนที่ขออาสาให้คนอื่นลองปรับภาพของพวกเขาเพื่อพิสูจน์ว่าระบบทำได้แค่ไหน บางโพสต์ใช้ชื่อโจ่งแจ้ง เช่นกระทู้ที่คุยกันอย่างภาคภูมิใจว่าการทำภาพ NSFW ด้วยโมเดลของกูเกิลง่ายเพียงใด ก่อนจะถูกลบออกหลังมีคนแจ้งเตือนผู้ดูแล แต่ความรู้และเทคนิคได้กระจายไปไกลแล้ว
เมื่อการป้องกันถูกเลี่ยงง่าย ๆ ด้วยแค่คำพูด
บริษัทเทคโนโลยียืนยันมาโดยตลอดว่าได้ใส่ “รั้วล้อม” ให้โมเดลภาพ ไม่ให้รับคำสั่งสร้างหรือดัดแปลงภาพลามกโดยไม่ได้ยินยอม แต่สิ่งที่บทความชี้ให้เห็นคือ รั้วล้อมเหล่านี้มักกันได้แค่คำสั่งตรงไปตรงมา เช่น “ถอดเสื้อผ้าคนในรูปนี้” ขณะที่คนใช้ที่มีความตั้งใจจริงจะ “แหกกฎ” มักใช้คำอธิบายอ้อม ๆ หรือแตกคำสั่งออกเป็นหลายช่วง ให้ระบบเข้าใจว่ากำลังแก้ภาพเชิงศิลป์หรือปรับสไตล์ภาพทั่วไป
ตัวอย่างเช่น แทนที่จะบอกให้ระบบ “ทำให้โป๊มากขึ้น” ผู้ใช้จะเปลี่ยนเป็นคำสั่งเชิงแฟชั่นหรือรีทัชภาพ เช่นให้เปลี่ยนเสื้อผ้าเป็นชุดว่ายน้ำแฟชั่น หรือให้ “ปรับลุค” ให้เหมาะกับชายหาด จากนั้นค่อยไล่ปรับทรงผม แสง สี และผ้าให้บางลงทีละนิด จนได้ผลลัพธ์ที่เข้าใกล้ภาพโป๊โดยที่โมเดลไม่ตีความว่าเป็นคำสั่งต้องห้ามโดยตรง
โมเดลใหม่ ทรงพลังกว่าเดิม แต่สร้างความเสี่ยงกว่า
ช่วงเวลาเดียวกับที่ชุมชนใต้ดินเหล่านี้เติบโต บริษัทผู้พัฒนาโมเดลกลับกำลังแข่งกันเปิดตัวเทคโนโลยีภาพรุ่นใหม่ที่เก่งกาจกว่าเดิม กูเกิลปล่อยโมเดลแก้ไขภาพที่เน้นความสมจริงสูง ขณะที่โอเพ่นเอไอปรับปรุงระบบสร้างและแก้ไขภาพในแชตบ็อตของตัวเองให้ละเอียดขึ้นอีกขั้น ผู้ใช้ทั่วไปสามารถอัปโหลดภาพจริง แล้วขอให้ระบบเปลี่ยนเสื้อผ้า ฉากหลัง หรือโทนภาพ ได้แทบจะเหมือนมีกราฟิกดีไซเนอร์มืออาชีพประจำตัว
ปัญหาคือ ยิ่งโมเดลเก่งเรื่องการเก็บรายละเอียดเนื้อผ้า เงา และสรีระมากเท่าไร ภาพปลอมที่ได้ก็ยิ่งน่าเชื่อถือมากขึ้นตามไปด้วย โดยเฉพาะเมื่อเป้าหมายคือการ “ปลดเสื้อผ้า” คนในภาพให้เหลือเพียงชุดว่ายน้ำหรือบิกินี หากไม่มีบริบทประกอบแทบจะแยกไม่ออกว่าเป็นของจริงหรือของปลอม ซึ่งเป็นเงื่อนไขสมบูรณ์แบบสำหรับการกลั่นแกล้ง แบล็กเมล หรือทำลายชื่อเสียงใครสักคนในโลกออนไลน์
การพิสูจน์ด้วยการทดลองจริง
เพื่อไม่ให้เรื่องราวค้างอยู่ในระดับคำเล่าลือ นักข่าวได้ทดลองใช้คำสั่งพื้นฐานบางส่วนที่ถูกแชร์ในชุมชนออนไลน์กับโมเดลของทั้งสองบริษัท ปรับเปลี่ยนเฉพาะรายละเอียดเล็กน้อยเพื่อหลีกเลี่ยงการละเมิดบุคคลจริง ผลลัพธ์ที่ได้คือ ภาพผู้หญิงที่เดิมแต่งกายสุภาพ ถูกแปลงให้ใส่ชุดบิกินีหรือเสื้อผ้าบางแนบเนื้ออย่างเนียนตา โดยไม่มีส่วนใดที่ระบบ “ปฏิเสธ” อย่างแข็งขันอย่างที่บริษัทสร้าง AI มักกล่าวอ้างในแถลงการณ์
แม้จะไม่ใช่ทุกคำสั่งที่ได้ผล และโมเดลยังมีบางจังหวะที่ปฏิเสธหรือเบลอรายละเอียดที่ชัดเจนเกินไป แต่เพียงแค่ความจริงที่ว่า “ทำได้” ก็เพียงพอให้คนที่มีเจตนาร้ายมองเห็นช่องทางนำไปใช้กับภาพของคนจริงในชีวิตประจำวัน และเปลี่ยนจากการทดลองเชิงเทคนิคให้กลายเป็นอาวุธทางสังคมเต็มรูปแบบ
เส้นบาง ๆ ระหว่างแฟชั่นและการละเมิด
สิ่งที่ทำให้ประเด็นนี้ซับซ้อนยิ่งขึ้น คือโลกแฟชั่นและการถ่ายภาพเองก็เต็มไปด้วยชุดว่ายน้ำ ชุดรัดรูป หรือคอนเซ็ปต์ที่เล่นกับความเปลือยเปล่าอย่างสร้างสรรค์ โมเดลเอไอได้รับการฝึกด้วยภาพจำนวนมหาศาลที่ปะปนทั้งงานศิลป์ ภาพโฆษณา และภาพล่อแหลม ทำให้เส้นแบ่งระหว่าง “การช่วยดีไซน์ชุดว่ายน้ำ” กับ “การถอดเสื้อผ้าคนจริงแบบไม่ยินยอม” แทบจะพร่าเลือนไปในมุมมองของระบบ
ในมุมของผู้ถูกกระทำ ภาพบิกินี Deepfake อาจสร้างบาดแผลไม่ต่างจากการถูกถ่ายภาพโป๊จริง ๆ เพราะผู้ชมส่วนใหญ่มักไม่รู้ หรือไม่แยแสว่าภาพนั้น “ปลอม” แค่ไหน เมื่อภาพถูกแชร์ซ้ำในโซเชียลมีเดีย ลูกค้า นายจ้าง หรือคนในครอบครัวอาจไม่รอคำอธิบายใด ๆ ด้วยซ้ำ สิ่งที่เหลืออยู่คือความอับอายและความรู้สึกว่าตนสมควรได้ควบคุมร่างกายของตนในทุกบริบท ไม่ใช่ให้ AI กำหนด
ช่องว่างระหว่างคำแถลงกับความจริง
ในฝั่งบริษัทผู้พัฒนา AI เน้นย้ำว่ามีนโยบายห้ามใช้เทคโนโลยีไปในทิศทางลามกอนาจารที่ไม่ยินยอม มีทีมความปลอดภัยคอยตรวจสอบ และมีระบบตรวจจับผิดปกติ รวมถึงการลงโทษหรือแบนบัญชีหากตรวจพบการใช้งานผิดประเภท พวกเขายังอ้างถึงเทคนิคฝังลายน้ำดิจิทัลในภาพที่สร้างด้วยเอไอ เพื่อช่วยให้คนภายนอกตรวจสอบได้ว่าภาพใดเป็นภาพสังเคราะห์หรือถูกแก้ไขด้วยเครื่องมือของบริษัท
แต่เหตุการณ์ในบทความสะท้อนว่า ความสามารถในการจัดการ “รายกรณี” ยังตามไม่ทันความเร็วของการเผยแพร่เทคนิคในชุมชนใต้ดิน ยิ่งมีผู้ใช้ทดลองมากเท่าไร รูปแบบคำสั่งที่หลบเลี่ยงฟิลเตอร์ก็ยิ่งพัฒนาขึ้นไปอีกขั้น บริษัทจึงติดอยู่ในวงจรไล่ปิดรูรั่วทีละจุด ขณะที่คนที่ต้องการใช้เทคโนโลยีในทางมืดกลับมีแรงจูงใจสูงที่จะเดินเกมให้นำหน้าอยู่เสมอ
ภัยเงียบในที่ทำงานและชีวิตประจำวัน
แม้หลายคนจะมองเรื่อง Deepfake เป็นแค่ไวรัลหรือความบันเทิงมืดในโลกออนไลน์ แต่บทความเตือนว่าผลกระทบจริงอาจเริ่มต้นจากที่ทำงานหรือกลุ่มเพื่อนใกล้ตัว หากมีคนแอบนำภาพถ่ายร่วมงานจากงานเลี้ยง บริษัท หรือบัญชีโซเชียลส่วนตัว ไปแปลงเป็นภาพบิกินี แล้วแชร์ในวงปิดหรือกลุ่มแชต นั่นไม่เพียงเป็นการคุกคามทางเพศ แต่ยังสร้างบรรยากาศที่ไม่ปลอดภัย และอาจทำให้เหยื่อต้องเผชิญทั้งการกลั่นแกล้ง การคุยในที่ลับ และการข่มขู่ไม่ให้ร้องเรียน
เมื่อภาพเหล่านี้หลุดออกไปสู่สาธารณะ เหยื่ออาจต้องใช้เวลานานในการพิสูจน์ว่าเป็นภาพปลอม หรืออาจไม่มีโอกาสได้พิสูจน์เลยด้วยซ้ำ หลายประเทศยังไม่มีกฎหมายเฉพาะสำหรับจัดการ Deepfake ทางเพศอย่างละเอียด ทำให้ต้องอาศัยกฎหมายคอมพิวเตอร์ กฎหมายหมิ่นประมาท หรือข้อหาอื่น ๆ ที่ไม่ได้ออกแบบมาเพื่อรับมือภัยคุกคามรูปแบบใหม่นี้โดยตรง
คำถามสำคัญที่ทิ้งไว้คือ ใครควรรับผิดชอบเมื่อภาพบิกินี Deepfake ที่สมจริงเกิดขึ้นจากเครื่องมือของบริษัทใหญ่ ผู้ใช้ที่จงใจละเมิดแน่นอนว่าต้องมีส่วนรับผิด แต่ในเมื่อโมเดลถูกปล่อยออกสู่สาธารณะพร้อมฟังก์ชันแก้ไขภาพทรงพลัง บริษัทเองก็หลีกเลี่ยงไม่ได้ที่จะต้องตอบคำถามว่าได้ทดสอบเพียงพอหรือไม่ วางระบบแจ้งเตือนและจัดการอย่างไร และมองเห็นความเสี่ยงในชีวิตจริงของผู้หญิงทั่วไปมากน้อยแค่ไหน
ในอีกด้านหนึ่ง รัฐและหน่วยงานกำกับดูแลก็ถูกตั้งคำถามว่าควรออกกฎหมายแค่ไหนจึงจะพอ โดยไม่ไปขวางการพัฒนาเทคโนโลยีโดยรวม นักวิชาการด้านสิทธิส่วนบุคคลเตือนว่า หากปล่อยให้บริษัทเป็นผู้กำหนดมาตรฐานเพียงฝ่ายเดียว มาตรการที่ได้อาจเน้นการปกป้องชื่อเสียงองค์กร มากกว่าการคุ้มครองศักดิ์ศรีของเหยื่อที่อยู่ปลายทางของภาพปลอมเหล่านี้
…..
เรียบเรียงโดย AiNextopia