Prompt Injection เป็นเหมือนการกระซิบคำสั่งลับให้กับ AI และถ้า AI ฟังโดยไม่ตั้งคำถาม ผลลัพธ์อาจเป็นหายนะ การทดลองกับ OpenClaw จึงเป็นสัญญาณเตือนว่า เราจำเป็นต้องคิดใหม่เกี่ยวกับความปลอดภัยของ AI ไม่ใช่แค่ในระดับเทคนิค แต่ในระดับสังคมและจริยธรรมด้วย
AI ไม่ใช่เพียงเครื่องมือ แต่เป็น “ผู้ร่วมสนทนา” ที่เราต้องเรียนรู้วิธีป้องกันไม่ให้ถูกหลอก และในโลกที่ภาษาเป็นอาวุธใหม่ การป้องกันจึงต้องเริ่มจากการเข้าใจว่า “คำพูด” สามารถเปลี่ยนอนาคตได้
สิ่งที่น่ากังวลคือ Prompt Injection ไม่จำเป็นต้องใช้ทักษะการเขียนโปรแกรมขั้นสูง เพียงแค่รู้วิธี “พูด” กับ AI ในเชิงบิดเบือน ก็สามารถเปิดประตูสู่การโจมตีได้แล้ว
ลองนึกภาพนักวิจัยที่นั่งอยู่หน้าจอคอมพิวเตอร์ พวกเขาพิมพ์ข้อความธรรมดา แต่ข้อความนั้นกลับทำให้ AI “เปลี่ยนบทบาท” จากผู้ช่วยที่เชื่อฟัง กลายเป็นเครื่องมือที่ทำตามคำสั่งของผู้โจมตีโดยไม่รู้ตัว
หนึ่งในตัวอย่างที่ถูกยกขึ้นมา คือการใช้ Prompt Injection เพื่อให้ AI “เขียนโค้ดที่ไม่ปลอดภัย” แล้วนำไปใช้โจมตีระบบอื่น หรือแม้แต่การทำให้ AI เปิดเผยข้อมูลที่ซ่อนอยู่ในฐานข้อมูลภายใน ทั้งหมดนี้เกิดขึ้นเพราะ AI ไม่สามารถแยกแยะได้ว่า “คำสั่งที่แฝงมา” เป็นภัยคุกคาม
ทำไมเรื่องนี้ถึงสำคัญ?
AI กำลังถูกนำไปใช้ในทุกมิติของชีวิต ตั้งแต่การช่วยเขียนอีเมล ไปจนถึงการควบคุมระบบโครงสร้างพื้นฐาน หาก AI สามารถถูกหลอกได้ง่าย ๆ ผลกระทบอาจรุนแรงกว่าที่เราคิด
เมื่อพูดถึงการประชุม World Economic Forum ที่ดาวอสในปีนี้ สิ่งที่สะท้อนออกมาอย่างชัดเจนจากปากของเหล่าผู้นำธุรกิจระดับโลกไม่ใช่ความกังวลว่าเทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังถูกพูดเกินจริงหรือเป็นเพียงกระแสชั่วคราว หากแต่เป็นความกังวลที่ลึกซึ้งกว่านั้น ซึ่งคือเรื่องความปลอดภัยของ AI และผลกระทบที่อาจเกิดขึ้นต่อระบบเศรษฐกิจและสังคมในอนาคต
ในงานเฉลิมฉลองวันโทรทัศน์โลกที่จัดขึ้นโดยสถาบัน Caribbean Institute of Media and Communication (CARIMAC) มหาวิทยาลัยเวสต์อินดีส ดุชยันต์ ซาวาเดีย ผู้ก่อตั้งและซีอีโอของ Amber Group ได้ขึ้นกล่าวปาฐกถาที่สร้างแรงสะเทือนต่อวงการสื่อและการเล่าเรื่อง