ทั้ง Google และ SailPoint ต่างสะท้อนภาพเดียวกันว่า AI กำลังเปลี่ยนวิธีการทำงานขององค์กรอย่างลึกซึ้ง ไม่ว่าจะเป็นด้านความยั่งยืนหรือความปลอดภัยไซเบอร์
- Google มองว่า AI คือผู้ช่วยที่ทำให้องค์กรจัดการข้อมูลได้ดีขึ้น
- SailPoint เตือนว่า AI ก็เป็นความเสี่ยงใหม่ที่ต้องควบคุมอย่างเข้มงวด
องค์กรที่ประสบความสำเร็จในอนาคตจะต้อง “ใช้ AI อย่างมีสติ” คือใช้เพื่อเพิ่มประสิทธิภาพ แต่ยังคงให้มนุษย์เป็นผู้กำกับทิศทางและตรวจสอบความถูกต้องเสมอGoogle เปิดตัว AI Playbook เพื่อยกระดับการรายงานความยั่งยืน และ SailPoint ชี้อนาคตความปลอดภัยไซเบอร์ในยุค AI Agents
องค์กรทั่วโลกกำลังเผชิญความซับซ้อนที่เพิ่มขึ้นอย่างต่อเนื่องในงานด้านความยั่งยืน (Sustainability Reporting) ไม่ว่าจะเป็นข้อมูลที่กระจัดกระจาย มาตรฐานที่เปลี่ยนแปลงรวดเร็ว หรือภาระงานเอกสารที่ต้องอาศัยแรงงานคนจำนวนมาก Google จึงเปิดตัว AI Playbook for Sustainability Reporting เพื่อช่วยให้ทีมงานด้านความยั่งยืนสามารถจัดการข้อมูลได้อย่างมีประสิทธิภาพ ลดความซ้ำซ้อน และมุ่งเน้นการวิเคราะห์เชิงกลยุทธ์แทนการทำงานเชิงปฏิบัติการที่กินเวลา
เพลย์บุ๊กนี้เกิดจากประสบการณ์ตรงของ Google ที่ทดลองใช้ AI ในกระบวนการรายงานของบริษัทเป็นเวลาเกือบสองปี โดยมีเป้าหมายชัดเจนว่า AI ไม่ได้ถูกออกแบบมาเพื่อแทนที่มนุษย์ แต่เพื่อเป็น “ผู้ช่วยเสริมกำลัง” ให้ทีมงานสามารถทำงานได้เร็วขึ้น แม่นยำขึ้น และมีเวลามากขึ้นสำหรับการตัดสินใจเชิงกลยุทธ์ที่มีผลต่อเป้าหมายด้านสิ่งแวดล้อมขององค์กร
AI Playbook กรอบทำงาน 5 ขั้นตอนเพื่อการนำ AI ไปใช้จริง
หัวใจสำคัญของเพลย์บุ๊กคือกรอบทำงานแบบ 5 ขั้นตอนที่ช่วยให้องค์กรสามารถนำ AI ไปใช้ในกระบวนการรายงานได้อย่างเป็นระบบและปลอดภัย
1. ตรวจสอบกระบวนการที่ใช้เวลามาก
องค์กรควรเริ่มจากการสำรวจงานที่ต้องใช้แรงงานคนจำนวนมาก เช่น
- การสรุปอัปเดตนโยบาย
- การประมวลผลข้อมูลที่ไม่มีโครงสร้างจากซัพพลายเออร์
- การตรวจสอบความถูกต้องของข้อมูล
ขั้นตอนนี้ช่วยให้ทีมเห็นภาพชัดเจนว่า AI สามารถลดภาระงานตรงไหนได้บ้าง
2. แยกแยะงานที่เหมาะกับ Automation และ Machine Learning
เพลย์บุ๊กแนะนำให้ทีมงานแยกประเภทงานอย่างชัดเจน เช่น
- งานที่เป็นกฎเกณฑ์ตายตัว เหมาะกับ automation
- งานที่ต้องวิเคราะห์ข้อมูลจำนวนมาก เหมาะกับ machine learning
การเลือกเทคโนโลยีให้เหมาะกับงานช่วยลดความเสี่ยงและเพิ่มประสิทธิภาพ
3. เลือกเครื่องมือ AI ที่เหมาะสม
Google เน้นว่าการเลือกเครื่องมือไม่ควรยึดตามความนิยม แต่ควรดูจากความสามารถที่ตอบโจทย์งาน เช่น
- การตรวจสอบข้อมูล
- การสร้างเนื้อหา
- การวิเคราะห์ข้อมูลเชิงลึก
4. สร้างต้นแบบและทดสอบกับข้อมูลจริง
ต้นแบบ (prototype) ควรผ่านการตรวจสอบกับข้อมูลที่มนุษย์ยืนยันแล้ว เพื่อให้มั่นใจว่า AI ไม่สร้างข้อมูลผิดพลาดหรือเกิด “hallucination”
5. บันทึกและขยายผล
เมื่อกระบวนการเริ่มนิ่ง องค์กรควรบันทึกขั้นตอน วิธีใช้ และ prompt ที่ได้ผลดี เพื่อให้สามารถขยายผลไปยังทีมอื่น ๆ ได้อย่างเป็นระบบ
โอกาสสำคัญของ AI ในงานด้านความยั่งยืน
Google แบ่งการใช้งาน AI ออกเป็น 3 กลุ่มใหญ่ที่ให้คุณค่าสูงที่สุด
1. Data Analytics
AI สามารถช่วยในงานที่ต้องจัดการข้อมูลจำนวนมาก เช่น
- การตรวจหาความผิดปกติของข้อมูล
- การค้นหาช่องว่างในรายงาน
- การวิเคราะห์ซัพพลายเออร์
- การเปรียบเทียบกับคู่แข่ง (peer benchmarking)
2. Content Generation
AI ช่วยลดเวลาการผลิตเนื้อหา เช่น
- การเขียนเนื้อหาส่วนบรรยาย
- การปรับข้อความให้ตรงตามมาตรฐานรายงาน
- การสรุปเอกสารยาว
- การสร้าง alt text เพื่อเพิ่มการเข้าถึงข้อมูล
3. Content Interaction
AI เปลี่ยนวิธีที่ผู้ใช้งานโต้ตอบกับข้อมูล เช่น
- การถามตอบแบบ interactive
- การแปลหรือปรับเนื้อหาให้เหมาะกับภูมิภาค
- การสร้างสื่อมัลติมีเดียจากข้อมูลรายงาน
Google ย้ำว่า “มนุษย์ต้องเป็นนักบิน ไม่ใช่ผู้โดยสาร” หมายถึง AI ควรเป็นเครื่องมือ ไม่ใช่ผู้ตัดสินใจแทนมนุษย์
ตัวอย่างการใช้งานจริงจาก Google
Google แบ่งปันกรณีศึกษาจากรอบการรายงานปี 2025 เช่น
1. การตรวจสอบความถูกต้องของข้อความ
AI ถูกใช้เพื่อตรวจสอบข้อความในรายงานให้สอดคล้องกับแนวทางภายใน ก่อนส่งให้มนุษย์ตรวจรอบสุดท้าย
2. Persona-based Prompting
Google ใช้ NotebookLM เพื่อจำลองมุมมองของผู้ตรวจสอบหลายประเภท เช่น
- นักข่าวสายสืบสวน
- นักลงทุน
- องค์กร NGO
สิ่งนี้ช่วยให้ทีมงานมองเห็นจุดอ่อนของเนื้อหาและลดความเสี่ยงด้าน greenwashing
3. การตอบคำถามลูกค้า
AI ถูกใช้เพื่อสร้างคำตอบที่อ้างอิงเฉพาะข้อมูลที่ได้รับการยืนยันแล้ว ลดความเสี่ยงในการให้ข้อมูลผิดพลาด
SailPoint อนาคตของความปลอดภัยไซเบอร์ในยุค AI Agents
อีกด้านหนึ่งของเทคโนโลยี AI คือความเสี่ยงด้านความปลอดภัย โดยเฉพาะเมื่อ AI agents และ machine identities เริ่มมีจำนวนมากกว่ามนุษย์ในระบบองค์กร
Rex Booth, CISO ของ SailPoint อธิบายว่าโลกไซเบอร์กำลังเปลี่ยนไปอย่างรวดเร็ว โดยเฉพาะหลังจากกลุ่ม Scattered Spider ใช้ social engineering โจมตีองค์กรขนาดใหญ่หลายแห่ง
ภัยคุกคามไม่ได้หายไป แม้ผู้โจมตีจะเปลี่ยนหน้า
Booth ชี้ว่าอาชญากรรมไซเบอร์เป็น “โอกาสทางธุรกิจ” ของผู้ร้าย หากกลุ่มหนึ่งหายไป อีกกลุ่มก็จะเข้ามาแทนที่ทันที
มนุษย์ยังเป็นจุดอ่อนสำคัญ
แม้เทคโนโลยีจะก้าวหน้า แต่หากพนักงานไม่ระวังภัย social engineering องค์กรก็ยังเสี่ยงอยู่ดี การสร้างวัฒนธรรมที่พนักงานกล้าตั้งคำถามจึงสำคัญมาก
AI ช่วยตรวจจับพฤติกรรมผิดปกติ
AI สามารถตรวจจับสัญญาณเสี่ยง เช่น
- การล็อกอินจากสถานที่ผิดปกติ
- การเข้าถึงข้อมูลที่ไม่เคยเข้าถึง
- ความพยายามล็อกอินผิดหลายครั้ง
สิ่งนี้นำไปสู่แนวคิด “adaptive identity” ที่สิทธิ์การเข้าถึงจะเปลี่ยนตามพฤติกรรมแบบเรียลไทม์
AI Agents กำลังกลายเป็นความเสี่ยงใหม่
กว่า 80% ขององค์กรพบว่า AI agents เคยทำ “การกระทำที่ไม่ได้รับอนุญาต” เช่น
- เข้าถึงข้อมูลลับ
- แชร์ข้อมูลผิดที่
- ทำงานเกินขอบเขตที่กำหนด
Booth เตือนว่าองค์กรต้องจัดการสิทธิ์ของ AI agents เหมือนจัดการสิทธิ์ของมนุษย์ เพราะความเร็วและอำนาจของ AI อาจสร้างความเสียหายได้มากกว่า
…..
เรียบเรียงโดย AiNextopia