Digitel Tech & AI
การ์ทเนอร์คาดอีก5ปีข้างหน้าสัดส่วนของ Guardian Agentsครอบคลุม10-15%

กรุงเทพฯ,ประเทศไทย 20 มิถุนายน 2568 - การ์ทเนอร์คาดการณ์ว่า ภายในอีก 5 ปี นับจากนี้ (พ.ศ. 2573) เทคโนโลยีความปลอดภัย “Guardian Agent” จะมีสัดส่วนในตลาด Agentic AI อย่างน้อย 10-15% Guardian Agents คือเทคโนโลยีต่าง ๆ ที่ใช้ AI เป็นพื้นฐานการทำงาน ออกแบบมาเพื่อสนับสนุนและทำงานร่วมกับ AI เพื่อสร้างความน่าเชื่อถือและความปลอดภัย โดยทำหน้าที่เป็นทั้งผู้ช่วย AI ที่คอยสนับสนุนผู้ใช้ในงานต่าง ๆ อาทิ การตรวจสอบเนื้อหา การติดตามและการวิเคราะห์ โดยเป็นตัวแทนหรือ Agents ที่สามารถทำงานได้แบบกึ่งอัตโนมัติหรือแบบอัตโนมัติเต็มรูปแบบ มีความสามารถในการจัดทำและดำเนินแผนการปฏิบัติงาน รวมถึงปรับเปลี่ยนเส้นทางหรือป้องกันการกระทำที่เป็นอันตราย สอดรับตามเป้าหมายที่กำหนดไว้ล่วงหน้า
เมื่อการใช้งาน Agentic AI เติบโตต่อเนื่อง จำเป็นต้องมีระบบความปลอดภัยหรือ Guardrails
จากผลสำรวจของการ์ทเนอร์ในเว็บบินาร์ เมื่อ 19 พฤษภาคม 2568 ผ่านมุมมองของผู้บริหาร CIO และหัวหน้าฝ่าย IT จำนวน 147 ราย พบว่า 24% ของผู้ตอบแบบสอบถามได้นำ AI Agents มาปรับใช้เพียงไม่กี่ตัว (น้อยกว่า 12 ตัว) ขณะที่มีเพียง 4% ที่นำ AI Agents มาใช้มากกว่า 12 ตัว
ผลจากแบบสำรวจเดียวกันนี้ยังพบว่า 50% ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขากำลังหาข้อมูลและทดลองใช้เทคโนโลยีชนิดนี้ ในขณะที่อีก 17% บอกว่ายังไม่ได้เริ่มทำ แต่อยู่ในขั้นวางแผนนำเทคโนโลยีนี้มาปรับใช้ในช่วงสิ้นปี 2569 เป็นอย่างช้า การควบคุมความน่าเชื่อถือ ความเสี่ยง และความปลอดภัยแบบอัตโนมัติจำเป็นต้องทำให้ตัวแทนเหล่านี้มีความสอดคล้องและปลอดภัย ซึ่งเป็นการเร่งการเติบโตและความต้องการของ Guardian Agents ยิ่งขึ้น
Avivah Litan รองประธาน นักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า "หากไม่ได้ควบคุมและป้องกันด้วยระบบความปลอดภัยหรือ Guardrails อย่างเหมาะสมแล้ว Agentic AI จะพาองค์กรไปสู่ผลลัพธ์ที่ไม่พึงประสงค์โดย Guardian Agents จะอาศัยความสามารถที่หลากหลายของ Agentic AI และเทคโนโลยีที่ขับเคลื่อนด้วย AI มาประเมินแบบกำหนดที่ใช้ AI เป็นพื้นฐาน เพื่อใช้ดูแลและจัดการความสามารถทั้งหมดของ Agent โดยสร้างสมดุลระหว่างการตัดสินใจขณะทำงานร่วมกับการจัดการความเสี่ยง"
ความเสี่ยงเพิ่มขึ้นตามพลัง Agent ที่เพิ่มขึ้นและแพร่หลายมากขึ้น
52% จากผู้ตอบแบบสอบถามอีกส่วนหนึ่งจำนวน 125 รายจากเว็บบินาร์เดียวกัน ยังระบุว่าระบบ AI Agents ของพวกเขามีหรือมุ่งเน้นไปที่ยูสเคสการใช้งานที่เกี่ยวข้องกับฟังก์ชันการบริหารภายในองค์กรเป็นหลัก อาทิ ด้าน IT, ฝ่ายบุคคลและบัญชี ขณะที่ 23% บอกว่าเน้นไปที่ฟังก์ชันที่เกี่ยวข้องกับการใช้งานของลูกค้าภายนอก
ในขณะที่ยูสเคส AI Agents มีการเติบโตต่อเนื่อง ก็ยังเกิดภัยคุกคามหลายประเภทที่ส่งผลกระทบต่อการทำงานของตัว AI ตั้งแต่การจัดการข้อมูลขาเข้าและข้อมูลที่เป็นภัย ตามที่ระบบพึ่งพาชุดข้อมูลหลอกลวงหรือถูกตีความผิด ๆ ตัวอย่างเช่น:
- การแฮ็กและการละเมิดข้อมูลประจำตัว ซึ่งนำไปสู่การควบคุมที่ไม่ได้รับอนุญาตและการขโมยข้อมูล
- AI Agents ที่โต้ตอบกับเว็บไซต์และแหล่งข้อมูลปลอมหรือผิดกฎหมาย อาจส่งผลให้เกิดการดำเนินการที่เป็นอันตราย
- การเบี่ยงเบนของ AI Agents และพฤติกรรมที่ไม่ได้ตั้งใจอันเนื่องมาจากข้อบกพร่องภายในหรือปัจจัยกระตุ้นภายนอก อาจทำให้ชื่อเสียงองค์กรเสียหายและการดำเนินงานหยุดชะงัก
"การเร่งตัวและการเพิ่มขึ้นอย่างรวดเร็วของตัวแทนด้าน AI ทำให้จำเป็นต้องมีการปรับเปลี่ยนจากเดิมที่ให้มนุษย์เป็นผู้ดูแล ซึ่งเมื่อองค์กรเดินหน้าไปสู่ระบบ Multi-Agent ที่ซับซ้อน มีการสื่อสารกันด้วยความเร็วสูง มนุษย์ไม่สามารถไล่ตามข้อผิดพลาดและกิจกรรมที่เป็นอันตรายได้ทัน บวกกับภูมิทัศน์ภัยคุกคามที่ขยายเพิ่มขึ้นนี้ องค์กรมีความจำเป็นอย่างเร่งด่วนสำหรับการนำระบบ Guardian Agents ที่สามารถช่วยดูแล ควบคุม และเพิ่มความปลอดภัยอัตโนมัติในแอปพลิเคชัน AI และ Agent อื่น ๆ" Litan กล่าวเพิ่มเติม
ผู้บริหาร CIO และผู้นำด้านความปลอดภัย รวมถึงผู้นำด้าน AI ควรเน้นใช้งาน Guardian Agents ในบทบาท 3 ประเภทหลัก เพื่อช่วยรักษาความปลอดภัยและปกป้องการโต้ตอบร่วมกับ AI:
- Reviewers: ระบุและตรวจสอบผลลัพธ์และเนื้อหาที่ AI สร้างขึ้นเพื่อความถูกต้องและการใช้งานที่ยอมรับได้
- Monitors: สังเกตและติดตามการกระทำของ AI รวมถึงการดำเนินงานอัตโนมัติ (Agentic) สำหรับให้มนุษย์หรือการติดตาม AI
- Protectors: ปรับหรือป้องกันการกระทำและสิทธิ์ของ AI และ Agent โดยใช้การกระทำอัตโนมัติระหว่างการดำเนินงาน
Guardian agents จะช่วยจัดการการโต้ตอบและค้นหาความผิดปกติไม่ว่าจะเป็นการใช้งานประเภทใดก็ตาม เป็นกุญแจดอกสำคัญของการรวมประสิทธิภาพความปลอดภัยทั้งหมดเข้าไว้ด้วยกัน ดังที่การ์ทเนอร์คาดการณ์ว่า 70% ของแอป AI จะใช้ระบบ Multi-Agent ในปี 2571