หลายองค์กรตอนนี้กำลังรีบวิ่งหา GenAI / LLM / AI agents เพราะหวังว่าจะทำงานไวขึ้น ลดคน ลดเวลา เพิ่ม productivity Gartner บอกว่า ในโลกความจริง โดยเฉพาะงานด้าน Cybersecurity…ถ้ารีบใช้ก่อน คิดทีหลัง โอกาสพังมีสูงกว่าที่คิด

AI ไม่ได้มีแค่ประโยชน์ แต่มันกำลังสร้างสนามความเสี่ยงชุดใหม่และปัญหามันไม่ได้อยู่ที่ AI เก่งแค่ไหน แต่อยู่ที่องค์กร คุมการใช้ AI ได้แค่ไหน

3 ความเสี่ยงหลักที่องค์กรเจอบ่อย

  1. ข้อมูลหลุดจากการใช้งาน
    • พนักงานพิมพ์ Prompt แล้วเผลอใส่ข้อมูลลูกค้า/ข้อมูลลับเข้าไป สุดท้ายข้อมูลไปอยู่ในระบบที่เราคุมไม่อยู่
  2. คำตอบดูดี แต่พาองค์กรตัดสินใจพลาด
    • AI บางครั้งตอบผิดแบบเนียน ๆ (hallucinations) ถ้าเอาไปใช้กับ Incident หรือการตัดสินใจธุรกิจ = เสี่ยงเสียหายหนัก
  3. ช่องโหว่รูปแบบใหม่จาก AI agents
    • พอองค์กรเริ่มสร้าง agent ให้ไปทำงานแทนคน มันเหมือนเราเพิ่มผู้ใช้อีกคนที่เข้าถึงระบบได้
    • ถ้าคุมสิทธิ์ไม่ดี = เปิดประตูให้ปัญหาใหญ่ทันที

อย่าหลง Hype ของ GenAI หลายองค์กรรีบซื้อ/รีบทำ แต่ไม่มีแผน ไม่มีตัวชี้วัด สุดท้ายเสียเงิน–เสียเวลา–เสียโอกาส

AI Agents ทำให้ attack surface กว้างขึ้น ต้องเริ่มทำ 4 เรื่องให้จริงจัง

  1. Discover: รู้ก่อนว่าองค์กรมี AI/Agent อะไรรันอยู่บ้าง
  2. Access Control: แยกสิทธิ์ให้ชัด ให้ Agent มี Credential ของตัวเอง
  3. Govern Data: กำหนดเลยว่า ข้อมูลแบบไหนห้ามใส่ Prompt
  4. Runtime Controls: มีการคุมตอนใช้งานจริง ไม่ใช่ตรวจแค่ตอนเริ่ม

กฎหมายกำลังมา

  • EU AI Act กำลังทำให้หลายองค์กรต้องนับระบบ AI ในบริษัทให้ครบ และทำ risk assessment เป็นเรื่องจริงจัง ใครทำธุรกิจข้ามประเทศ หรือใช้ AI กับข้อมูลลูกค้า…ต้องเริ่มเตรียมตัวตั้งแต่ตอนนี้

ข้อสรุป:

GenAI ควร Augment คนให้ทำงานเก่งขึ้น ไม่ใช่หวังให้แทนคนทั้งหมด และต้องทำแบบมี roadmap หลายปี วัดผลได้ คุมต้นทุนได้

AI ช่วยได้เยอะจริง แต่ถ้าไม่คุมให้เป็น มันจะกลายเป็นตัวเร่งความเสี่ยง แบบเงียบ ๆ ใช้ได้ แต่อย่าใช้แบบตามกระแส, ใช้แบบมีแผน มีตัวชี้วัด และมีรั้วกันตก

Source:

Gartners