AI Governance โดยไม่มี ERP : ความเสี่ยงที่องค์กรไม่รู้ตัว (ตอนที่ 3)

มีนาคม 15, 2026

จากคำถามเรื่อง “ต้นกำเนิด” สู่คำถามเรื่อง “ความพร้อม”

ในตอนก่อนหน้า เราได้ตั้งคำถามว่า ERP เป็นต้นกำเนิดของ Governance AI จริงหรือไม่? และพบว่าแม้ ERP จะไม่ได้ถูกออกแบบมาเพื่อกำกับปัญญาประดิษฐ์โดยตรง แต่ได้วางรากฐานสำคัญด้าน Data Integrity, Embedded Control และวัฒนธรรมการควบคุมเชิงระบบไว้แล้ว

คำถามต่อไปจึงเข้มข้นขึ้นกว่าเดิม.. หากองค์กรเริ่มพัฒนา AI แต่ยังไม่มีโครงสร้างข้อมูลและการควบคุมแบบ ERP รองรับ
ความเสี่ยงจะเกิดขึ้นตรงไหนบ้าง?

AI Governance โดยไม่มี ERP อาจดูเหมือนไม่มีปัญหาในระยะสั้น แต่ในเชิงโครงสร้าง มันคือการสร้างระบบอัจฉริยะบนพื้นฐานที่ยังไม่มั่นคง

ปัญหาแรก: Data Fragmentation — เมื่อ AI เรียนรู้จากข้อมูลที่ไม่สอดคล้องกัน

ERP ทำหน้าที่รวมข้อมูลจากทุกหน่วยงานเข้าสู่ Single Source of Truth เมื่อไม่มี ERP หรือมีแต่ระบบแยกส่วน ข้อมูลจะกระจัดกระจายอยู่ตามระบบบัญชีคนละชุด ระบบขายคนละแพลตฟอร์ม หรือ ไฟล์ Excel ภายในหน่วยงาน รวมถึง ระบบ Legacy ที่ไม่เชื่อมต่อกัน

AI ที่ถูกพัฒนาขึ้นบนฐานข้อมูลลักษณะนี้มีความเสี่ยงอย่างน้อย 3 ประการ

1. ความไม่สอดคล้องของนิยามข้อมูล (Data Definition Conflict)
ยอดขายที่ฝ่ายการเงินใช้ อาจไม่ตรงกับยอดขายที่ฝ่ายขายใช้

2. ความไม่ครบถ้วน (Incomplete Dataset)
ข้อมูลบางส่วนอาจไม่ถูกดึงเข้าโมเดลเพราะไม่มี data pipeline ที่ชัดเจน

3. สาม ความไม่สามารถตรวจสอบย้อนกลับ (Weak Data Lineage)
เมื่อผลลัพธ์ AI ผิดพลาด องค์กรไม่สามารถย้อนกลับไปดูต้นทางข้อมูลได้ชัดเจน

นี่คือความเสี่ยงเชิงโครงสร้างที่ ERP เคยช่วยลดไว้ แต่จะกลับมาอีกครั้งเมื่อ AI เติบโตโดยไม่มีฐานข้อมูลที่บูรณาการ

Governance Framework ที่ไม่มีฐานระบบรองรับ: ช่องว่างระหว่าง Policy กับ Reality

หลายองค์กรเริ่มเขียน AI Policy หรือ AI Ethics Guideline อ้างอิงกรอบจาก OECD หรือ European Commission แต่หากไม่มีระบบที่ฝัง control ลงไปจริง ความเสี่ยงจะเกิดสิ่งที่เรียกว่า “Paper Governance” คือมีนโยบาย แต่ไม่มี system enforcement

ERP เคยทำให้ Governance จากระดับคณะกรรมการสามารถถูกบังคับใช้ผ่าน workflow ได้จริง แต่ AI Governance ที่ไม่มีโครงสร้างข้อมูลและระบบควบคุมรองรับ อาจกลายเป็นเพียงคำประกาศ

Model Risk ที่เพิ่มขึ้นแบบเงียบ ๆ

ในภาคการเงิน กรอบของ Basel Committee on Banking Supervision เน้นการบริหาร Model Risk อย่างเข้มงวด หากองค์กรไม่มีระบบข้อมูลที่เป็นมาตรฐาน การทดสอบย้อนหลัง (Backtesting) จะทำได้ยาก การตรวจสอบ bias จะไม่แม่นยำ และการวัด model drift จะไม่มี baseline ที่ชัดเจน AI จะค่อย ๆ เปลี่ยนพฤติกรรมของมัน โดยที่องค์กรไม่รู้ตัว ความเสี่ยงนี้อันตรายกว่าความผิดพลาดของ ERP เพราะมันไม่ได้เกิดจากการทำธุรกรรมผิดพลาด แต่เกิดจาก “การตัดสินใจที่ค่อย ๆ เบี่ยงเบน”

การตรวจสอบที่ทำได้ยากขึ้น: จาก IT Audit สู่ Algorithmic Blind Spot

ในยุค ERP ผู้ตรวจสอบสามารถตรวจ:

  • Access Control
  • Change Management
  • Segregation of Duties

แต่ในยุค AI หากไม่มี ERP หรือ Data Governance ที่เข้มแข็ง ผู้ตรวจสอบจะเผชิญกับ:

  • ข้อมูลฝึกที่ไม่มีเอกสารกำกับ
  • Feature Engineering ที่ไม่มี version control
  • โมเดลที่ deploy โดยไม่มี approval workflow

สิ่งที่เกิดขึ้นคือ “Algorithmic Blind Spot” องค์กรมี AI ใช้งานจริง แต่ไม่มีโครงสร้างตรวจสอบรองรับ

ความเสี่ยงเชิงจริยธรรมและชื่อเสียง (Reputational Risk)

AI ที่เรียนรู้จากข้อมูลที่ไม่ผ่านการควบคุมคุณภาพ อาจสะท้อนอคติของข้อมูลดิบ เมื่อไม่มี Data Governance ที่แข็งแรง AI อาจเลือกปฏิบัติ การตัดสินใจอาจไม่สามารถอธิบายได้ รวมทั้ง ความโปร่งใสอาจไม่เพียงพอ ในบริบทกฎหมายอย่าง AI Act ของสหภาพยุโรป ความเสี่ยงนี้ไม่ใช่แค่เรื่องภาพลักษณ์ แต่เป็นเรื่องความรับผิดทางกฎหมาย องค์กรที่ไม่มี ERP หรือโครงสร้างข้อมูลแบบบูรณาการ อาจไม่สามารถแสดงหลักฐานการควบคุมได้เมื่อถูกตรวจสอบ

AI โดยไม่มี ERP: ความเสี่ยงเชิงกลยุทธ์

อีกประเด็นที่มักถูกมองข้ามคือ Strategic Misalignment

ERP บังคับให้องค์กรต้องคิดเรื่อง:

  • Data Ownership
  • Process Standardization
  • Enterprise-wide Integration

แต่ AI ที่พัฒนาแบบกระจัดกระจายตามหน่วยงาน อาจสร้าง:

  • Shadow AI
  • โมเดลซ้ำซ้อน
  • การใช้ข้อมูลข้ามหน่วยงานโดยไม่มี governance

ในระยะยาว สิ่งนี้อาจทำให้องค์กรสูญเสียการควบคุมเชิงกลยุทธ์

สรุปเชิงโครงสร้าง: AI Governance ต้องมี “ฐาน” ก่อนมี “ปัญญา”

AI Governance ไม่ได้เริ่มต้นที่โมเดล แต่มันเริ่มต้นที่ข้อมูล กระบวนการ และวัฒนธรรมการควบคุม ERP อาจไม่ใช่คำตอบทั้งหมด
แต่การไม่มีโครงสร้างแบบ ERP เลย ทำให้ AI Governance อ่อนแอตั้งแต่ต้น องค์กรอาจคิดว่ากำลังเข้าสู่ยุค AI อย่างรวดเร็ว
แต่แท้จริงแล้วอาจกำลังเพิ่มความเสี่ยงแบบทวีคูณโดยไม่รู้ตัว

ในตอนก่อน เราตั้งคำถามว่า ERP เป็นต้นกำเนิดของ Governance AI หรือไม่? ในตอนนี้ คำถามเปลี่ยนไปเป็น AI Governance จะยั่งยืนได้หรือไม่ หากไม่มีโครงสร้างแบบ ERP รองรับ?

AI เปรียบเสมือน “สมอง” ขององค์กรยุคใหม่ แต่สมองที่ไม่มีโครงกระดูกและระบบประสาทรองรับ ย่อมไม่สามารถทำงานได้อย่างมั่นคง องค์กรที่ต้องการใช้ AI อย่างรับผิดชอบ อาจไม่จำเป็นต้องมี ERP ขนาดใหญ่แบบดั้งเดิม แต่จำเป็นต้องมีโครงสร้างข้อมูล การควบคุม และการกำกับดูแลเชิงระบบที่เทียบเท่า

คำถามสำคัญจึงไม่ใช่ “เรามี AI แล้วหรือยัง?” แต่คือ “เรามีฐาน Governance ที่มั่นคงพอให้ AI เติบโตอย่างปลอดภัยหรือยัง?” และนั่นอาจเป็นความเสี่ยงที่องค์กรจำนวนมากยังไม่รู้ตัว

ถ้ามองไปตามลำดับวิวัฒนาการของความเสี่ยงแบบนี้:

  1. ERP คือรากฐาน
  2. ไม่มี ERP มีความเสี่ยงอย่างไร
  3. มี ERP แล้วก็ยังเสี่ยงได้ (Shadow AI)
  4. แล้วสุดท้ายองค์กรควรไปทางไหน (AI Native Enterprise)

จาก “โครงสร้าง” → “ช่องโหว่” → “ความเสี่ยงเงียบ” → “อนาคต”

ในตอนที่ 1-2 ผมได้พูดถึงเรื่อง ERP คือรากฐาน ส่วนในตอนที่ 3 นี้เป็นเรื่องขององค์กรที่ไม่มี ERP จะมีความเสี่ยงอย่างไร และถึงแม้จะมี ERP แล้วองค์กรก็ยังมีความเสี่ยงได้ ซึ่งผมจะไปพูดต่อในตอนที่ 4 ก่อนที่จะไปถึงอนาคตว่าองค์กรควรไปทิศทางไหน ถ้าผมพูดแค่ว่าองค์กร มี ERP แล้วก็จบ แต่ความจริงคือไม่ใช่ องค์กรจำนวนมากมี ERP เต็มรูปแบบ เช่น SAP ERP หรือ Oracle ERP แต่พนักงานกลับใช้ ChatGPT ภายนอก, สร้าง Python model เอง, ต่อ API โดยไม่ผ่าน IT รวมทั้งใช้ SaaS AI tool แบบไม่มี approval นี่แหละคือ “Shadow AI” มันคือ AI ที่เกิดนอก Governance แม้จะมี ERP ก็ตาม ซึ่งเราจะไปคุยกันต่อในตอนหน้านะครับ