5 กันยายน 2568 OpenAI ปล่อย Paper: Why Language Models Hallucinate (ทำไมโมเดลภาษาหรือ AI ถึงมีอาการหลอน) ใน Paper นี้จะอธิบายสาเหตุ และ เสนอวิธีลด/ป้องกัน hallucinations

Why-Language-Models-Hallucinate

สาเหตุของอาการหลอนหลัก

  • วิธีวัดผลแบบเดิมเน้นความแม่นยำอย่างเดียว → โมเดลถูกจูงใจให้ เดา มากกว่าพูดว่า ไม่รู้/ไม่ชัวร์
  • กระบวนการก่อนฝึกเทรนข้อมูล แบบทายคำถัดไป ไม่เห็นตัวอย่างที่ติดป้ายว่า ผิด + ข้อเท็จจริงแบบความถี่ต่ำ/สุ่ม (เช่น วันเกิด ตัวเลขเฉพาะ) จึงหลุดง่าย
  • คำถามกำกวม/ข้อมูลไม่พอ, ออกนอกโดเมน, งานที่คำนวณยากโดยธรรมชาติ, โมเดลไม่ตรงงาน

ทำไมหลังฝึกข้อมูลแล้วยังมีอาการหลอน

  • เพราะ เกณฑ์สอบส่วนใหญ่ลงโทษการงดตอบ และ ไม่ให้เครดิตความไม่แน่ใจ → โมเดลที่ กล้าเดา ชนะโมเดลที่ ซื่อสัตย์กับความไม่แน่ใจ บน Benchmark

แก้ง่าย ๆ

  • ลงโทษคำตอบที่ผิดแบบมั่นใจ ให้หนักกว่าการบอก ไม่แน่ใจ/ขอเว้น และให้เครดิตบางส่วนกับความซื่อสัตย์ แนวนี้มีในข้อสอบบางแบบเพื่อกันเดามั่วอยู่แล้ว ประเด็นสำคัญไม่ใช่เพิ่มข้อสอบพิเศษ แต่ต้องปรับ Benchmark หลัก ให้เลิกให้รางวัลกับการเดา ถ้ายังให้แต้มกับ เดาถูกฟลุ๊ค โมเดลก็ยิ่งเรียนรู้จะเดา พอเปลี่ยน Benchmark เทคนิคใหม่จะลดอาการหลอนเก่า–ใหม่จะถูกเอาไปใช้กว้างขึ้น
  • ด้วยการวัดผลแบบ 3 ช่องทาง Accuracy / Error / Abstention (ไม่ใช่ accuracy อย่างเดียว) + เน้น Behavioral calibration: วัดจาก พฤติกรรม เลือกตอบ/งดตามและเกณฑ์ความมั่นใจ มากกว่าขอให้โมเดลรายงานเปอร์เซ็นต์ความมั่นใจสวย ๆ

ข้อสรุป:

Paper OpenAI มาช่วยไขปริศนาให้ผู้ใช้งาน AI หลาย ๆ คนเข้าใจว่า ทำไมถึงตอบผิด ข้อมูลไม่ตรง หรืออวยเกิน

Source:

OpenAI, Arxiv Paper