ช่วงนี้ AI ในวงการสุขภาพไม่ได้โตแบบค่อย ๆ แล้วครับ…มันโตแบบ “เอาไปทำงานจริง” มากขึ้นเรื่อย ๆ

13 มกราคม 2569 Google Research จึงอัปเดตโมเดล Open-Source สำหรับสายแพทย์เป็น MedGemma 1.5 (ขนาด 4B) สามารถอ่านภาพทางการแพทย์ได้ดีขึ้น + รองรับงานหลายมิติมากขึ้น และยังเป็นโมเดลขนาดที่เริ่มต้นได้คุ้ม สำหรับทีมพัฒนา

จุดเด่น คือ อ่านภาพทางการแพทย์ได้เก่งขึ้น และตั้งใจให้เป็น Starting point สำหรับทีมที่อยากเอาไปปรับใช้กับงานจริง ทั้ง

  • การวินิจฉัยโรค
  • การตัดสินใจจัดการผู้ป่วย
  • คำแนะนำการรักษา

MedGemma 1.5 ต่างจากเดิมตรงไหน?

  1. ขยายจากภาพ 2D → ภาพแบบ High-Dimensional (ละเอียดสูง)
    • รองรับงานอย่าง CT / MRI / histopathology มากขึ้น หมายถึง จากเดิม
    • ดูภาพทีละใบ → อ่านภาพเป็นชุด ๆ / หลายชั้น / หลายมุมได้ดีขึ้น
  2. ทำงานกับ ภาพที่ต้องเทียบเวลาได้ดีขึ้น
    • เช่น ดู Chest X-ray คนเดิมหลายช่วงเวลา เพื่อจับการเปลี่ยนแปลง
  3. มีความสามารถด้าน Anatomical Localization
    • ช่วยชี้ตำแหน่งโครงสร้างสำคัญในภาพ (เช่นใน chest X-ray) ได้ดีขึ้น อันนี้สำคัญมาก เพราะทำให้ผลลัพธ์อธิบายได้มากขึ้น ไม่ใช่แค่ตอบว่าพบอะไร
  4. เข้าใจเอกสารแพทย์ดีขึ้น
    • ดึงข้อมูลจาก Medical Lab Reports ให้เป็น Structured data (ชนิดแล็บ / ค่า / หน่วย)

คุณเข้าถึง Variant ทั้งหมดของ MedGemma ได้ผ่าน

  • Hugging Face collection
  • Vertex AI บน Google Cloud

ส่วน MedASR มีให้ใช้บน Hugging Face และ Vertex AI แล้วเหมือนกัน

ข้อสำคัญ

MedGemma และโมเดลใน HAI-DEF ถูกวางเป็น starting point ไม่ควรใช้ผลลัพธ์ไปตัดสินใจทางคลินิกโดยตรง โดยไม่ผ่านการ validate / adapt ให้เหมาะกับ use case ขององค์กร

ข้อสรุป:

MedGemma 1.5 (4B) คือ อีกก้าวที่ทำให้ AI สายสุขภาพ “อ่านภาพได้หลากหลายขึ้น” และต่อยอดเป็นระบบช่วยงานได้มากขึ้น แต่ของจริงจะเวิร์กได้ ต้องชนะ 3 เรื่อง: ข้อมูล + การปรับใช้ + ความปลอดภัย

Source:

Blog Google Research