18 ธันวาคม 2568 Google เปิดตัว FunctionGemma โมเดลตัวเล็กของตระกูล Gemma 270 M ที่ถูกทำมาให้ฟังภาษาคนแล้วแปลงเป็น การเรียก API actions ที่รันได้จริง มากกว่าคุยอย่างเดียว แล้วก็สลับกลับมาอธิบายผลลัพธ์เป็นภาษาคนให้ผู้ใช้เข้าใจได้
มันช่วยให้เราพูดเป็นประโยคธรรมดา แล้วไปสั่งแอป/มือถือ/ระบบให้ทำสิ่งนั้นให้เลย โดยเน้นทำได้บนเครื่องตัวเองแบบเร็วและเป็นส่วนตัว
FunctionGemma รองรับเครื่องมือยอดนิยมตลอดทั้ง workflow:
- การปรับแต่งด้วย Hugging Face Transformers, Unsloth, Keras หรือ NVIDIA NeMo
- Deploy ด้วย LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI หรือ LM Studio
เมื่อไหร่ควรเลือกใช้ FunctionGemma
- FunctionGemma คือ สะพานเชื่อมระหว่างภาษาคนกับการสั่งซอฟต์แวร์ให้ทำงานจริง มันเหมาะถ้า:
- คุณมีชุดคำสั่ง (API) ที่กำหนดไว้ชัดเจนอยู่แล้ว: แอปของคุณมีชุด action ที่ชัดเจน (เช่น smart home, media, navigation)
- คุณพร้อมจะปรับ/เทรนโมเดลให้เข้ากับงานของคุณ: คุณต้องการพฤติกรรมที่สม่ำเสมอและค่อนข้าง deterministic ซึ่งได้จากการ fine-tuning ด้วยข้อมูลเฉพาะ มากกว่าความผันผวนของ zero-shot prompting
- คุณให้ความสำคัญกับการรันบนเครื่องเป็นหลัก: แอปของคุณต้องการ latency เกือบทันที และ privacy ของข้อมูลแบบเต็ม ๆ โดยรันได้ดีภายใต้ข้อจำกัดด้าน compute และแบตของอุปกรณ์ edge
- คุณกำลังทำระบบผสมหลายชั้น: คุณต้องการโมเดล edge ที่เบาไว้จัดการ local actions เพื่อให้ระบบทำคำสั่งทั่วไปบนเครื่องได้ และค่อยไปเรียกโมเดลใหญ่กว่า (อย่าง Gemma 3 27B) เฉพาะตอนเจองานยาก ๆ
FunctionGemma สามารถดาวน์โหลดได้บน HuggingFace หรือ Kaggle
HuggingFace: https://huggingface.co/google/functiongemma-270m-it
Kaggle: https://www.kaggle.com/models/google/functiongemma
ข้อสรุป:
FunctionGemma โมเดล Gemma ตัวเล็กที่ทำให้การพูดกับเครื่องไม่ใช่แค่คุย แต่สั่งให้ทำงานได้จริงบนเครื่องเราเอง ทั้งเร็วและเป็นส่วนตัว มันเหมาะกับงานที่มีชุดคำสั่งชัด ๆ เช่น ตั้งเตือน เพิ่มรายชื่อ เปิดไฟฉาย จัดการงานในแอป หรือคุมเกมจากเสียง แล้วบอกผลกลับมาเป็นภาษาคนให้เข้าใจง่าย




