18 ธันวาคม 2568 Google เปิดตัว FunctionGemma โมเดลตัวเล็กของตระกูล Gemma 270 M ที่ถูกทำมาให้ฟังภาษาคนแล้วแปลงเป็น การเรียก API actions ที่รันได้จริง มากกว่าคุยอย่างเดียว แล้วก็สลับกลับมาอธิบายผลลัพธ์เป็นภาษาคนให้ผู้ใช้เข้าใจได้

มันช่วยให้เราพูดเป็นประโยคธรรมดา แล้วไปสั่งแอป/มือถือ/ระบบให้ทำสิ่งนั้นให้เลย โดยเน้นทำได้บนเครื่องตัวเองแบบเร็วและเป็นส่วนตัว

FunctionGemma รองรับเครื่องมือยอดนิยมตลอดทั้ง workflow:

  1. การปรับแต่งด้วย Hugging Face Transformers, Unsloth, Keras หรือ NVIDIA NeMo
  2. Deploy ด้วย LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI หรือ LM Studio

เมื่อไหร่ควรเลือกใช้ FunctionGemma

  • FunctionGemma คือ สะพานเชื่อมระหว่างภาษาคนกับการสั่งซอฟต์แวร์ให้ทำงานจริง มันเหมาะถ้า:
  1. คุณมีชุดคำสั่ง (API) ที่กำหนดไว้ชัดเจนอยู่แล้ว: แอปของคุณมีชุด action ที่ชัดเจน (เช่น smart home, media, navigation)
  2. คุณพร้อมจะปรับ/เทรนโมเดลให้เข้ากับงานของคุณ: คุณต้องการพฤติกรรมที่สม่ำเสมอและค่อนข้าง deterministic ซึ่งได้จากการ fine-tuning ด้วยข้อมูลเฉพาะ มากกว่าความผันผวนของ zero-shot prompting
  3. คุณให้ความสำคัญกับการรันบนเครื่องเป็นหลัก: แอปของคุณต้องการ latency เกือบทันที และ privacy ของข้อมูลแบบเต็ม ๆ โดยรันได้ดีภายใต้ข้อจำกัดด้าน compute และแบตของอุปกรณ์ edge
  4. คุณกำลังทำระบบผสมหลายชั้น: คุณต้องการโมเดล edge ที่เบาไว้จัดการ local actions เพื่อให้ระบบทำคำสั่งทั่วไปบนเครื่องได้ และค่อยไปเรียกโมเดลใหญ่กว่า (อย่าง Gemma 3 27B) เฉพาะตอนเจองานยาก ๆ

FunctionGemma สามารถดาวน์โหลดได้บน HuggingFace หรือ Kaggle

HuggingFace: https://huggingface.co/google/functiongemma-270m-it

Kaggle: https://www.kaggle.com/models/google/functiongemma

ข้อสรุป:

FunctionGemma โมเดล Gemma ตัวเล็กที่ทำให้การพูดกับเครื่องไม่ใช่แค่คุย แต่สั่งให้ทำงานได้จริงบนเครื่องเราเอง ทั้งเร็วและเป็นส่วนตัว มันเหมาะกับงานที่มีชุดคำสั่งชัด ๆ เช่น ตั้งเตือน เพิ่มรายชื่อ เปิดไฟฉาย จัดการงานในแอป หรือคุมเกมจากเสียง แล้วบอกผลกลับมาเป็นภาษาคนให้เข้าใจง่าย

Source:

Blog Google, Youtube