Gemma 3 270M ของ Google แสดงให้เห็นศักยภาพแม้จะมีปัญหาด้านประสิทธิภาพในระยะเริ่มต้น

ทีมชุมชน BigGo
Gemma 3 270M ของ Google แสดงให้เห็นศักยภาพแม้จะมีปัญหาด้านประสิทธิภาพในระยะเริ่มต้น

Google ได้เปิดตัว Gemma 3 270M โมเดลภาษาขนาดกะทัดรัดที่มีพารามิเตอร์ 270 ล้านตัว ซึ่งออกแบบมาสำหรับงาน fine-tuning เฉพาะทาง แม้ว่าบริษัทจะวางตำแหน่งสิ่งนี้เป็นความก้าวหน้าในด้าน AI ที่มีประสิทธิภาพ แต่การทดสอบจากชุมชนในระยะเริ่มต้นเผยให้เห็นข้อจำกัดที่สำคัญซึ่งเน้นย้ำถึงความท้าทายในการสร้างโมเดลขนาดเล็กที่มีประโยชน์

ข้อมูลจำเพาะของโมเดล:

  • พารามิเตอร์: รวม 270 ล้านตัว (170M embeddings + 100M transformer blocks)
  • คำศัพท์: 256,000 โทเค็น
  • หน้าต่างบริบท: 32,000 โทเค็น
  • ขนาดโมเดล: ดาวน์โหลด 241MB
  • การบีบอัด: มีความแม่นยำ INT4
  • การใช้แบตเตอรี่: 0.75% สำหรับการสนทนา 25 ครั้งบน Pixel 9 Pro
การประกาศ Gemma 3 270M : ความก้าวหน้าในเทคโนโลยี AI ขนาดกะทัดรัด
การประกาศ Gemma 3 270M : ความก้าวหน้าในเทคโนโลยี AI ขนาดกะทัดรัด

ปัญหาการหลอนครอบงำการทดสอบในระยะเริ่มต้น

สมาชิกชุมชนค้นพบอย่างรวดเร็วว่าโมเดลพื้นฐานมีปัญหากับความแม่นยำของข้อเท็จจริงเบื้องต้นและความสอดคล้องทางตรรกะ ความพยายามของผู้ใช้คนหนึ่งในการถามเกี่ยวกับภูเขาที่สูงที่สุดในโลกส่งผลให้โมเดลอ้างซ้ำแล้วซ้ำเล่าว่า Mount Everest เป็นยอดเขาที่สูงที่สุดอันดับที่หนึ่ง สอง และสามพร้อมกัน แม้กระทั่งเมื่อนำเสนอรายการที่ถูกต้องของตัวเองที่แสดงให้เห็นว่า K2 เป็นยอดที่สูงเป็นอันดับสอง โมเดลยังคงยืนยันว่า Everest ครองทุกตำแหน่ง

โมเดลยังสร้างผลลัพธ์ที่สร้างสรรค์อย่างมากแต่ไม่ถูกต้อง เมื่อถูกขอให้สร้าง SVG ของนกกระทุงที่ขี่จักรยาน มันสร้างบทกวี ASCII art แทน โดยอธิบายแมวที่มีปีกและหางขี่จักรยาน ผลลัพธ์เหล่านี้แสดงให้เห็นแนวโน้มของโมเดลในการหลอนอย่างกว้างขวางเมื่อใช้สำหรับงานทั่วไป

การหลอน: เมื่อโมเดล AI สร้างข้อมูลเท็จหรือไร้สาระที่ดูมั่นใจและน่าเชื่อถือ

Fine-Tuning กลายเป็นทางออกหลัก

ทีมของ Google เน้นย้ำว่าโมเดล 270M ไม่ได้มีไว้สำหรับการใช้งานทั่วไปแบบพร้อมใช้ แต่เป็นพื้นฐานสำหรับ fine-tuning เฉพาะงาน บริษัทให้บทเรียนฟรีที่ช่วยให้ผู้ใช้ปรับแต่งโมเดลได้ในเวลาไม่ถึงห้านาทีโดยใช้ Google Colab

คำแนะนำของฉันคือให้เชื่อมต่อโมเดลนี้เข้ากับระบบ RAG จากนั้นคุณจะสามารถพึ่งพาแหล่งเก็บความรู้ภายนอกได้ หรือคุณสามารถลอง fine-tune โมเดลนี้ด้วยข้อเท็จจริงที่สำคัญสำหรับคุณ

ผู้ใช้รุ่นแรกรายงานความสำเร็จเมื่อพวกเขาปรับความคาดหวังและกลยุทธ์การสั่งงาน ผู้ใช้พบว่าการระบุคำแนะนำและรูปแบบผลลัพธ์อย่างเฉพาะเจาะจงช่วยปรับปรุงผลลัพธ์อย่างมาก โดยอัตราความสำเร็จเพิ่มขึ้นจากเกือบศูนย์เป็นมากกว่า 80% สำหรับงานบางประเภท

RAG (Retrieval-Augmented Generation): เทคนิคที่รวมโมเดล AI เข้ากับฐานข้อมูลภายนอกเพื่อปรับปรุงความแม่นยำ

ลักษณะด้านประสิทธิภาพ:

  • ความเร็ว: ประมาณ 80 โทเคนต่อวินาทีบน iPhone 16 Pro
  • ข้อมูลการฝึกอบรม: 6 ล้านล้านโทเคน
  • คะแนน IFEval: 51.2
  • ออกแบบสำหรับ: การปรับแต่งเฉพาะงาน ไม่ใช่การสนทนาทั่วไป
  • กรณีการใช้งานที่ดีที่สุด: การจำแนกข้อความ การวิเคราะห์ความรู้สึก การดึงข้อมูล
  • เวลาในการปรับแต่ง: ประมาณ 5 นาทีบน Google Colab ฟรี

สถาปัตยกรรมทางเทคนิคทำให้เกิดคำถาม

การออกแบบที่ผิดปกติของโมเดลจัดสรรพารามิเตอร์ 170 ล้านตัวให้กับ embeddings และเพียง 100 ล้านตัวให้กับ transformer blocks การจัดสรร embedding 68% นี้สูงกว่าโมเดลภาษาทั่วไปอย่างมีนัยสำคัญ ซึ่งสะท้อนให้เห็นการมุ่งเน้นของ Google ในการรองรับหลายภาษาและคำศัพท์เฉพาะทาง

สมาชิกชุมชนตั้งคำถามว่าการเลือกสถาปัตยกรรมนี้จำกัดความสามารถในการใช้เหตุผลของโมเดลหรือไม่ คำศัพท์ขนาดใหญ่ที่มี 256,000 โทเค็นมีเป้าหมายเพื่อจัการกับคำที่หายากและเฉพาะทาง แต่ผู้ใช้บางคนสงสัยว่าพารามิเตอร์ที่มากขึ้นซึ่งทุ่มเทให้กับตรรกะการประมวลผลอาจปรับปรุงประสิทธิภาพได้หรือไม่

การประยุกต์ใช้ในโลกจริงแสดงผลลัพธ์ที่หลากหลาย

แม้จะมีข้อจำกัด แต่ผู้ใช้บางคนพบการประยุกต์ใช้ในทางปฏิบัติ โมเดลแสดงให้เห็นศักยภาพสำหรับการจำแนกข้อความง่าย ๆ การวิเคราะห์ความรู้สึก และการดึงข้อมูลที่มีโครงสร้างเมื่อได้รับการ fine-tune อย่างเหมาะสม ขนาด 241MB ทำให้มันเร็วมากและเหมาะสำหรับอุปกรณ์ edge โดยการทดสอบแสดงให้เห็นว่าใช้แบตเตอรี่สมาร์ทโฟนเพียง 0.75% สำหรับการสนทนา 25 ครั้ง

อย่างไรก็ตาม ความพยายามในการใช้งานสำหรับการควบคุมเนื้อหา การช่วยเหลือการเขียนโปรแกรม หรืองานใช้เหตุผลที่ซับซ้อนส่วนใหญ่ล้มเหลว ผู้ใช้ที่พยายามสร้างตัวกรองแชทเกมพบว่าการฝึกอบรมด้านความปลอดภัยของโมเดลรบกวนการปฏิบัติตามคำแนะนำเฉพาะ แม้กระทั่งในบริบทการเล่นเกมที่ถูกต้อง

บทสรุป

Gemma 3 270M เป็นตัวแทนของการทดลองที่น่าสนใจในการสร้างโมเดล AI ที่กะทัดรัดเป็นพิเศษ แม้ว่าประสิทธิภาพพื้นฐานจะทำให้ผู้ใช้ที่คาดหวังความสามารถทั่วไปผิดหวัง แต่โมเดลอาจประสบความสำเร็จในงานที่แคบและมีการกำหนดไว้อย่างชัดเจนหลังจากการ fine-tuning ที่เหมาะสม การตอบรับที่หลากหลายจากชุมชนเน้นย้ำถึงความท้าทายที่ยังคงอยู่ในการสร้างสมดุลระหว่างขนาดโมเดล ความสามารถ และประโยชน์ใช้สอยในทางปฏิบัติในการแข่งขันสู่ระบบ AI ที่มีประสิทธิภาพ

อ้างอิง: Introducing Gemma 3 270M: The compact model for hyper-efficient AI