ทีม Qwen ของ Alibaba ได้เปิดตัวโมเดล AI รุ่นล่าสุด Qwen3-30B-A3B-Instruct-2507 ซึ่งถือเป็นก้าวสำคัญในการทำให้โมเดลภาษาที่ทรงพลังสามารถเข้าถึงได้บนฮาร์ดแวร์สำหรับผู้บริโภค การเปิดตัวครั้งนี้เป็นโมเดลที่ห้าจาก Qwen ในเวลาเพียง 9 วัน แสดงให้เห็นถึงความเร็วในการพัฒนา AI ที่ไม่เคยมีมาก่อนและดึงดูดความสนใจจากชุมชนเทคโนโลยี
โมเดลใหม่นำมาซึ่งการปรับปรุงที่สำคัญในหลายด้าน รวมถึงการปฏิบัติตามคำสั่ง การใช้เหตุผลเชิงตรรกะ คณิตศาสตร์ การเขียนโค้ด และการใช้เครื่องมือ นอกจากนี้ยังมีความสามารถในการเข้าใจบริบทยาวที่ปรับปรุงแล้วสูงถึง 360,000 โทเค็น ทำให้เหมาะสำหรับการประมวลผลเอกสารและการสนทนาที่มีความยาว
การเปิดตัวโมเดล Qwen ล่าสุด (กรกฎาคม 2025):
- 21 กรกฎาคม: Qwen3-235B-A22B-Instruct-2507
- 22 กรกฎาคม: Qwen3-Coder-480B-A35B-Instruct
- 25 กรกฎาคม: Qwen3-235B-A22B-Thinking-2507
- 29 กรกฎาคม: Qwen3-30B-A3B-Instruct-2507
- 30 กรกฎาคม: Qwen3-30B-A3B-Thinking-2507
ประสิทธิภาพเทียบเท่า GPT-4 ต้นฉบับ
การทดสอบเบื้องต้นโดยชุมชนแสดงให้เห็นว่า Qwen3-30B-A3B-Instruct-2507 มอบประสิทธิภาพที่เทียบเท่ากับ GPT-4 ต้นฉบับจากเดือนมีนาคม 2023 ความสำเร็จนี้น่าสนใจเป็นพิเศษเพราะโมเดลสามารถทำงานได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์สำหรับผู้บริโภคที่มี RAM 32GB เมื่อใช้การบีบอัด ทำให้ความสามารถ AI ขั้นสูงสามารถเข้าถึงได้สำหรับนักพัฒนาและนักวิจัยรายบุคคล
โมเดลแสดงความเร็วที่น่าประทับใจบนฮาร์ดแวร์สำหรับผู้บริโภคระดับไฮเอนด์ โดยสามารถทำได้มากกว่า 100 โทเค็นต่อวินาทีในบริบทขนาดเล็ก และรักษาความเร็วมากกว่า 20 โทเค็นต่อวินาทีสำหรับบริบทขนาดใหญ่เมื่อทำงานบน MacBook M4 Max ที่มี RAM 128GB โดยใช้การบีบอัด 4-bit
ข้อกำหนดฮาร์ดแวร์:
- ขั้นต่ำ: RAM 32GB (เวอร์ชัน quantized)
- แนะนำ: RAM 48GB สำหรับการใช้งานที่สะดวกสบาย
- ประสิทธิภาพสูงสุด: M4 Max MacBook พร้อม RAM 128GB
- ประสิทธิภาพ: 100+ tokens ต่อวินาที (บริบทเล็ก), 20+ tokens ต่อวินาที (บริบทใหญ่)
![]() |
---|
การเปรียบเทียบประสิทธิภาพของ Qwen3-30B-A3B-Instruct-2507 กับโมเดล AI ชั้นนำอื่นๆ ในเกณฑ์มาตรฐานต่างๆ |
การละทิ้งสถาปัตยกรรมการใช้เหตุผลแบบผสม
หนึ่งในการตัดสินใจทางเทคนิคที่สำคัญที่สุดในการเปิดตัวครั้งนี้คือการที่ Qwen หันหลังให้กับโมเดลการใช้เหตุผลแบบผสม ทีมได้พิสูจน์แล้วว่าแนวทางการใช้เหตุผลแบบผสมไม่ได้ผลดีเท่าที่คาดหวังไว้ในตอนแรก และอาจทำให้ประสิทธิภาพแย่ลงได้ แทนที่จะเป็นเช่นนั้น พวกเขาได้มุ่งเน้นไปที่การสร้างโมเดลแยกที่ปรับให้เหมาะสมสำหรับการปฏิบัติตามคำสั่งมาตรฐานหรืองานการใช้เหตุผลเฉพาะทาง
การเปลี่ยนแปลงสถาปัตยกรรมนี้ส่งผลให้เกิดการปรับปรุงประสิทธิภาพอย่างมาก ชุมชนได้สังเกตว่าแนวทางที่ไม่ใช่แบบผสมให้ผลลัพธ์ที่ดีกว่าในขณะที่มีประสิทธิภาพมากขึ้นในแง่ของทรัพยากรการคำนวณและการสร้างการตอบสนอง
ความสามารถในการใช้เครื่องมือที่แข็งแกร่ง
โมเดลมีความเป็นเลิศในการใช้เครื่องมือ สืบต่อชื่อเสียงของ Qwen ในการสร้างระบบ AI ที่สามารถโต้ตอบกับเครื่องมือภายนอกและ API ได้อย่างมีประสิทธิภาพ ความสามารถนี้ทำให้มีคุณค่าเป็นพิเศษสำหรับนักพัฒนาที่ต้องการสร้างแอปพลิเคชัน AI ที่จำเป็นต้องเข้าถึงฐานข้อมูล API หรือทรัพยากรภายนอกอื่นๆ
โมเดล Qwen ทุกตัวเก่งในการใช้เครื่องมือ แม้แต่ตัวเล็กขนาด 4B
การผสมผสานระหว่างความสามารถในการใช้เครื่องมือที่แข็งแกร่งกับความสามารถในการทำงานในเครื่องทำให้โมเดลนี้น่าสนใจสำหรับแอปพลิเคชันที่ความเป็นส่วนตัวของข้อมูลและการทำงานแบบออฟไลน์เป็นข้อพิจารณาที่สำคัญ
การตั้งค่าที่แนะนำ:
- Temperature: 0.7
- TopP: 0.8
- TopK: 20
- MinP: 0
- ความยาวของผลลัพธ์: 16,384 tokens
- Presence penalty: 0-2 (เพื่อลดการทำซ้ำ)
ความเร็วในการพัฒนาที่รวดเร็วสร้างความประหลาดใจ
ตารางการเปิดตัวนั้นน่าทึ่งมาก โดยมีโมเดลหลักห้าตัวที่เปิดตัวในเวลาเพียงกว่าหนึ่งสัปดาห์ ซึ่งรวมถึงโมเดลที่มีขนาดตั้งแต่ 30B ถึง 480B พารามิเตอร์ ครอบคลุมทั้งการปฏิบัติตามคำสั่งทั่วไปและงานการเขียนโค้ดเฉพาะทาง ความเร็วที่รวดเร็วนี้บ่งบอกถึงการแข่งขันที่รุนแรงในพื้นที่ AI และความมุ่งมั่นของ Qwen ในการรักษาความเป็นผู้นำทางเทคโนโลยี
โมเดลนี้พร้อมใช้งานแล้วผ่านหลายช่องทาง รวมถึง Ollama สำหรับการติดตั้งในเครื่องที่ง่าย ทำให้นักพัฒนาที่ต้องการทดลองกับความสามารถ AI ขั้นสูงสามารถเข้าถึงได้โดยไม่ต้องพึ่งพาบริการคลาวด์
การเปิดตัวครั้งนี้แสดงให้เห็นว่าภูมิทัศน์ AI กำลังพัฒนาอย่างรวดเร็วเพียงใด โดยโมเดลที่ทรงพลังซึ่งครั้งหนึ่งเคยต้องใช้ทรัพยากรการคำนวณมหาศาล ตอนนี้กลายเป็นที่พร้อมใช้งานสำหรับการติดตั้งในเครื่องบนฮาร์ดแวร์สำหรับผู้บริโภค
อ้างอิง: Qwen3-30B-A3B-Instruct-2507