Qwen3-30B-A3B-Instruct-2507 มอบประสิทธิภาพระดับ GPT-4 บนฮาร์ดแวร์สำหรับผู้บริโภค

ทีมชุมชน BigGo
Qwen3-30B-A3B-Instruct-2507 มอบประสิทธิภาพระดับ GPT-4 บนฮาร์ดแวร์สำหรับผู้บริโภค

ทีม Qwen ของ Alibaba ได้เปิดตัวโมเดล AI รุ่นล่าสุด Qwen3-30B-A3B-Instruct-2507 ซึ่งถือเป็นก้าวสำคัญในการทำให้โมเดลภาษาที่ทรงพลังสามารถเข้าถึงได้บนฮาร์ดแวร์สำหรับผู้บริโภค การเปิดตัวครั้งนี้เป็นโมเดลที่ห้าจาก Qwen ในเวลาเพียง 9 วัน แสดงให้เห็นถึงความเร็วในการพัฒนา AI ที่ไม่เคยมีมาก่อนและดึงดูดความสนใจจากชุมชนเทคโนโลยี

โมเดลใหม่นำมาซึ่งการปรับปรุงที่สำคัญในหลายด้าน รวมถึงการปฏิบัติตามคำสั่ง การใช้เหตุผลเชิงตรรกะ คณิตศาสตร์ การเขียนโค้ด และการใช้เครื่องมือ นอกจากนี้ยังมีความสามารถในการเข้าใจบริบทยาวที่ปรับปรุงแล้วสูงถึง 360,000 โทเค็น ทำให้เหมาะสำหรับการประมวลผลเอกสารและการสนทนาที่มีความยาว

การเปิดตัวโมเดล Qwen ล่าสุด (กรกฎาคม 2025):

  • 21 กรกฎาคม: Qwen3-235B-A22B-Instruct-2507
  • 22 กรกฎาคม: Qwen3-Coder-480B-A35B-Instruct
  • 25 กรกฎาคม: Qwen3-235B-A22B-Thinking-2507
  • 29 กรกฎาคม: Qwen3-30B-A3B-Instruct-2507
  • 30 กรกฎาคม: Qwen3-30B-A3B-Thinking-2507

ประสิทธิภาพเทียบเท่า GPT-4 ต้นฉบับ

การทดสอบเบื้องต้นโดยชุมชนแสดงให้เห็นว่า Qwen3-30B-A3B-Instruct-2507 มอบประสิทธิภาพที่เทียบเท่ากับ GPT-4 ต้นฉบับจากเดือนมีนาคม 2023 ความสำเร็จนี้น่าสนใจเป็นพิเศษเพราะโมเดลสามารถทำงานได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์สำหรับผู้บริโภคที่มี RAM 32GB เมื่อใช้การบีบอัด ทำให้ความสามารถ AI ขั้นสูงสามารถเข้าถึงได้สำหรับนักพัฒนาและนักวิจัยรายบุคคล

โมเดลแสดงความเร็วที่น่าประทับใจบนฮาร์ดแวร์สำหรับผู้บริโภคระดับไฮเอนด์ โดยสามารถทำได้มากกว่า 100 โทเค็นต่อวินาทีในบริบทขนาดเล็ก และรักษาความเร็วมากกว่า 20 โทเค็นต่อวินาทีสำหรับบริบทขนาดใหญ่เมื่อทำงานบน MacBook M4 Max ที่มี RAM 128GB โดยใช้การบีบอัด 4-bit

ข้อกำหนดฮาร์ดแวร์:

  • ขั้นต่ำ: RAM 32GB (เวอร์ชัน quantized)
  • แนะนำ: RAM 48GB สำหรับการใช้งานที่สะดวกสบาย
  • ประสิทธิภาพสูงสุด: M4 Max MacBook พร้อม RAM 128GB
  • ประสิทธิภาพ: 100+ tokens ต่อวินาที (บริบทเล็ก), 20+ tokens ต่อวินาที (บริบทใหญ่)
การเปรียบเทียบประสิทธิภาพของ Qwen3-30B-A3B-Instruct-2507 กับโมเดล AI ชั้นนำอื่นๆ ในเกณฑ์มาตรฐานต่างๆ
การเปรียบเทียบประสิทธิภาพของ Qwen3-30B-A3B-Instruct-2507 กับโมเดล AI ชั้นนำอื่นๆ ในเกณฑ์มาตรฐานต่างๆ

การละทิ้งสถาปัตยกรรมการใช้เหตุผลแบบผสม

หนึ่งในการตัดสินใจทางเทคนิคที่สำคัญที่สุดในการเปิดตัวครั้งนี้คือการที่ Qwen หันหลังให้กับโมเดลการใช้เหตุผลแบบผสม ทีมได้พิสูจน์แล้วว่าแนวทางการใช้เหตุผลแบบผสมไม่ได้ผลดีเท่าที่คาดหวังไว้ในตอนแรก และอาจทำให้ประสิทธิภาพแย่ลงได้ แทนที่จะเป็นเช่นนั้น พวกเขาได้มุ่งเน้นไปที่การสร้างโมเดลแยกที่ปรับให้เหมาะสมสำหรับการปฏิบัติตามคำสั่งมาตรฐานหรืองานการใช้เหตุผลเฉพาะทาง

การเปลี่ยนแปลงสถาปัตยกรรมนี้ส่งผลให้เกิดการปรับปรุงประสิทธิภาพอย่างมาก ชุมชนได้สังเกตว่าแนวทางที่ไม่ใช่แบบผสมให้ผลลัพธ์ที่ดีกว่าในขณะที่มีประสิทธิภาพมากขึ้นในแง่ของทรัพยากรการคำนวณและการสร้างการตอบสนอง

ความสามารถในการใช้เครื่องมือที่แข็งแกร่ง

โมเดลมีความเป็นเลิศในการใช้เครื่องมือ สืบต่อชื่อเสียงของ Qwen ในการสร้างระบบ AI ที่สามารถโต้ตอบกับเครื่องมือภายนอกและ API ได้อย่างมีประสิทธิภาพ ความสามารถนี้ทำให้มีคุณค่าเป็นพิเศษสำหรับนักพัฒนาที่ต้องการสร้างแอปพลิเคชัน AI ที่จำเป็นต้องเข้าถึงฐานข้อมูล API หรือทรัพยากรภายนอกอื่นๆ

โมเดล Qwen ทุกตัวเก่งในการใช้เครื่องมือ แม้แต่ตัวเล็กขนาด 4B

การผสมผสานระหว่างความสามารถในการใช้เครื่องมือที่แข็งแกร่งกับความสามารถในการทำงานในเครื่องทำให้โมเดลนี้น่าสนใจสำหรับแอปพลิเคชันที่ความเป็นส่วนตัวของข้อมูลและการทำงานแบบออฟไลน์เป็นข้อพิจารณาที่สำคัญ

การตั้งค่าที่แนะนำ:

  • Temperature: 0.7
  • TopP: 0.8
  • TopK: 20
  • MinP: 0
  • ความยาวของผลลัพธ์: 16,384 tokens
  • Presence penalty: 0-2 (เพื่อลดการทำซ้ำ)

ความเร็วในการพัฒนาที่รวดเร็วสร้างความประหลาดใจ

ตารางการเปิดตัวนั้นน่าทึ่งมาก โดยมีโมเดลหลักห้าตัวที่เปิดตัวในเวลาเพียงกว่าหนึ่งสัปดาห์ ซึ่งรวมถึงโมเดลที่มีขนาดตั้งแต่ 30B ถึง 480B พารามิเตอร์ ครอบคลุมทั้งการปฏิบัติตามคำสั่งทั่วไปและงานการเขียนโค้ดเฉพาะทาง ความเร็วที่รวดเร็วนี้บ่งบอกถึงการแข่งขันที่รุนแรงในพื้นที่ AI และความมุ่งมั่นของ Qwen ในการรักษาความเป็นผู้นำทางเทคโนโลยี

โมเดลนี้พร้อมใช้งานแล้วผ่านหลายช่องทาง รวมถึง Ollama สำหรับการติดตั้งในเครื่องที่ง่าย ทำให้นักพัฒนาที่ต้องการทดลองกับความสามารถ AI ขั้นสูงสามารถเข้าถึงได้โดยไม่ต้องพึ่งพาบริการคลาวด์

การเปิดตัวครั้งนี้แสดงให้เห็นว่าภูมิทัศน์ AI กำลังพัฒนาอย่างรวดเร็วเพียงใด โดยโมเดลที่ทรงพลังซึ่งครั้งหนึ่งเคยต้องใช้ทรัพยากรการคำนวณมหาศาล ตอนนี้กลายเป็นที่พร้อมใช้งานสำหรับการติดตั้งในเครื่องบนฮาร์ดแวร์สำหรับผู้บริโภค

อ้างอิง: Qwen3-30B-A3B-Instruct-2507