หลังจากเผชิญกับการวิจารณ์ที่เพิ่มขึ้นเรื่องการไม่มีผลิตภัณฑ์สาธารณะแม้จะมีมูลค่าบริษัท 12 พันล้านดอลลาร์สหรัฐ บริษัท Thinking Machines ได้ประกาศเปิดตัว Tinker ซึ่งเป็นบริการ API แบบจัดการสำหรับการปรับแต่งโมเดลภาษาขนาดใหญ่ จังหวะเวลาดังกล่าวทำให้ชุมชนเทคโนโลยีตั้งคำถาม เนื่องจากมาเพียงไม่กี่วันหลังจากนักเขียนคอลัมน์การเงิน Matt Levine เน้นย้ำถึงการขาดทิศทางของบริษัทในจดหมายข่าวที่ได้รับความนิยมอย่างกว้างขวาง
ราคาและความพร้อมใช้งาน
- ขณะนี้อยู่ในช่วง private beta โดยต้องลงทะเบียนรอคิวเพื่อเข้าใช้งาน
- เริ่มต้นฟรี มีแผนการเก็บค่าใช้จ่ายตามการใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า
- เริ่มให้บริการ onboarding ตั้งแต่เดือนตุลาคม 2025
- มีกระบวนการติดต่อแยกต่างหากสำหรับองค์กร
การมุ่งเน้นโครงสร้างพื้นฐานทำให้ผู้สังเกตการณ์ในอุตสาหกรรมประหลาดใจ
การเลือกเปิดตัวผลิตภัณฑ์โครงสร้างพื้นฐานแทนที่จะเป็นโมเดล AI ที่ก้าวล้ำได้จุดประกายการถกเถียงในหมู่นักพัฒนาและนักวิจัย หลายคนคาดหวังว่าสตาร์ทอัพชื่อดังที่จ้างนักวิทยาศาสตร์ AI ที่มีชื่อเสียงจำนวนมากจะเปิดตัวด้วยความสามารถ AI ที่ล้ำสมัยแทนที่จะเป็นบริการเครื่องมือ ปฏิกิริยาของชุมชนแสดงให้เห็นความรู้สึกผสมผสานเกี่ยวกับทิศทางเชิงกลยุทธ์นี้
เมื่อพิจารณาว่า Thinking Machines ได้จ้างนักวิทยาศาสตร์ที่ฉลาดมากมาย การมุ่งเน้นเฉพาะโครงสร้างพื้นฐานและการปรับแต่งจึงเป็นเรื่องที่น่าผิดหวังพอสมควร
Tinker วางตำแหน่งตัวเองเป็นโซลูชันสำหรับความซับซ้อนของการฝึกแบบกระจาย โดยจัดการทรัพยากรในขณะที่ให้นักวิจัยควบคุมอัลกอริทึมและข้อมูล บริการนี้รองรับโมเดลหลากหลายขนาด ตั้งแต่โมเดลทดลองขนาดเล็กไปจนถึงโมเดลผสมผู้เชี่ยวชาญขนาดใหญ่อย่าง Qwen-235B-A22B โดยผู้ใช้สามารถสลับระหว่างโมเดลต่างๆ ได้โดยการเปลี่ยนโค้ด Python เพียงบรรทัดเดียว
คุณสมบัติของบริการ Tinker
- รองรับการปรับแต่งโมเดลแบบ open-weight ทั้งขนาดใหญ่และขนาดเล็ก
- จัดการโมเดลแบบ mixture-of-experts เช่น Qwen-235B-A22B
- ใช้เทคโนโลยี LoRA เพื่อการแบ่งปันทรัพยากรที่คุ้มค่า
- ให้บริการ low-level primitives: forward_backward และ sample APIs
- บริการแบบจัดการที่มีการจัดตารางเวลาอัตโนมัติและการกู้คืนจากความล้มเหลว
การนำไปใช้ในช่วงแรกแสดงให้เห็นความหวังแม้จะมีความสงสัย
สถาบันวิจัยที่มีชื่อเสียงหลายแห่งได้ทดสอบ Tinker ในช่วงอัลฟาแล้ว ทีม Goedel ของ Princeton ใช้สำหรับฝึกตัวพิสูจน์ทฤษฎีบททางคณิตศาสตร์ ขณะที่กลุม Rotskoff Chemistry ของ Stanford ปรับแต่งโมเดลสำหรับงานการใช้เหตุผลทางเคมี กลุม SkyRL ของ Berkeley ทดลองกับลูปการฝึกการเรียนรู้เสริมแรงแบบกำหนดเอง และ Redwood Research นำไปใช้กับงานควบคุม AI
บริการนี้ใช้เทคโนโลยี LoRA (Low-Rank Adaptation) เพื่อแบ่งปันทรัพยากรการคำนวณระหว่างการฝึกหลายรอบ ซึ่งช่วยลดต้นทุน Thinking Machines ยังวางแผนที่จะเปิดตัวไลบรารีโอเพนซอร์สที่เรียกว่า Tinker Cookbook ซึ่งประกอบด้วยการใช้งานวิธีการหลังการฝึกที่พบบ่อย
พันธมิตรการวิจัยในช่วงแรก
- Princeton Goedel Team: ผู้พิสูจน์ทฤษฎีบททางคณิตศาสตร์
- Stanford Rotskoff Chemistry Group: งานการใช้เหตุผลทางเคมี
- Berkeley SkyRL Group: การฝึกอบรม Multi-agent RL พร้อมการใช้เครื่องมือ
- Redwood Research: งานควบคุม AI โดยใช้ Qwen3-32B
กลยุทธ์รายชื่อรอได้รับการเปรียบเทียบกับความผิดพลาดของ Google
การตัดสินใจของบริษัทที่จะเปิดตัวด้วยระบบเบต้าส่วนตัวและรายชื่อรอได้รับการวิจารณ์จากผู้เฝ้าดูอุตสาหกรรม บางคนชี้ไปที่แนวทาง Google ที่คล้ายกันกับการเปิดตัว LLM ในช่วงแรกเป็นเรื่องเตือนใจ โดยแนะนำว่าโมเดลการเข้าถึงที่เข้มงวดเกินไปอาจทำให้คู่แข่งได้เปรียบในตลาด
Tinker จะให้ใช้ฟรีในตอนแรก โดยมีแผนการกำหนดราคาตามการใช้งานในอีกไม่กี่สัปดาห์ข้างหน้า บริการนี้มุ่งหวังที่จะสร้างความแตกต่างจากโซลูชันการปรับแต่งที่มีอยู่โดยเสนอความสามารถการฝึกแบบกระจายสำหรับโมเดลขนาดใหญ่ แม้ว่าสมาชิกชุมชนบางคนจะตั้งคำถามว่าความซับซ้อนของโครงสร้างพื้นฐานต้องการสตาร์ทอัพที่มีมูลค่า 12 พันล้านดอลลาร์สหรัฐโดยเฉพาะเพื่อแก้ปัญหาจริงหรือไม่
การเปิดตัวนี้เป็นก้าวแรกของ Thinking Machines สู่การพิสูจน์มูลค่าบริษัทที่มหาศาล แม้ว่าบริการโครงสร้างพื้นฐานจะพิสูจน์ว่าทำกำไรได้เท่ากับโมเดล AI เองหรือไม่ยังคงต้องติดตามดู
อ้างอิง: Announcing Tinker
