Ollama เปิดตัวบริการ Turbo Cloud ก่อให้เกิดการถ่ายเทในชุมชนเรื่อง AI ในเครื่องเทียบกับ Cloud AI

ทีมชุมชน BigGo
Ollama เปิดตัวบริการ Turbo Cloud ก่อให้เกิดการถ่ายเทในชุมชนเรื่อง AI ในเครื่องเทียบกับ Cloud AI

Ollama เครื่องมือยอดนิยมสำหรับการรันโมเดล AI ในเครื่อง ได้เปิดตัว Turbo บริการบนคลาวด์ที่รันโมเดลโอเพ่นซอร์สบนฮาร์ดแวร์ของดาต้าเซ็นเตอร์ การเคลื่อนไหวครั้งนี้ถือเป็นการเปลี่ยนแปลงที่สำคัญสำหรับบริษัทที่สร้างชื่อเสียงจากการทำ AI inference ในเครื่อง และกระตุ้นให้เกิดการอภิปรายอย่างเข้มข้นในชุมชนนักพัฒนาเกี่ยวกับอนาคตของการคำนวณ AI แบบส่วนตัว

การประกาศครั้งนี้มาพร้อมกับความร่วมมือกับ OpenAI ในการเสนอโมเดล gpt-oss ใหม่ในเวอร์ชัน 20B และ 120B พารามิเตอร์ Turbo สัญญาว่าจะให้ความเร็วในการ inference ที่เร็วขึ้น รองรับโมเดลที่ใหญ่ขึ้น และลดการใช้แบตเตอรี่ในเครื่องท้องถิ่น ทั้งหมดนี้ในขณะที่ยังคงรักษา API และ CLI interfaces ที่คุ้นเคยของ Ollama ไว้

ประโยชน์หลักที่อ้างว่ามี

  • การประมวลผลที่เร็วขึ้นด้วยฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์
  • รองรับโมเดลขนาดใหญ่ที่ไม่สามารถใช้งานได้บน GPU สำหรับผู้บริโภค
  • ลดการใช้แบตเตอรี่บนอุปกรณ์ในเครื่อง
  • ปกป้องความเป็นส่วนตัวด้วยนโยบายไม่เก็บข้อมูล
  • การผสานรวมที่ราบรื่นกับเครื่องมือ Ollama ที่มีอยู่
เช่นเดียวกับที่การรักษาทางทันตกรรมต้องใช้เครื่องมือเฉพาะทางเพื่อการรักษาที่มีประสิทธิภาพ บริการ Turbo ของ Ollama ใช้ประโยชน์จากเทคโนโลยีขั้นสูงเพื่อเพิ่มประสิทธิภาพของโมเดล AI
เช่นเดียวกับที่การรักษาทางทันตกรรมต้องใช้เครื่องมือเฉพาะทางเพื่อการรักษาที่มีประสิทธิภาพ บริการ Turbo ของ Ollama ใช้ประโยชน์จากเทคโนโลยีขั้นสูงเพื่อเพิ่มประสิทธิภาพของโมเดล AI

ชุมชนตั้งคำถามเกี่ยวกับทิศทางเชิงกลยุทธ์ของ Ollama

การเปิดตัวครั้งนี้ทำให้ชุมชนแตกแยก โดยหลายคนตั้งคำถามว่า Ollama กำลังละทิ้งภารกิจหลักของตนหรือไม่ ผู้ใช้บางคนกังวลเกี่ยวกับการเปลี่ยนแปลงที่อาจเกิดขึ้นจากการคำนวณในเครื่อง โดยเฉพาะอย่างยิ่งเมื่อพิจารณาว่าผู้ก่อตั้ง Ollama เคยทำงานกับ Docker Desktop ซึ่งเคยผ่านการเปลี่ยนแปลงที่ก menimbulkan kontroversi ในโมเดลใบอนุญาต

อย่างไรก็ตาม ทีม Ollama ได้โต้แย้งความกังวลเหล่านี้ โดยเน้นย้ำว่าความสามารถในการ inference ในเครื่องยังคงฟรีและเป็นโอเพ่นซอร์ส พวกเขาโต้แย้งว่า Turbo เพียงแค่ให้ตัวเลือกสำหรับผู้ใช้ที่ไม่มีฮาร์ดแวร์ที่มีประสิทธิภาพเพียงพอในการรันโมเดลขนาดใหญ่ในเครื่อง

ราคาและข้อเสนอคุณค่าถูกตรวจสอบอย่างละเอียด

ที่ราคา 20 ดอลลาร์สหรัฐฯ ต่อเดือน Turbo เผชิญกับการแข่งขันที่รุนแรงจากผู้ให้บริการที่มีชื่อเสียง นักวิจารณ์ตั้งคำถามว่าทำไมผู้ใช้ถึงจะจ่ายเงินจำนวนเดียวกันสำหรับการเข้าถึงโมเดลโอเพ่นซอร์ส ในขณะที่พวกเขาสามารถได้รับโมเดลกรรมสิทธิ์ที่ล้ำสมัยจาก OpenAI หรือ Anthropic ในราคาที่ใกล้เคียงกัน

บริการนี้ปัจจุบันดำเนินการด้วยข้อจำกัดการใช้งานรายชั่วโมงและรายวัน แม้ว่ารายละเอียดเฉพาะจะยังไม่เปิดเผย Ollama วางแผนที่จะแนะนำการกำหนดราคาตามการใช้งานเร็วๆ นี้ ซึ่งสมาชิกชุมชนหลายคนเชื่อว่าจะมีความสามารถในการแข่งขันมากกว่าโมเดลสมาชิกปัจจุบัน

ราคาและฟีเจอร์ของ Ollama Turbo

  • การสมัครสมาชิกรายเดือน: $20 USD
  • โมเดลที่มีให้บริการ: gpt-oss-20b และ gpt-oss-120b (เวอร์ชันพรีวิว)
  • ข้อจำกัดการใช้งาน: มีข้อจำกัดรายชั่วโมงและรายวัน (ไม่เปิดเผยตัวเลขที่แน่นอน)
  • ที่ตั้งฮาร์ดแวร์: ศูนย์ข้อมูลในสหรัฐอมেริกา
  • ความเข้ากันได้ของ API: ใช้งานร่วมกับ Ollama CLI , API และไลบรารี JavaScript/Python ที่มีอยู่
  • ราคาในอนาคต: วางแผนใช้ระบบราคาตามการใช้งาน

การอ้างสิทธิ์ด้านความเป็นส่วนตัวเจอกับความสงสัย

Ollama โปรโมต Turbo ว่าเป็นความเป็นส่วนตัวเป็นอันดับแรก โดยอ้างว่าพวกเขาไม่เก็บข้อมูลผู้ใช้ไว้ และฮาร์ดแวร์ทั้งหมดตั้งอยู่ในสหรัฐอเมริกา อย่างไรก็ตาม สมาชิกชุมชนยังคงสงสัยเกี่ยวกับข้อได้เปรียบด้านความเป็นส่วนตัวเหล่านี้ โดยสังเกตว่าผู้ให้บริการคลาวด์ใดๆ ก็ยังคงสามารถถูกขอข้อมูลทางกฎหมายหรือเกิดการรั่วไหลของข้อมูลได้

ผู้ใช้ต่างประเทศบางคนแสดงความผิดหวังที่บริการนี้ตั้งฐานในสหรัฐฯ โดยต้องการการประมวลผลในเครื่องเพื่อหลีกเลี่ยงเขตอำนาจศาลที่มีกฎหมายคุ้มครองข้อมูลที่อ่อนแอกว่า สิ่งนี้เน้นย้ำถึงความตึงเครียดที่ต่อเนื่องระหว่างประสิทธิภาพและความเป็นส่วนตัวในบริการ AI

การถกเถียงระหว่างนวัตกรรมทางเทคนิคกับ Wrapper

การเปิดตัวครั้งนี้ได้จุดประกายการอภิปรายใหม่เกี่ยวกับการมีส่วนร่วมทางเทคนิคของ Ollama ในขณะที่บางคนดูหมิ่นว่าเป็นเพียง wrapper รอบๆ llama.cpp คนอื่นๆ ปกป้องคุณค่าของมันในการทำให้โมเดล AI เข้าถึงได้ผ่านประสบการณ์ผู้ใช้ที่เหนือกว่าและการปรับใช้ที่ง่ายขึ้น

ทีม Ollama ได้ชี้แจงว่าพวกเขาได้ก้าวข้ามการเป็นเพียง wrapper แล้ว โดยพัฒนาเอ็นจิ้น inference ของตนเองสำหรับโมเดล multimodal ในขณะที่ยังคงใช้ llama.cpp สำหรับการรองรับแบบเก่า พวกเขาเน้นย้ำถึงความพยายามทางวิศวกรรมที่สำคัญที่จำเป็นในการรักษาความเรียบง่ายของแพลตฟอร์ม

ความเรียบง่ายมักถูกมองข้าม แต่เราต้องการสร้างโลกที่เราต้องการเห็น

บทสรุป

การเปิดตัว Turbo ของ Ollama แสดงถึงช่วงเวลาสำคัญสำหรับบริษัทและการเคลื่อนไหว AI ในเครื่องในวงกว้าง ในขณะที่บริการนี้ตอบสนองความต้องการที่แท้จริงสำหรับผู้ใช้ที่มีฮาร์ดแวร์จำกัด มันยังทำให้เกิดคำถามเกี่ยวกับความมุ่งมั่นระยะยาวต่อการคำนวณ AI แบบ local-first

ความสำเร็จของ Turbo น่าจะขึ้นอยู่กับการหาสมดุลที่เหมาะสมระหว่างราคา ประสิทธิภาพ และคุณสมบัติด้านความเป็นส่วนตัวที่แตกต่างจากทั้งผู้ให้บริการคลาวด์รายใหญ่และโซลูชันในเครื่องอย่างแท้จริง ขณะที่ภูมิทัศน์ AI ยังคงพัฒนาต่อไป ความสามารถของ Ollama ในการให้บริการทั้งผู้ใช้ในเครื่องและคลาวด์อาจเป็นตัวกำหนดความเกี่ยวข้องในอนาคตในตลาดที่มีการแข่งขันเพิ่มขึ้น

อ้างอิง: Turbo