Apple อธิบายเหตุผลที่การอัปเกรด AI ครั้งใหญ่ของ Siri ถูกเลื่อนออกไปเป็นเวลาเต็มปี

BigGo Editorial Team
Apple อธิบายเหตุผลที่การอัปเกรด AI ครั้งใหญ่ของ Siri ถูกเลื่อนออกไปเป็นเวลาเต็มปี

ฟีเจอร์ปัญญาประดิษฐ์ที่ได้รับความคาดหวังมากที่สุดของ Apple ได้หายไปอย่างเห็นได้ชัดจากการอัปเดตล่าสุด ทำให้ผู้ใช้สงสัยว่าทำไมการอัปเกรด Siri แบบส่วนบุคคลที่สัญญาไว้จึงยังคงเข้าไม่ถึง หลังจาก Worldwide Developers Conference ในปีนี้ ผู้บริหารของ Apple ได้เปิดเผยถึงความท้าทายทางเทคนิคที่บังคับให้ต้องปรับปรุงสถาปัตยกรรมใหม่ทั้งหมดและผลักดันกำหนดการเปิดตัวออกไปทั้งปี

ความจริงทางเทคนิคเบื้องหลังการเลื่อน

หัวหน้าวิศวกรรมซอฟต์แวร์ของ Apple คือ Craig Federighi เปิดเผยในการสัมภาษณ์หลัง WWDC กับ Tom's Guide ว่าแนวทางเริ่มแรกของบริษัทในการสร้าง Siri ที่เป็นส่วนบุคคลมากขึ้นนั้นไม่ดีพอ สถาปัตยกรรมรุ่นแรกที่ Apple พัฒนาขึ้นมีข้อจำกัดมากเกินไปที่จะตอบสนองมาตรฐานคุณภาพของบริษัท ทำให้วิศวกรต้องกลับไปเริ่มต้นใหม่ แทนที่จะปล่อยผลิตภัณฑ์ที่ไม่ได้มาตรฐาน Apple ตัดสินใจอย่างยากลำบากในฤดูใบไม้ผลิปี 2025 ที่จะเปลี่ยนไปใช้สถาปัตยกรรมรุ่นที่สองทั้งหมดที่อยู่ในขั้นตอนการวางแผน

การเปลี่ยนแปลงสถาปัตยกรรมนี้มีความหมายมากกว่าการปรับเปลี่ยนเล็กน้อย Federighi ยอมรับว่าแม้จะมีพื้นฐานใหม่แล้ว Apple ยังคงปรับปรุงความสามารถของ Siri เหล่านี้เพื่อให้แน่ใจว่าจะตอบสนองความคาดหวังของผู้ใช้ การตัดสินใจเริ่มต้นใหม่นั้นเป็นการรีเซ็ตไทม์ไลน์การพัฒนาโดยสิ้นเชิง ซึ่งอธิบายว่าทำไมฟีเจอร์ที่ดูเหมือนจะมาถึงแล้วจึงหายไปจากแผนงานในอนาคตอันใกล้ของ Apple

ข้อมูลไทม์ไลน์สำคัญ

เหตุการณ์ วันที่ รายละเอียด
การพัฒนาสถาปัตยกรรมเดิม ก่อนฤดูใบไม้ผลิ 2025 สถาปัตยกรรมรุ่นแรกถือว่าไม่เพียงพอ
การตัดสินใจเปลี่ยนแปลงสถาปัตยกรรม ฤดูใบไม้ผลิ 2025 เปลี่ยนแปลงไปสู่สถาปัตยกรรมรุ่นที่สองอย่างสมบูรณ์
การเปิดตัวฟีเจอร์ที่คาดหวัง ฤดูใบไม้ผลิ 2026 น่าจะเป็นส่วนหนึ่งของการอัปเดต iOS 26.4
ระยะเวลาความล่าช้าทั้งหมด ~1 ปี จากไทม์ไลน์ที่คาดการณ์ไว้เดิม

การเปลี่ยนแปลงเชิงกลยุทธ์สู่ AI ที่ใช้งานได้จริง

ในขณะที่รอการเปลี่ยนแปลงของ Siri, Apple ได้นำแนวทางที่นักสังเกตการณ์ในอุตสาหกรรมเรียกว่า Goldilocks approach มาใช้กับปัญญาประดิษฐ์ แทนที่จะไล่ตามฟีเจอร์ที่ทะเยอทะยานเกินไปซึ่งอาจทำให้ผิดหวัง หรือเครื่องมือพื้นฐานเกินไปที่เพิ่มคุณค่าได้น้อย บริษัทกำลังมุ่งเน้นไปที่การปรับปรุง AI เชิงปฏิบัติในชีวิตประจำวันที่ผู้ใช้สามารถชื่นชมได้ทันที

การอัปเดตล่าสุดของ Visual Intelligence เป็นตัวอย่างของกลยุทธ์นี้ ฟีเจอร์นี้ตอนนี้ช่วยให้ Apple Intelligence สามารถช่วยเหลือในการจับภาพหน้าจอ การค้นหาเว็บ และการรวม ChatGPT ซึ่งตอบสนองคำขอของผู้ใช้โดยตรงสำหรับฟังก์ชันที่คล้ายกับ Circle to Search ของ Android ในทำนองเดียวกัน ฟีเจอร์ Hold Assist ใหม่ใช้ AI ในการตรวจจับเมื่อผู้ใช้ถูกใส่สายรอระหว่างการโทร โดยรักษาตำแหน่งของพวกเขาในคิวและแจ้งเตือนทั้งสองฝ่ายเมื่อการโทรกลับมา

คุณสมบัติกลยุทธ์ AI ปัจจุบันของ Apple

การนำ AI ไปใช้งานจริง:

  • Visual Intelligence พร้อมการผสานรวม ChatGPT
  • Hold Assist สำหรับการจัดการสายโทรศัพท์
  • การแปลภาษาแบบเรียลไทม์ใน Messages และ FaceTime
  • การเข้าถึงโมเดล AI บนอุปกรณ์สำหรับนักพัฒนา
  • ความช่วยเหลือ AI ในการเขียนโค้ดใน Xcode

แนวทางการเป็นพันธมิตร:

  • การผสานรวม ChatGPT เพื่อเพิ่มความสามารถ
  • การเชื่อมต่อโมเดล AI ภายนอกสำหรับนักพัฒนา
  • มุ่งเน้นการผสานรวมฮาร์ดแวร์-ซอฟต์แวร์มากกว่าการวิจัย AI

การเรียนรู้จากความร่วมมือและการมีส่วนร่วมของนักพัฒนา

แนวทางของ Apple ได้พัฒนาไปสู่การยอมรับความร่วมมือแทนที่จะพยายามสร้างความสามารถ AI ทุกอย่างภายในบริษัท บริษัทตอนนี้รวมเครื่องมือภายนอกที่ทรงพลังอย่าง ChatGPT เข้าไว้ในระบบนิเวศของตน โดยเฉพาะสำหรับการอัปเดต Visual Intelligence และฟีเจอร์ Image Playground ที่ปรับปรุงแล้ว แนวทางความร่วมมือนี้ช่วยให้ Apple สามารถใช้ประโยชน์จากความสามารถ AI ระดับแนวหน้าในขณะที่มุ่งเน้นไปที่สิ่งที่ทำได้ดีที่สุด: การรวมฮาร์ดแวร์และซอฟต์แวร์อย่างไร้รอยต่อ

บริษัทยังได้เปิดโมเดล AI บนอุปกรณ์ให้กับนักพัฒนาเป็นครั้งแรก โดยตระหนักว่าชุมชนนักพัฒนาที่มีความสามารถสามารถเร่งนวัตกรรมทั่วทั้งแพลตฟอร์ม Apple Intelligence นอกจากนี้ นักพัฒนาตอนนี้สามารถเชื่อมต่อโมเดล AI ภายใน Xcode เพื่อรับความช่วยเหลือในการเขียนโค้ด แม้ว่าการใช้งานของ Apple จะแตกต่างจากผู้ช่วยเขียนโค้ด AI แบบดั้งเดิมที่เสนอโดยคู่แข่ง

ภาพนี้จับภาพบรรยากาศการอภิปรายที่น่าจะมุ่งเน้นไปที่นวัตกรรมทางเทคโนโลยี ซึ่งเกี่ยวข้องกับกลยุทธ์การพัฒนา AI ของ Apple
ภาพนี้จับภาพบรรยากาศการอภิปรายที่น่าจะมุ่งเน้นไปที่นวัตกรรมทางเทคโนโลยี ซึ่งเกี่ยวข้องกับกลยุทธ์การพัฒนา AI ของ Apple

ไทม์ไลน์และผลกระทบทางกฎหมาย

หัวหน้าฝ่ายการตลาด Greg Joswiak ยืนยันว่าการอ้างอิงของ Apple ถึงการเปิดตัวฟีเจอร์เหล่านี้ในปีหน้าหมายถึงปี 2026 โดยเฉพาะ โดยความสามารถ Siri ที่ปรับปรุงแล้วน่าจะมาถึงเป็นส่วนหนึ่งของ iOS 26.4 ในฤดูใบไม้ผลิปี 2026 การเลื่อนที่ยาวนานนี้ได้จุดชนวนให้เกิดคดีฟ้องร้องหมู่หลายคดีในสหรัฐอเมริกาและแคนาดาแล้ว เนื่องจากผู้บริโภคที่อัปเกรดเป็นอุปกรณ์ที่ติดตั้งชิป A18 โดยเฉพาะเพื่อฟีเจอร์ AI พบว่าตัวเองต้องรอนานกว่าที่คาดไว้

การเลื่อนนี้เน้นย้ำถึงความมุ่งมั่นของ Apple ต่อคุณภาพมากกว่าความเร็ว แม้จะเผชิญกับแรงกดดันจากการแข่งขันและความท้าทายทางกฎหมาย ด้วยการให้ความสำคัญกับพื้นฐานสถาปัตยกรรมที่แข็งแกร่งมากกว่าการปล่อยอย่างรวดเร็ว Apple ดูเหมือนจะเดิมพันว่าผลิตภัณฑ์ที่เลื่อนออกไปแต่เหนือกว่าจะให้บริการผู้ใช้ได้ดีกว่าการเร่งฟีเจอร์ที่ไม่สมบูรณ์สู่ตลาดในท้ายที่สุด