แอป Gemini ของ Google ได้รับการอัปเดตครั้งใหญ่ในเดือนพฤศจิกายน พร้อมโมเดล AI ใหม่และระบบตรวจจับเนื้อหา

ทีมบรรณาธิการ BigGo
แอป Gemini ของ Google ได้รับการอัปเดตครั้งใหญ่ในเดือนพฤศจิกายน พร้อมโมเดล AI ใหม่และระบบตรวจจับเนื้อหา

Google ได้สรุปวงจรการอัปเดตครั้งสำคัญในเดือนพฤศจิกายนสำหรับแพลตฟอร์ม AI Gemini โดยได้แนะนำการอัปเกรดที่สำคัญทั่วทั้งแอปพลิเคชันมือถือ บริษัทเทคโนโลยีได้เปิดตัวโมเดล AI ใหม่สามรุ่น พร้อมทั้งเพิ่มเครื่องมือตรวจสอบความถูกต้องของเนื้อหาที่สำคัญ นับเป็นการอัปเดตรายเดือนที่ครอบคลุมที่สุดครั้งหนึ่งนับตั้งแต่เปิดตัว Gemini การเปลี่ยนแปลงเหล่านี้สะท้อนถึงความพยายามเร่งด่วนของ Google ในการแข่งขันภายในพื้นที่ผู้ช่วย AI ที่คับคั่งมากขึ้นเรื่อยๆ ในขณะเดียวกันก็จัดการกับความกังวลที่เพิ่มขึ้นเกี่ยวกับความน่าเชื่อถือของเนื้อหาที่สร้างโดย AI

Gemini 3 Pro มาถึงในฐานะ "โมเดลที่ฉลาดที่สุด" ของ Google

จุดเด่นของการอัปเดตเดือนพฤศจิกายนคือ Gemini 3 Pro ซึ่ง Google อธิบายว่าเป็นโมเดลภาษาขนาดใหญ่ที่ซับซ้อนที่สุดที่พวกเขาเคยสร้างมา โมเดลใหม่นี้มีความสามารถในการทำความเข้าใจที่เพิ่มขึ้น และสิ่งที่ Google เรียกว่า "ความสามารถในการเขียนโค้ดที่เข้าใจบริบทได้ดีเยี่ยม" ซึ่งบ่งบอกถึงความตระหนักรู้ในบริบทและการสนับสนุนการเขียนโปรแกรมที่ดียิ่งขึ้น ผู้ใช้สามารถเข้าถึง Gemini 3 Pro ผ่านทางตัวเลือกเลือกโมเดลที่ด้านล่างของหน้าจอหลักแอป Gemini ซึ่งจะปรากฏเป็นตัวเลือกแสดงตัวอย่างที่มีป้ายกำกับว่า "กำลังคิด" กลยุทธ์การเปิดตัวนี้บ่งชี้ว่า Google กำลังใช้แนวทางที่ระมัดระวังในการเปิดตัว AI ที่ทันสมัยที่สุดของพวกเขา ซึ่งน่าจะเพื่อรวบรวมความคิดเห็นจากผู้ใช้และรับประกันความเสถียรก่อนการเผยแพร่ในวงกว้าง โมเดลนี้เป็นรุ่นแรกในซีรีส์ Gemini 3 โดยคาดว่าจะมีรุ่นอื่นๆ ตามมาในอีกไม่กี่เดือนข้างหน้า

โมเดล AI ใหม่ในอัปเดต Gemini เดือนพฤศจิกายน:

  • Gemini 3 Pro: โมเดลภาษาขนาดใหญ่รุ่นต่อไป พร้อมให้ใช้งานในรูปแบบพรีวิวในฐานะโมเดล "Thinking"
  • Nano Banana Pro: โมเดลสร้างภาพเริ่มต้น (Gemini 3 Pro Image) พร้อมการเข้าถึงแบบแบ่งระดับ
  • Veo 3.1: โมเดลสร้างวิดีโอ พร้อมฟีเจอร์ส่วนผสมสู่วิดีโอโดยใช้ภาพอ้างอิง 3 ภาพ

โมเดลสร้างเนื้อหาใหม่เปลี่ยนขั้นตอนการทำงานเชิงสร้างสรรค์

Google ได้อัปเกรดความสามารถในการสร้างเนื้อหาภาพภายใน Gemini อย่างมากผ่านโมเดลเฉพาะทางใหม่สองรุ่น Nano Banana Pro ซึ่งมีชื่ออย่างเป็นทางการว่า Gemini 3 Pro Image ตอนนี้ทำหน้าที่เป็นเครื่องมือสร้างภาพค่าเริ่มต้น แทนที่โมเดล Nano Banana รุ่นก่อน บริษัทได้ใช้ระบบการเข้าถึงแบบแบ่งระดับ โดยผู้ใช้ฟรีจะได้รับจำนวนการสร้างที่จำกัดก่อนที่จะกลับไปใช้โมเดลรุ่นเก่า ในขณะที่ผู้สมัครสมาชิก Google AI Plus, Pro และ Ultra จะได้รับขีดจำกัดการสร้างที่สูงกว่า สำหรับการสร้างวิดีโอ Veo 3.1 ได้แนะนำคุณสมบัตินวัตกรรมใหม่ "Ingredients to Video" ซึ่งอนุญาตให้ผู้ใช้อัปโหลดภาพอ้างอิงสามภาพเพื่อนำทางการสร้างวิดีโอ แนวทางนี้ลดความจำเป็นในการเขียนข้อความคำสั่งยาวๆ ลงอย่างมาก ทำให้การสร้างวิดีโอเข้าถึงได้ง่ายขึ้นสำหรับผู้ใช้ทั่วไป

อินเทอร์เฟซแอป Gemini ได้รับการออกแบบใหม่ครั้งใหญ่ด้วยส่วน "ของของฉัน"

การอัปเดตเดือนพฤศจิกายนนำเสนออินเทอร์เฟซผู้ใช้ที่จัดระเบียบใหม่ทั้งหมด โดยมีศูนย์กลางอยู่ที่แท็บใหม่ "ของของฉัน" ซึ่งอุทิศให้กับการเก็บเนื้อหาที่สร้างโดย AI ที่เก็บส่วนกลางสำหรับภาพ วิดีโอ และผลงาน Canvas นี้ บ่งชี้ถึงจุดสนใจของ Google ในการสร้างให้ Gemini เป็นแพลตฟอร์มการสร้างเนื้อหาที่ครอบคลุม แทนที่จะเป็นเพียงแค่ AI สำหรับสนทนา การออกแบบใหม่นี้ทำให้ผู้ใช้จัดการ จัดระเบียบ และกลับไปดูผลลัพธ์ AI สร้างสรรค์ของพวกเขาได้ง่ายขึ้น ซึ่งเป็นการแก้ไขจุดปัญหาทั่วไปในแอปพลิเคชัน AI ที่เนื้อหาที่สร้างขึ้นมักจะดึงกลับมาดูได้ยาก การปรับปรุงด้านการจัดระเบียบนี้สอดคล้องกับความสามารถในการสร้างสรรค์ที่ได้รับการปรับปรุงซึ่งมาจากโมเดลภาพและวิดีโอใหม่

การตรวจจับเนื้อหา AI มาแล้ว พร้อมการผสานรวม SynthID

ในการตอบสนองต่อความกังวลที่เพิ่มขึ้นเกี่ยวกับเนื้อหาที่สร้างโดย AI ในเวลาที่เหมาะสม Google ได้ผสานรวมการตรวจจับลายน้ำ SynthID โดยตรงลงในแอป Gemini คุณสมบัตินี้ช่วยให้ผู้ใช้อัปโหลดภาพใดๆ ก็ได้และถามว่า "ภาพนี้สร้างด้วย AI หรือไม่" เพื่อรับการวิเคราะห์ว่าภาพนั้นมีลายน้ำ SynthID ที่มองไม่เห็นของ Google อยู่หรือไม่ เมื่อตรวจพบลายน้ำเหล่านี้ Gemini สามารถยืนยันด้วยความมั่นใจสูงว่าภาดังกล่าวมีต้นกำเนิดมาจากโมเดล AI ของ Google แม้จะไม่พบลายน้ำที่ตรวจพบได้ Gemini 3 Pro ก็ใช้การวิเคราะห์ที่ซับซ้อนเพื่อระบุลักษณะเฉพาะของ AI ทั่วไป เช่น พื้นผิวที่เรียบเกินธรรมชาติ กฎฟิสิกส์ที่ไม่สอดคล้องกัน หรือร่องรอยของคำศัพท์ที่ใช้ในการเขียนคำสั่งในข้อความที่สร้างขึ้น

ความสามารถในการตรวจจับเนื้อหาจาก AI:

  • การตรวจจับลายน้ำ SynthID: ยืนยันภาพที่สร้างโดย Google AI ด้วยความมั่นใจสูง
  • การวิเคราะห์สิ่งผิดปกติทางภาพ: ระบุการสร้างโดย AI ผ่านความไม่สม่ำเสมอของพื้นผิว, ความไม่สมจริงทางฟิสิกส์ และร่องรอยของคำสั่งที่หลงเหลืออยู่
  • การวิเคราะห์ชื่อไฟล์: ตรวจจับรูปแบบการตั้งชื่อที่พบบ่อยในเนื้อหาที่สร้างโดย AI
  • ข้อจำกัดของแพลตฟอร์ม: ปัจจุบันตรวจจับได้เฉพาะโมเดล AI ของ Google เท่านั้น แพลตฟอร์มอื่นๆ ต้องใช้วิธีการตรวจจับแบบอื่น

คุณสมบัติขั้นสูงกำหนดเป้าหมายผู้ใช้ระดับสูงและผู้สมัครสมาชิก

ผู้สมัครสมาชิก Google AI Ultra ได้รับการเข้าถึงคุณสมบัติ Gemini Agent โดยเฉพาะ ซึ่งแสดงถึงขั้นตอนสำคัญสู่ผู้ช่วย AI อัตโนมัติ โดยอ้างอิงจาก Project Mariner ที่เริ่มการทดสอบก่อนหน้านี้ในปี 2024 Gemini Agent สามารถดำเนินการ across the Google ecosystem และอื่นๆ ได้ ในขณะที่ยังคงมีมาตรการป้องกันการควบคุมโดยผู้ใช้ ในขณะเดียวกัน การสนทนาแบบ Gemini Live ก็ปรับตัวและแสดงออกได้มากขึ้น โดยผู้ใช้ตอนนี้สามารถปรับแต่งความเร็วและโทนเสียงของการตอบกลับด้วยวาจาของผู้ช่วย AI ได้ คุณสมบัติระดับพรีเมียมเหล่านี้แสดงให้เห็นถึงกลยุทธ์ของ Google ในการสงวนความสามารถขั้นสูงที่สุดไว้สำหรับระดับการสมัครสมาชิกที่จ่ายเงินสูงที่สุด

สิทธิประโยชน์ระดับการสมัครสมาชิก:

  • ผู้ใช้ฟรี: เข้าถึง Nano Banana Pro ได้อย่างจำกัด ก่อนจะกลับไปใช้โมเดลเดิม
  • Google AI Plus/Pro/Ultra: อัตราการสร้างข้อความที่สูงขึ้นสำหรับโมเดลใหม่
  • Ultra Exclusive: ความสามารถในการดำเนินการอัตโนมัติของ Gemini Agent และ Gemini 3 Deep Think ที่จะมาถึงในอนาคต

มองไปข้างหน้า: อะไรต่อไปสำหรับ Gemini

Google ได้ส่งสัญญาณแล้วว่าการอัปเดตในเดือนพฤศจิกายนเป็นเพียงจุดเริ่มต้นของวิวัฒนาการของ Gemini เท่านั้น บริษัทกำลังทดสอบความปลอดภัยของ Gemini 3 Deep Think ซึ่งเป็นโมเดลที่มีประสิทธิภาพยิ่งขึ้นอีก ซึ่งกำหนดไว้สำหรับผู้สมัครสมาชิก Google AI Ultra ในอีกไม่กี่สัปดาห์ข้างหน้า โมเดลเพิ่มเติมในซีรีส์ Gemini 3 ได้รับการยืนยันว่าจะเปิดตัว "เร็วๆ นี้" ซึ่งน่าจะรวมถึงทางเลือกแบบเบาที่จะมาแทนที่หรือเสริม Gemini 2.5 Flash รุ่นปัจจุบันสำหรับคำถามพื้นฐาน การขยายคุณสมบัติที่มีขีดจำกัด เช่น Gemini Agent ไปยังฐานผู้ใช้ที่กว้างขึ้นยังคงเป็นความเป็นไปได้สำหรับการอัปเดตในอนาคต ซึ่งบ่งชี้ว่า Google กำลังใช้แนวทางการเปิดตัวแบบค่อยเป็นค่อยไปเพื่อจัดการกับความซับซ้อนของความสามารถ AI ขั้นสูงเหล่านี้