ตั้งแต่กล้องถ่ายรูปถือกำเนิดมา ช่างภาพก็ถูกผูกมัดด้วยข้อจำกัดพื้นฐานทางแสงมาโดยตลอด นั่นคือเลนส์สามารถโฟกัสให้ระยะห่างเพียงระนาบเดียวคมชัดได้ในแต่ละครั้ง หลักการนี้ซึ่งทำงานคล้ายกับดวงตาของมนุษย์ บังคับให้ต้องเลือกระหว่างวัตถุระยะใกล้และระยะไกล มักต้องแลกกับการสูญเสียรายละเอียดเพื่อให้ได้มิติลึกทางศิลปะ ตอนนี้นักวิจัยจาก Carnegie Mellon University ได้เปิดเผยระบบกล้องทดลองที่สัญญาว่าจะเขียนกฎเกณฑ์นี้ใหม่ โดยการผสานเลนส์ขั้นสูงเข้ากับพลังการประมวลผล เทคโนโลยี "การโฟกัสอัตโนมัติแบบแปรผันตามพื้นที่" ของพวกเขาสามารถโฟกัสไปที่วัตถุหลายชิ้นในระยะห่างต่างกันได้พร้อมกัน จับภาพทั้งฉากด้วยความคมชัดที่ไม่เคยมีมาก่อน ความก้าวหน้าครั้งนี้ แม้จะยังไม่พร้อมสำหรับผู้บริโภคทั่วไป แต่ก็เป็นเบาะแสถึงอนาคตที่กล้อง ตั้งแต่สมาร์ทโฟนไปจนถึงเครื่องมือทางวิทยาศาสตร์ จะมองเห็นโลกในรูปแบบใหม่โดยสิ้นเชิง
นวัตกรรมหลัก: เลนส์เชิงคำนวณ
หัวใจของความก้าวหน้านี้คือสิ่งที่ทีม CMU เรียกว่า "เลนส์เชิงคำนวณ" นี่ไม่ใช่แค่ชิ้นส่วนแก้วชิ้นเดียว แต่เป็นระบบไฮบริดที่ซับซ้อน มันพัฒนาต่อยอดจากเลนส์ Lohmann ซึ่งเป็นการจัดวางที่เกี่ยวข้องกับเลนส์ทรงลูกบาศก์โค้งพิเศษสองชิ้นที่เลื่อนเข้าหากันเพื่อปรับโฟกัส สิ่งนี้ถูกผสมผสานกับอุปกรณ์ปรับเปลี่ยนแสงเชิงพื้นที่แบบเฟสเท่านั้น ซึ่งเป็นอุปกรณ์ที่สามารถควบคุมการหักเหของแสงได้อย่างแม่นยำในระดับพิกเซลแต่ละตัว เมื่อรวมกันแล้ว องค์ประกอบเหล่านี้ทำให้ระบบสามารถจัดการกับแสงในลักษณะที่แปรผันตามพื้นที่ได้ หมายความว่าส่วนต่างๆ ของเซ็นเซอร์ภาพสามารถโฟกัสที่ความลึกต่างกันโดยสิ้นเชิงได้ในเวลาเดียวกัน รองศาสตราจารย์ Matthew O'Toole เปรียบเทียบเอฟเฟกต์นี้ว่าเหมือนกับการให้ "พิกเซลแต่ละตัวมีเลนส์เล็กๆ ที่ปรับได้เป็นของตัวเอง" ซึ่งเป็นคำอธิบายที่สะท้อนถึงการเปลี่ยนกระบวนทัศน์จากการโฟกัสแบบสม่ำเสมอไปสู่การโฟกัสที่โปรแกรมได้
องค์ประกอบเทคโนโลยีหลัก:
- เลนส์เชิงคำนวณ: ระบบไฮบริดที่ผสมผสานระหว่างออปติคัลและคอมพิวเตอร์
- Lohmann Lens: เลนส์โค้งทรงลูกบาศก์สองชิ้นที่เคลื่อนที่เพื่อปรับโฟกัส
- Phase-Only Spatial Light Modulator: ควบคุมการหักเหของแสงในแต่ละพิกเซล
- วิธีการออโตโฟกัส: ผสมผสาน Contrast-Detection (CDAF) สำหรับการวิเคราะห์พื้นที่ และ Phase-Detection (PDAF) สำหรับความเร็วและการติดตามวัตถุ
- ประสิทธิภาพ: สามารถบันทึกภาพที่โฟกัสได้สูงสุด 21 เฟรมต่อวินาที
ระบบโฟกัสอัตโนมัติอัจฉริยะทำงานอย่างไร
การทำให้การโฟกัสที่โปรแกรมได้นี้ใช้งานได้จริง จำเป็นต้องมีระบบโฟกัสอัตโนมัติที่ชาญฉลาด นักวิจัย CMU ได้ผสมผสานวิธีการโฟกัสอัตโนมัติที่ยอมรับแล้วสองวิธีเข้าด้วยกันอย่างชาญฉลาดเพื่อขับเคลื่อนเลนส์เชิงคำนวณของพวกเขา ประการแรก ระบบใช้การโฟกัสอัตโนมัติแบบตรวจจับคอนทราสต์ (CDAF) เพื่อวิเคราะห์ฉาก มันแบ่งภาพออกเป็นภูมิภาคหรือ "ซูเปอร์พิกเซล" และกำหนดระยะโฟกัสที่ทำให้ความคมชัดสูงสุดสำหรับแต่ละภูมิภาคอย่างอิสระ สิ่งนี้สร้างแผนที่รายละเอียดว่าควรใช้โฟกัสที่จุดใด จากนั้น การโฟกัสอัตโนมัติแบบตรวจจับเฟส (PDAF) จะเข้ามารับช่วงต่อ โดยใช้เซ็นเซอร์แบบดูอัลพิกเซล PDAF ให้ข้อมูลย้อนกลับอย่างรวดเร็วว่าวัตถุอยู่ในโฟกัสหรือไม่และทิศทางที่ต้องปรับอย่างแม่นยำ ทำให้ระบบสามารถติดตามและรักษาการโฟกัสบนองค์ประกอบที่เคลื่อนไหวได้ แนวทางแบบไฮบริดนี้ทำให้กล้องทดลองสามารถจับภาพที่โฟกัสสมบูรณ์แบบได้ด้วยอัตราสูงสุดถึง 21 เฟรมต่อวินาที พิสูจน์ว่าแนวคิดนี้ใช้ได้กับฉากไดนามิก ไม่ใช่แค่ภาพนิ่ง
การประยุกต์ใช้ที่อาจเกิดขึ้น นอกเหนือจากการถ่ายภาพ
แม้ว่าผลกระทบที่เห็นได้ชัดเจนที่สุดจะอยู่ที่การถ่ายภาพ ซึ่งทำให้ทุกอย่างตั้งแต่ดอกไม้ระยะใกล้ในทิวทัศน์ไปจนถึงภูเขาระยะไกลคมชัดเหมือนมีดโกน แต่ทีมวิจัยมองเห็นผลกระทบที่กว้างไกลกว่านั้นมาก ในกล้องจุลทรรศน์ เทคโนโลยีนี้อาจทำให้นักวิทยาศาสตร์สามารถมองเห็นหลายชั้นของตัวอย่างทางชีววิทยาในโฟกัสพร้อมกันได้ เร่งการวิเคราะห์และการค้นพบ สำหรับความเป็นจริงเสมือนและความเป็นจริงเสริม มันสามารถสร้างสัญญาณความลึกที่สมจริงมากขึ้น ลดความเมื่อยล้าของดวงตาและเพิ่มการ沉浸 (Immersion) ที่สำคัญที่สุด บางทียานพาหนะอัตโนมัติและหุ่นยนต์อาจใช้ระบบดังกล่าวเพื่อรับรู้สภาพแวดล้อมด้วย "ความคมชัดที่ไม่เคยมีมาก่อน" โฟกัสไปที่คนเดินถนนใกล้เคียง ไฟจราจรระยะกลาง และป้ายถนนระยะไกลได้พร้อมกันโดยไม่มีภาพเบลอใดๆ เพิ่มความปลอดภัยและอัลกอริธึมการตัดสินใจ
พื้นที่การประยุกต์ใช้ที่มีศักยภาพ:
- การถ่ายภาพ: โฟกัสทั้งฉาก, การเบลอแบบเลือกได้, การจำลองเอฟเฟกต์ tilt-shift
- กล้องจุลทรรศน์: โฟกัสตัวอย่างหลายชั้นพร้อมกัน
- ความเป็นจริงเสมือน/เสริม: การรับรู้ความลึกที่สมจริงและดีขึ้น
- ระบบอัตโนมัติ: การรับรู้สภาพแวดล้อมที่เพิ่มประสิทธิภาพสำหรับยานพาหนะและหุ่นยนต์
เส้นทางจากห้องแล็บสู่ตลาด
สิ่งสำคัญที่ต้องทราบคือ นี่ยังคงเป็นระบบทดลองจากห้องแล็บของมหาวิทยาลัย ยังไม่มีผลิตภัณฑ์เชิงพาณิชย์วางจำหน่าย ไม่มีการประกาศราคา และไม่มีไทม์ไลน์ว่าดังกล่าว เทคโนโลยี อาจปรากฏในกล้องผู้บริโภคเมื่อใด การเดินทางจากหลักฐานแนวคิดไปสู่ส่วนประกอบที่ผลิตจำนวนมาก เชื่อถือได้ และราคาไม่แพง เกี่ยวข้องกับความท้าทายทางวิศวกรรมที่สำคัญในการทำให้ขนาดเล็กลง ประสิทธิภาพการใช้พลังงาน และการลดต้นทุน อย่างไรก็ตาม การสาธิตโดย College of Engineering ของ CMU เป็นการพิสูจน์หลักการที่ทรงพลัง มันยืนยันว่าการแลกเปลี่ยนระหว่างความลึกของชัดและคุณภาพภาพที่มีมาหลายทศวรรษสามารถเอาชนะได้ด้วยการคำนวณ ดังที่ศาสตราจารย์ Aswin Sankaranarayanan กล่าวไว้ เทคโนโลยีนี้ "อาจเปลี่ยนแปลงพื้นฐานว่ากล้องมองเห็นโลกอย่างไร" ไม่ว่าจะมาถึงก่อนในกล้องจุลทรรศน์ระดับสูง เซ็นเซอร์อุตสาหกรรมเฉพาะทาง หรือในที่สุดในสมาร์ทโฟน อนาคตของการถ่ายภาพเพิ่งจะชัดเจนขึ้นมาก
