ผลิตภัณฑ์ Workstation ที่ปฏิวัติวงการของ VMware ในปี 1999 ไม่เพียงแค่นำการจำลองเสมือนมาสู่คอมพิวเตอร์ x86 เท่านั้น แต่ยังสร้างแนวทางที่ใช้ซอฟต์แวร์เป็นฐานที่มีประสิทธิภาพมากจนโซลูชันฮาร์ดแวร์สมัยใหม่ยังคงดิ้นรนเพื่อให้เทียบเท่าประสิทธิภาพดังกล่าว การอ้างอิงทางเทคนิคเมื่อเร็ว ๆ นี้ได้จุดประกายการถกเถียงใหม่เกี่ยวกับว่าฟีเจอร์การจำลองเสมือนด้วยฮาร์ดแวร์ที่มีราคาแพงนั้นให้ผลลัพธ์ที่ดีกว่าเทคนิคซอฟต์แวร์ที่ชาญฉลาดหรือไม่
เปรียบเทียบไทม์ไลน์ของ VMware:
- 1997: เอกสารวิจัย Disco ได้รับการตีพิมพ์ (ต้นแบบของ VMware)
- 1998: VMware ก่อตั้งขึ้น
- 1999: VMware Workstation เปิดตัว
- 2000: Win4Lin เปิดตัว (คู่แข่ง)
- 2003: Microsoft เข้าซื้อกิจการเทคโนโลยีเสมือนจริงของ Connectix
นวัตกรรม VMware ดั้งเดิมเปลี่ยนแปลงทุกสิ่ง
เมื่อ VMware เปิดตัว Workstation ในปี 1999 พวกเขาต้องเผชิญกับความท้าทายอันยิ่งใหญ่ ต่างจากคอมพิวเตอร์เมนเฟรมที่ถูกสร้างมาเพื่อการจำลองเสมือน โปรเซสเซอร์ x86 ไม่มีการสนับสนุนสำหรับการรันระบบปฏิบัติการหลายตัวพร้อมกัน ทีมงานจึงต้องสร้างโซลูชันของตนเองโดยใช้การผสมผสานของเทคนิค trap-and-emulate และ dynamic binary translation - ซึ่งเป็นการเขียนคำสั่งคอมพิวเตอร์ใหม่ทันทีเพื่อให้ทำงานในสภาพแวดล้อมเสมือนได้
แนวทางซอฟต์แวร์นี้แก้ไขปัญหาเชิงปฏิบัติที่ผู้ใช้หลายคนเผชิญในชีวิตประจำวัน สมาชิกชุมชนคนหนึ่งกล่าวถึงว่า VMware ช่วยขจัดความจำเป็นในการตั้งค่า dual-boot และการหาแล็ปท็อปที่รองรับฮาร์ดแวร์ Linux อย่างสมบูรณ์แบบ โดยให้ประสบการณ์การพัฒนาที่ราบรื่นกว่าบนเครื่อง Windows
ฟีเจอร์ฮาร์ดแวร์สมัยใหม่เผชิญความท้าทายที่ไม่คาดคิด
แม้ว่า Intel และ AMD จะเพิ่มการสนับสนุนการจำลองเสมือนเฉพาะอย่าง VT-x เข้าไปในโปรเซสเซอร์ของพวกเขา แต่การเพิ่มประสิทธิภาพก็ไม่ได้น่าประทับใจเท่าที่คาดหวัง แนวทางฮาร์ดแวร์ประสบปัญหาจาก overhead สูงเมื่อสลับระหว่างเครื่องเสมือนและระบบโฮสต์ - สิ่งที่เรียกว่า VM-exit overhead การสลับบ่อยครั้งเหล่านี้อาจทำให้การจำลองเสมือนด้วยฮาร์ดแวร์ช้ากว่าวิธีซอฟต์แวร์ดั้งเดิมของ VMware
การปรับแต่งซอฟต์แวร์ที่ยืดหยุ่นมักจะเอาชนะฮาร์ดแวร์ได้หาก exit มีน้ำหนักมากเกินไปหรือไม่ยืดหยุ่น
อุตสาหกรรมได้รับรู้ถึงข้อจำกัดนี้และพัฒนาเทคนิคที่ดีขึ้นเพื่อลดการสลับที่มีต้นทุนสูงเหล่านี้ โดยเฉพาะสำหรับการดำเนินการ input/output อย่างไรก็ตาม ความท้าทายพื้นฐานยังคงอยู่: โซลูชันฮาร์ดแวร์อาจจะแข็งแกร่ง ในขณะที่แนวทางซอฟต์แวร์เปิดโอกาสให้มีการปรับแต่งอย่างสร้างสรรค์มากกว่า
แนวทางเทคนิคหลัก:
- Software VMM: การดักจับและจำลอง + การแปลไบนารีแบบไดนามิก
- Hardware VMM: Intel VT-x / AMD-V พร้อมการสนับสนุนโปรเซสเซอร์โดยตรง
- ปัญหาด้านประสิทธิภาพ: ค่าใช้จ่าย VM-exit ในโซลูชันฮาร์ดแวร์
- ข้อกังวลด้านความปลอดภัย: ต้องการการแพตช์บ่อยครั้งสำหรับฟีเจอร์การสร้างเสมือนของฮาร์ดแวร์
ความกังวลด้านความปลอดภัยส่งผลกระทบต่อการจำลองเสมือนด้วยฮาร์ดแวร์
ปัญหาสำคัญอีกประการหนึ่งที่ส่งผลกระทบต่อการจำลองเสมือนด้วยฮาร์ดแวร์คือกระแสช่องโหว่ด้านความปลอดภัยที่เกิดขึ้นอย่างต่อเนื่อง โปรเซสเซอร์สมัยใหม่ต้องการแพตช์บ่อยครั้งเพื่อแก้ไขข้อบกพร่องด้านความปลอดภัยในฟีเจอร์การจำลองเสมือน ทำให้เกิดคำถามว่าการปรับปรุงฮาร์ดแวร์เหล่านี้พร้อมสำหรับการใช้งานอย่างแพร่หลายจริงหรือไม่ บางคนโต้แย้งว่าจนกว่าโปรเซสเซอร์จะสามารถใช้งานได้หลายปีโดยไม่มีปัญหาความปลอดภัยร้ายแรง การจำลองเสมือนที่ใช้ซอฟต์แวร์เป็นฐานยังคงเป็นตัวเลือกที่เชื่อถือได้มากกว่า
การถกเถียงนี้สะท้อนหลักการเทคโนโลยีที่กว้างขึ้น: ใหม่กว่าและซับซ้อนกว่าไม่ได้หมายความว่าดีกว่าเสมอไป เทคนิคซอฟต์แวร์อายุ 25 ปีของ VMware ยังคงแสดงให้เห็นว่าวิศวกรรมที่ใคร่ครวญอย่างรอบคอบมักจะเอาชนะโซลูชันฮาร์ดแวร์แบบ brute-force ได้ โดยเฉพาะเมื่อฮาร์ดแวร์นั้นนำมาซึ่งปัญหาและข้อจำกัดของตัวเอง
อ้างอิง: Bringing Virtualization to the x86 Architecture with the Original VMware Workstation