ชุมชนเทคโนโลยีกำลังพูดถึงด้วยความสงสัยหลังจาก CEO ของ OpenAI อย่าง Sam Altman ได้ประกาศอย่างกะทันหันว่าปัญญาประดิษฐ์ทั่วไป (AGI) ไม่ใช่คำศัพท์ที่มีประโยชน์มากนัก การเปลี่ยนแปลงอย่างรุนแรงนี้มาจากผู้บริหารคนเดียวกันที่ใช้เวลาหลายปีในการสัญญาว่าจะมีการพัทนาใหม่ด้าน AGI เพื่อให้เหตุผลสำหรับรอบการระดมทุนจำนวนมหาศาลและการประเมินมูลค่าที่สูงลิบ
ไทม์ไลน์การประเมินมูลค่า OpenAI:
- การประเมินมูลค่าจากนักลงทุนปัจจุบัน: 300 พันล้านดอลลาร์สหรัฐ
- กำลังเตรียมขายหุ้นรอง ณ มูลค่า: 500 พันล้านดอลลาร์สหรัฐ
- โครงสร้างหุ้นส่วน: Microsoft ยังคงสิทธิ์เข้าถึงทรัพย์สินทางปัญญาของ OpenAI จนกว่าจะบรรลุ AGI
จังหวะเวลาเชิงกลยุทธ์ทำให้เกิดความสงสัย
จังหวะเวลาของคำแถลงของ Altman ได้ดึงดูดความสนใจจากผู้สังเกตการณ์ในอุตสาหกรรม หลายคนในชุมชนเทคโนโลยีมองว่านี่เป็นการเคลื่อนไหวที่คำนวณแล้วเพื่อจัดการความคาดหวังหลังจากการตอบรับที่อ่อนแอของ GPT-5 นักวิจารณ์ชี้ให้เห็นรูปแบบที่คุ้นเคยในอุตสาหกรรมเทคโนโลยี - สัญญาเกินจริงในระหว่างการระดมทุน จากนั้นค่อยๆ เลื่อนเป้าหมายเมื่อความเป็นจริงเข้ามา
การอภิปรายของชุมชนเผยให้เห็นความกังวลที่ลึกซึ้งเกี่ยวกับความรับผิดชอบขององค์กรในการพัฒนา AI ผู้สังเกตการณ์บางคนสังเกตว่านี่เป็นไปตามแผนการที่ได้รับการยอมรับแล้วของการมุ่งมั่นเกินจริง ส่งมอบไม่เพียงพอ จากนั้นก็บิดเบือนความจริงที่กลายเป็นเรื่องปกติในหมู่ผู้นำเทคโนโลยีที่มีชื่อเสียง
การตอบรับของ GPT-5 :
- เปิดตัวให้กับผู้ใช้ ChatGPT ทุกคน
- ศาสตราจารย์จาก University of Southampton อธิบายว่าเป็น "การพัฒนาแบบค่อยเป็นค่อยไป ไม่ใช่การปฏิวัติ"
- การปรับปรุงมุ่งเน้นไปที่: การเขียน การเขียนโค้ด คำถามด้านสุขภาพ
- การวิจารณ์จากชุมชน: การอัปเกรดที่น่าผิดหวังพร้อมการปรับปรุงเล็กน้อย
ข้อตกลงกับ Microsoft ทำให้สถานการณ์ซับซ้อน
ประเด็นที่น่าสนใจเป็นพิเศษของการเปลี่ยนแปลงนี้เกี่ยวข้องกับความสัมพันธ์ที่ซับซ้อนของ OpenAI กับ Microsoft ตามข้อตกลงความร่วมมือของพวกเขา Microsoft ยังคงมีสิทธิ์เข้าถึงเทคโนโลยีของ OpenAI จนกว่าบริษัทจะบรรลุ AGI อย่างเป็นทางการ สิ่งนี้สร้างโครงสร้างแรงจูงใจที่น่าสนใจที่การประกาศ AGI เร็วเกินไปอาจส่งผลเสียต่อผลประโยชน์ทางธุรกิจของ OpenAI
ชุมชนได้ระบุว่านี่เป็นปัจจัยสำคัญในการเข้าใจข้อความของ Altman ตราบใดที่ AGI ยังคงไม่ได้รับการกำหนดหรือไม่ได้รับการบรรลุ OpenAI สามารถได้รับประโยชน์จากข้อตกลงการประมวลผลที่ดีและรักษาการควบคุมทรัพย์สินทางปัญญาของตนได้มากขึ้น
ชุมชนเรียกร้องให้มีความเข้มงวดทางวิทยาศาสตร์
ผู้เชี่ยวชาญด้านเทคโนโลยีแสดงความหงุดหงิดกับการขาดรากฐานทางวิทยาศาสตร์ในการอภิปรายเกี่ยวกับการพัฒนา AI หลายคนโต้แย้งว่าบริษัทควรลงทุนมากขึ้นในการเข้าใจปัญญาเองผ่านการร่วมมือกับนักประสาทวิทยาศาสตร์ นักจิตวิทยา และนักวิจัยด้านการรู้คิดก่อนที่จะอ้างอิงใหญ่โตเกี่ยวกับปัญญาประดิษฐ์
มันมีประโยชน์มากกว่าที่จะพูดถึงความสามารถเฉพาะแทนที่จะเป็นแนวคิดที่คลุมเครือของปัญญา 'ทั่วไป'
ชุมชนยังเรียกร้องให้มีตัวชี้วัดมาตรฐานและวิธีการประเมินที่โปร่งใสมากขึ้น หากไม่มีมาตรฐานที่ได้รับการยอมรับทั่วโลก บริษัทต่างๆ สามารถกำหนดความสำเร็จได้ตามที่เหมาะสมกับเรื่องเล่าในปัจจุบันของพวกเขา
วงจรยังคงดำเนินต่อไป
บางทีสิ่งที่บ่งบอกมากที่สุดคือผู้สังเกตการณ์บางคนสังเกตว่านี่สะท้อนรูปแบบที่กว้างขึ้นในการพัฒนาเทคโนโลยี อุตสาหกรรมมักเริ่มต้นด้วยเครื่องมือเฉพาะทาง รวมเข้าด้วยกันเป็นระบบทั่วไปที่ซับซ้อน จากนั้นแยกย่อยกลับเป็นแอปพลิเคชันเฉพาะทางเมื่อแนวทางทั่วไปพิสูจน์แล้วว่าใช้งานยาก
ลักษณะแบบวงจรนี้แสดงให้เห็นว่าการหันเหจาก AGI ของ Altman อาจเป็นตัวแทนของการกลับสู่การพัฒนา AI ที่ปฏิบัติได้จริงและมุ่งเน้นมากขึ้น แม้ว่าแรงจูงใจจะดูเหมือนเป็นเรื่องการเงินมากกว่าปรัชญาก็ตาม
ปฏิกิริยาของชุมชนเทคโนโลยีเผยให้เห็นความระแวงที่เพิ่มขึ้นต่อรอบการพัฒนาที่ขับเคลื่อนด้วยการโฆษณาชวนเชื่อและความปรารถนาสำหรับการอภิปรายเกี่ยวกับความสามารถและข้อจำกัดของ AI ที่ซื่อสัตย์และมีรากฐานทางวิทยาศาสตร์มากขึ้น
อ้างอิง: Sam Altman now says AGI, or human-level AI, is 'not a super useful term' — and he's not alone