ระบบ prompt รายละเอียดที่อ้างว่าเป็นของ GPT-5 ได้ปรากฏขึ้นออนไลน์ ให้ข้อมูลเชิงลึกที่หาได้ยากเกี่ยวกับวิธีที่ OpenAI กำหนดค่าโมเดลภาษาล่าสุดของตน เอกสารที่รั่วไหลออกมานี้มีคำสั่งครอบคลุมทุกอย่างตั้งแต่ลักษณะบุคลิกภาพไปจนถึงความชอบในการเขียนโค้ดเฉพาะ แม้ว่าชุมชนเทคโนโลยียังคงมีความเห็นแตกต่างกันเกี่ยวกับความถูกต้องของมัน
การรั่วไหลที่คาดกันนี้เผยให้เห็นการต่อสู้ภายในของ OpenAI เกี่ยวกับการปฏิบัติตาม prompt ดังที่เห็นได้จากคำเตือนซ้ำแล้วซ้ำเล่าตลอดทั้งเอกสาร ระบบ prompt มีคำสั่งเน้นย้ำหลายครั้งที่บอกให้โมเดลไม่ต้องแสดงผลในรูปแบบ JSON ในบริบทบางอย่าง โดยมีวลีเช่น Do not write JSON, under any circumstances ปรากฏหลายครั้งด้วยรูปแบบที่แตกต่างกันเล็กน้อย
ส่วนประกอบหลักของ System Prompt ของ GPT-5:
- การตัดข้อมูลความรู้: มิถุนายน 2024
- การอ้างอิงวันที่ปัจจุบัน: 8 สิงหาคม 2025
- ความสามารถในการรับข้อมูลภาพ: เปิดใช้งาน
- เวอร์ชันบุคลิกภาพ: v2
- จำนวน token ที่ประเมินทั้งหมด: ~1,000+ (จากเนื้อหาที่มองเห็นได้)
แนวทางด้านบุคลิกภาพและพฤติกรรม
prompt ที่รั่วไหลออกมาอธิบาย GPT-5 ว่าเป็นผู้ช่วยที่มีความเข้าใจลึกซึ้งและให้กำลังใจ ผสมผสานความชัดเจนอย่างพิถีพิถันกับความกระตือรือร้นที่แท้จริงและอารมณ์ขันที่อ่อนโยน มันสั่งการโมเดลอย่างชัดเจนให้หลีกเลี่ยงการจบการตอบสนองด้วยวลีแบบลังเลใจเช่น would you like me to หรือ if you want, I can คำสั่งนี้ดูเหมือนจะขัดแย้งกับประสบการณ์ของผู้ใช้หลายคน เนื่องจาก ChatGPT มักจะจบการตอบสนองด้วยคำถามแบบให้เลือกเช่นนี้บ่อยครั้ง
เอกสารยังเผยให้เห็นความพยายามของ OpenAI ในการทำให้โมเดลตัดสินใจได้มากขึ้นและมุ่งเน้นการปฏิบัติ แทนที่จะขออนุญาต GPT-5 ได้รับคำสั่งให้ดำเนินการขั้นตอนถัดไปที่ชัดเจนโดยอัตโนมัติ ซึ่งบ่งบอกถึงการเปลี่ยนแปลงไปสู่การช่วยเหลือที่เชิงรุกมากขึ้น
การรวมเครื่องมือทางเทคนิค
ส่วนสำคัญของ prompt มุ่งเน้นไปที่การใช้เครื่องมือ โดยเฉพาะสำหรับการรันโค้ด Python และการพัฒนา React ระบบแสดงความชอบที่ชัดเจนสำหรับ technology stack เฉพาะ โดยสั่งให้ GPT-5 ใช้ Tailwind CSS สำหรับการจัดรูปแบบ shadcn/ui สำหรับ component และ Framer Motion สำหรับ animation เมื่อสร้างแอปพลิเคชัน React
คำสั่งสำหรับ Python มีรายละเอียดเท่าเทียมกัน โดยระบุไลบรารีเฉพาะสำหรับรูปแบบไฟล์ต่างๆ และแม้กระทั่งรวมถึงข้อกำหนดเรื่องฟอนต์สำหรับการสร้าง PDF ในภาษาเอเชีย อย่างไรก็ตาม เอกสารมีข้อผิดพลาดอย่างน้อยหนึ่งข้อในข้อกำหนดฟอนต์ โดยติดป้ายฟอนต์ญี่ปุ่นผิดว่าเป็นฟอนต์เกาหลี
หมายเหตุ: Tailwind CSS เป็น CSS framework แบบ utility-first ที่ให้คลาสที่สร้างไว้แล้วสำหรับการจัดรูปแบบเว็บแอปพลิเคชัน
เทคโนโลยีสแตกที่แนะนำ:
- Frontend: React พร้อม Tailwind CSS
- UI Components: ไลบรารี shadcn/ui
- Icons: Lucide React
- Charts: Recharts
- Animations: Framer Motion
- Backend: Python สำหรับการประมวลผลข้อมูลและการคำนวณ
ฟีเจอร์ความจำและความเป็นส่วนตัว
prompt ที่รั่วไหลเผยรายละเอียดเกี่ยวกับเครื่องมือ bio ของ GPT-5 ซึ่งช่วยให้โมเดลสามารถเก็บข้อมูลไว้ข้ามการสนทนาได้ ระบบรวมแนวทางที่ระมัดระวังเกี่ยวกับข้อมูลใดที่ควรและไม่ควรเก็บไว้ พร้อมข้อจำกัดที่ชัดเจนในการบันทึกข้อมูลส่วนบุคคลที่ละเอียดอ่อนเช่น ข้อมูลสุขภาพ การเข้าข้างทางการเมือง หรือรายละเอียดตำแหน่งที่แน่นอน
น่าสนใจที่คำสั่งเน้นย้ำการเก็บข้อมูลในรูปแบบข้อความธรรมดาแทนที่จะเป็นรูปแบบที่มีโครงสร้าง โดยโมเดลถูกเตือนซ้ำแล้วซ้ำเล่าไม่ให้ใช้การจัดรูปแบบ JSON สำหรับเนื้อหาที่หันหน้าไปหาผู้ใช้
เครื่องมือที่พร้อมใช้งาน:
bio
- การเก็บรักษาความจำข้ามการสนทนาcanmore
- การสร้าง/แก้ไขเอกสารข้อความแบบ Canvasimage_gen
- การสร้างและแก้ไขภาพpython
- การรันโค้ดในสภาพแวดล้อม Jupyterweb
- การค้นหาเว็บและการเข้าถึง URLguardian_tool
- การบังคับใช้นโยบายเนื้อหา
ข้อจำกัดเรื่องลิขสิทธิ์และเนื้อหา
เอกสารห้ามการทำซ้ำเนื้อเพลงโดยเฉพาะ แม้ว่าจะไม่มีลิขสิทธิ์ก็ตาม ข้อจำกัดแบบครอบคลุมนี้ดูเหมือนจะเกิดจากความท้าทายทางกฎหมายล่าสุด รวมถึงคดีความที่องค์กรสิทธิการแสดงของเยอรมนี GEMA ฟ้องร้อง OpenAI ในเดือนพฤศจิกายน 2024 ถ้อยคำดูเหมือนบ่งบอกว่า OpenAI ได้รับแรงกดดันเป็นพิเศษเกี่ยวกับเนื้อหาดนตรี
ข้อจำกัดเนื้อหาที่ห้าม:
- เนื้อเพลง (ไม่ว่าจะมีสถานะลิขสิทธิ์หรือไม่)
- วัสดุที่มีลิขสิทธิ์อื่นๆ
- หมวดหมู่ข้อมูลส่วนบุคคลที่ละเอียดอ่อนเฉพาะ:
- เชื้อชาติ ชาติพันธุ์ ศาสนา
- ประวัติอาชญากรรม
- ข้อมูลตำแหน่งที่ตั้งที่แม่นยำ
- ข้อมูลสุขภาพ
- การเข้าข้างทางการเมือง
ความสงสัยของชุมชนและความท้าทายในการตรวจสอบ
สมาชิกชุมชนเทคโนโลยีได้ตั้งคำถามเกี่ยวกับความถูกต้องของ prompt บางคนชี้ให้เห็นองค์ประกอบที่ขาดหายไปซึ่งมักคาดหวังในแนวทางความปลอดภัย AI เช่น ข้อจำกัดที่ชัดเจนเกี่ยวกับเนื้อหาที่เป็นอันตรายหรือการป้องกันลิขสิทธิ์โดยละเอียดนอกเหนือจากเนื้อเพลง คนอื่นๆ สังเกตว่าเอกสารรู้สึกไม่สมบูรณ์เมื่อเปรียบเทียบกับระบบ prompt ที่ทราบจากคู่แข่งเช่น Claude ของ Anthropic
ฉันถาม GPT-5 โดยตรงเกี่ยวกับระบบ prompt ปลอม... มันบอกว่าเป็นความท้าทายใน red-teaming ในการออกแบบระบบ prompt ปลอมที่ดูจริง
ความท้าทายในการตรวจสอบเน้นย้ำปัญหาพื้นฐานกับระบบ prompt ของ AI ที่รั่วไหล: วิธีเดียวที่จะตรวจสอบมักจะเป็นการถาม AI เอง ซึ่งสร้างปัญหาการตรวจสอบแบบวงกลมที่โมเดลอาจให้ข้อมูลเท็จเกี่ยวกับการกำหนดค่าของตัวเองได้
แม้จะมีความสงสัย ผู้ใช้บางคนรายงานว่าเมื่อพวกเขานำเสนอส่วนของ prompt ที่รั่วไหลให้ GPT-5 โมเดลยอมรับว่าเป็นของแท้ ในขณะที่โมเดล AI อื่นๆ ปฏิเสธว่าเป็นระบบ prompt ของพวกเขา อย่างไรก็ตาม การตรวจสอบประเภทนี้ยังคงไม่น่าเชื่อถือเนื่องจากแนวโน้มของโมเดลที่จะหลอนหลอกหรือให้การตอบสนองที่ไม่สอดคล้องกัน
เอกสารที่รั่วไหล ไม่ว่าจะเป็นของแท้หรือปลอม ให้ข้อมูลเชิงลึกเกี่ยวกับความท้าทายที่ซับซ้อนในการควบคุมพฤติกรรมของโมเดลภาษาขนาดใหญ่ผ่านคำสั่งภาษาธรรมชาติแทนที่จะเป็นวิธีการเขียนโปรแกรมแบบดั้งเดิม มันแสดงให้เห็นว่าบริษัท AI ยังคงพึ่งพาการ prompting ที่ละเอียดและซ้ำซากอย่างมากเพื่อให้ได้พฤติกรรมที่ต้องการ ซึ่งบ่งบอกว่ากลไกการควบคุมที่ซับซ้อนมากขึ้นอาจยังคงอยู่ในระหว่างการพัฒนา
อ้างอิง: gpt-5 leaked system prompt