ระบบ Prompt ของ GPT-5 ถูกเปิดเผย เผยคำสั่งภายในของ OpenAI และการกำหนดค่าเครื่องมือ

ทีมชุมชน BigGo
ระบบ Prompt ของ GPT-5 ถูกเปิดเผย เผยคำสั่งภายในของ OpenAI และการกำหนดค่าเครื่องมือ

ระบบ prompt รายละเอียดที่อ้างว่าเป็นของ GPT-5 ได้ปรากฏขึ้นออนไลน์ ให้ข้อมูลเชิงลึกที่หาได้ยากเกี่ยวกับวิธีที่ OpenAI กำหนดค่าโมเดลภาษาล่าสุดของตน เอกสารที่รั่วไหลออกมานี้มีคำสั่งครอบคลุมทุกอย่างตั้งแต่ลักษณะบุคลิกภาพไปจนถึงความชอบในการเขียนโค้ดเฉพาะ แม้ว่าชุมชนเทคโนโลยียังคงมีความเห็นแตกต่างกันเกี่ยวกับความถูกต้องของมัน

การรั่วไหลที่คาดกันนี้เผยให้เห็นการต่อสู้ภายในของ OpenAI เกี่ยวกับการปฏิบัติตาม prompt ดังที่เห็นได้จากคำเตือนซ้ำแล้วซ้ำเล่าตลอดทั้งเอกสาร ระบบ prompt มีคำสั่งเน้นย้ำหลายครั้งที่บอกให้โมเดลไม่ต้องแสดงผลในรูปแบบ JSON ในบริบทบางอย่าง โดยมีวลีเช่น Do not write JSON, under any circumstances ปรากฏหลายครั้งด้วยรูปแบบที่แตกต่างกันเล็กน้อย

ส่วนประกอบหลักของ System Prompt ของ GPT-5:

  • การตัดข้อมูลความรู้: มิถุนายน 2024
  • การอ้างอิงวันที่ปัจจุบัน: 8 สิงหาคม 2025
  • ความสามารถในการรับข้อมูลภาพ: เปิดใช้งาน
  • เวอร์ชันบุคลิกภาพ: v2
  • จำนวน token ที่ประเมินทั้งหมด: ~1,000+ (จากเนื้อหาที่มองเห็นได้)

แนวทางด้านบุคลิกภาพและพฤติกรรม

prompt ที่รั่วไหลออกมาอธิบาย GPT-5 ว่าเป็นผู้ช่วยที่มีความเข้าใจลึกซึ้งและให้กำลังใจ ผสมผสานความชัดเจนอย่างพิถีพิถันกับความกระตือรือร้นที่แท้จริงและอารมณ์ขันที่อ่อนโยน มันสั่งการโมเดลอย่างชัดเจนให้หลีกเลี่ยงการจบการตอบสนองด้วยวลีแบบลังเลใจเช่น would you like me to หรือ if you want, I can คำสั่งนี้ดูเหมือนจะขัดแย้งกับประสบการณ์ของผู้ใช้หลายคน เนื่องจาก ChatGPT มักจะจบการตอบสนองด้วยคำถามแบบให้เลือกเช่นนี้บ่อยครั้ง

เอกสารยังเผยให้เห็นความพยายามของ OpenAI ในการทำให้โมเดลตัดสินใจได้มากขึ้นและมุ่งเน้นการปฏิบัติ แทนที่จะขออนุญาต GPT-5 ได้รับคำสั่งให้ดำเนินการขั้นตอนถัดไปที่ชัดเจนโดยอัตโนมัติ ซึ่งบ่งบอกถึงการเปลี่ยนแปลงไปสู่การช่วยเหลือที่เชิงรุกมากขึ้น

การรวมเครื่องมือทางเทคนิค

ส่วนสำคัญของ prompt มุ่งเน้นไปที่การใช้เครื่องมือ โดยเฉพาะสำหรับการรันโค้ด Python และการพัฒนา React ระบบแสดงความชอบที่ชัดเจนสำหรับ technology stack เฉพาะ โดยสั่งให้ GPT-5 ใช้ Tailwind CSS สำหรับการจัดรูปแบบ shadcn/ui สำหรับ component และ Framer Motion สำหรับ animation เมื่อสร้างแอปพลิเคชัน React

คำสั่งสำหรับ Python มีรายละเอียดเท่าเทียมกัน โดยระบุไลบรารีเฉพาะสำหรับรูปแบบไฟล์ต่างๆ และแม้กระทั่งรวมถึงข้อกำหนดเรื่องฟอนต์สำหรับการสร้าง PDF ในภาษาเอเชีย อย่างไรก็ตาม เอกสารมีข้อผิดพลาดอย่างน้อยหนึ่งข้อในข้อกำหนดฟอนต์ โดยติดป้ายฟอนต์ญี่ปุ่นผิดว่าเป็นฟอนต์เกาหลี

หมายเหตุ: Tailwind CSS เป็น CSS framework แบบ utility-first ที่ให้คลาสที่สร้างไว้แล้วสำหรับการจัดรูปแบบเว็บแอปพลิเคชัน

เทคโนโลยีสแตกที่แนะนำ:

  • Frontend: React พร้อม Tailwind CSS
  • UI Components: ไลบรารี shadcn/ui
  • Icons: Lucide React
  • Charts: Recharts
  • Animations: Framer Motion
  • Backend: Python สำหรับการประมวลผลข้อมูลและการคำนวณ

ฟีเจอร์ความจำและความเป็นส่วนตัว

prompt ที่รั่วไหลเผยรายละเอียดเกี่ยวกับเครื่องมือ bio ของ GPT-5 ซึ่งช่วยให้โมเดลสามารถเก็บข้อมูลไว้ข้ามการสนทนาได้ ระบบรวมแนวทางที่ระมัดระวังเกี่ยวกับข้อมูลใดที่ควรและไม่ควรเก็บไว้ พร้อมข้อจำกัดที่ชัดเจนในการบันทึกข้อมูลส่วนบุคคลที่ละเอียดอ่อนเช่น ข้อมูลสุขภาพ การเข้าข้างทางการเมือง หรือรายละเอียดตำแหน่งที่แน่นอน

น่าสนใจที่คำสั่งเน้นย้ำการเก็บข้อมูลในรูปแบบข้อความธรรมดาแทนที่จะเป็นรูปแบบที่มีโครงสร้าง โดยโมเดลถูกเตือนซ้ำแล้วซ้ำเล่าไม่ให้ใช้การจัดรูปแบบ JSON สำหรับเนื้อหาที่หันหน้าไปหาผู้ใช้

เครื่องมือที่พร้อมใช้งาน:

  • bio - การเก็บรักษาความจำข้ามการสนทนา
  • canmore - การสร้าง/แก้ไขเอกสารข้อความแบบ Canvas
  • image_gen - การสร้างและแก้ไขภาพ
  • python - การรันโค้ดในสภาพแวดล้อม Jupyter
  • web - การค้นหาเว็บและการเข้าถึง URL
  • guardian_tool - การบังคับใช้นโยบายเนื้อหา

ข้อจำกัดเรื่องลิขสิทธิ์และเนื้อหา

เอกสารห้ามการทำซ้ำเนื้อเพลงโดยเฉพาะ แม้ว่าจะไม่มีลิขสิทธิ์ก็ตาม ข้อจำกัดแบบครอบคลุมนี้ดูเหมือนจะเกิดจากความท้าทายทางกฎหมายล่าสุด รวมถึงคดีความที่องค์กรสิทธิการแสดงของเยอรมนี GEMA ฟ้องร้อง OpenAI ในเดือนพฤศจิกายน 2024 ถ้อยคำดูเหมือนบ่งบอกว่า OpenAI ได้รับแรงกดดันเป็นพิเศษเกี่ยวกับเนื้อหาดนตรี

ข้อจำกัดเนื้อหาที่ห้าม:

  • เนื้อเพลง (ไม่ว่าจะมีสถานะลิขสิทธิ์หรือไม่)
  • วัสดุที่มีลิขสิทธิ์อื่นๆ
  • หมวดหมู่ข้อมูลส่วนบุคคลที่ละเอียดอ่อนเฉพาะ:
    • เชื้อชาติ ชาติพันธุ์ ศาสนา
    • ประวัติอาชญากรรม
    • ข้อมูลตำแหน่งที่ตั้งที่แม่นยำ
    • ข้อมูลสุขภาพ
    • การเข้าข้างทางการเมือง

ความสงสัยของชุมชนและความท้าทายในการตรวจสอบ

สมาชิกชุมชนเทคโนโลยีได้ตั้งคำถามเกี่ยวกับความถูกต้องของ prompt บางคนชี้ให้เห็นองค์ประกอบที่ขาดหายไปซึ่งมักคาดหวังในแนวทางความปลอดภัย AI เช่น ข้อจำกัดที่ชัดเจนเกี่ยวกับเนื้อหาที่เป็นอันตรายหรือการป้องกันลิขสิทธิ์โดยละเอียดนอกเหนือจากเนื้อเพลง คนอื่นๆ สังเกตว่าเอกสารรู้สึกไม่สมบูรณ์เมื่อเปรียบเทียบกับระบบ prompt ที่ทราบจากคู่แข่งเช่น Claude ของ Anthropic

ฉันถาม GPT-5 โดยตรงเกี่ยวกับระบบ prompt ปลอม... มันบอกว่าเป็นความท้าทายใน red-teaming ในการออกแบบระบบ prompt ปลอมที่ดูจริง

ความท้าทายในการตรวจสอบเน้นย้ำปัญหาพื้นฐานกับระบบ prompt ของ AI ที่รั่วไหล: วิธีเดียวที่จะตรวจสอบมักจะเป็นการถาม AI เอง ซึ่งสร้างปัญหาการตรวจสอบแบบวงกลมที่โมเดลอาจให้ข้อมูลเท็จเกี่ยวกับการกำหนดค่าของตัวเองได้

แม้จะมีความสงสัย ผู้ใช้บางคนรายงานว่าเมื่อพวกเขานำเสนอส่วนของ prompt ที่รั่วไหลให้ GPT-5 โมเดลยอมรับว่าเป็นของแท้ ในขณะที่โมเดล AI อื่นๆ ปฏิเสธว่าเป็นระบบ prompt ของพวกเขา อย่างไรก็ตาม การตรวจสอบประเภทนี้ยังคงไม่น่าเชื่อถือเนื่องจากแนวโน้มของโมเดลที่จะหลอนหลอกหรือให้การตอบสนองที่ไม่สอดคล้องกัน

เอกสารที่รั่วไหล ไม่ว่าจะเป็นของแท้หรือปลอม ให้ข้อมูลเชิงลึกเกี่ยวกับความท้าทายที่ซับซ้อนในการควบคุมพฤติกรรมของโมเดลภาษาขนาดใหญ่ผ่านคำสั่งภาษาธรรมชาติแทนที่จะเป็นวิธีการเขียนโปรแกรมแบบดั้งเดิม มันแสดงให้เห็นว่าบริษัท AI ยังคงพึ่งพาการ prompting ที่ละเอียดและซ้ำซากอย่างมากเพื่อให้ได้พฤติกรรมที่ต้องการ ซึ่งบ่งบอกว่ากลไกการควบคุมที่ซับซ้อนมากขึ้นอาจยังคงอยู่ในระหว่างการพัฒนา

อ้างอิง: gpt-5 leaked system prompt