การเพิ่มขึ้นของเนื้อหาที่สร้างโดย AI ในการสื่อสารทางอาชีพได้จุดประกายการถกเถียงอย่างดุเดือดเกี่ยวกับมารยาทดิจิทัลและความเคารพในที่ทำงาน พนักงานจำนวนมากขึ้นเรื่อยๆ กำลังแชร์ผลลัพธ์ดิบจาก ChatGPT และโมเดลภาษาอื่นๆ โดยไม่ได้ตรวจสอบอย่างเหมาะสม ทำให้เกิดความหงุดหงิดในหมู่เพื่อนร่วมงานที่รู้สึกว่าเวลาของพวกเขาถูกสิ้นเปลืองไปกับข้อมูลที่ยังไม่ได้รับการตรวจสอบและอาจไม่ถูกต้อง
ปัญหาการพิสูจน์ความคิด
เป็นเวลาหลายศตวรรษที่ข้อความเขียนมีการรับประกันโดยธรรมชาติว่ามีคนลงทุนเวลาและความพยายามทางจิตใจในการสร้างสรรค์มันขึ้นมา การพิสูจน์ความคิดตามธรรมชาตินี้ทำหน้าที่เป็นตัวกรองคุณภาพขั้นพื้นฐาน ตอนนี้เครื่องมือ AI ทำให้การสร้างข้อความเป็นเรื่องง่ายดายเกือบจะไม่ต้องใช้ความพยายาม ซึ่งเปลี่ยนแปลงพลวัตนี้โดยพื้นฐาน เมื่อมีคนแชร์ผลลัพธ์จาก AI โดยไม่ได้ตรวจสอบ ผู้รับไม่สามารถสันนิษฐานได้อีกต่อไปว่าเนื้อหานั้นได้รับการพิจารณาอย่างรอบคอบหรือได้รับการตรวจสอบความถูกต้องแล้ว
ชุมชนได้ระบุสถานการณ์ที่เป็นปัญหาโดยเฉพาะหลายกรณี พนักงานบางคนวางการตอบสนองจาก ChatGPT ลงในอีเมลหรือข้อความแชทโดยตรงโดยไม่เปิดเผย คนอื่นๆ ส่งการตรวจสอบโค้ดสำหรับ pull request ที่สร้างโดย AI ที่พวกเขาไม่ได้ทดสอบด้วยตนเอง บางทีสิ่งที่น่าหงุดหงิดที่สุดคือกรณีที่เพื่อนร่วมงานตอบคำถามทางเทคนิคโดยปรึกษา AI ทันทีและอ่านการตอบสนองกลับมาตามตัวอักษร แทนที่จะยอมรับว่าพวกเขาไม่รู้คำตอบ
ผลกระทบในที่ทำงานและข้อกังวลเรื่องคุณภาพ
ผลที่ตามมาในทางปฏิบัติขยายไปเกินกว่าความรำคาญเพียงอย่างเดียว ผู้ตรวจสอบโค้ดรายงานว่าใช้เวลามากขึ้นอย่างมีนัยสำคัญในการตรวจสอบงานที่ส่งมาที่สร้างโดย AI มักจะพบข้อผิดพลาดพื้นฐานที่ควรจะถูกจับได้ก่อนการส่ง การอภิปรายทางเทคนิคกลายเป็นวงกลมเมื่อผู้เข้าร่วมปกป้องตำแหน่งที่สร้างโดย AI ที่พวกเขาเองไม่เข้าใจอย่างเต็มที่
ฉันหวังจริงๆ ว่าเพื่อนร่วมงานบางคนจะหยุดใช้ LLM เพื่อเขียนอีเมลหรือแม้แต่ข้อความ Teams ให้ฉัน มันรู้สึกหยาบคายมาก จนถึงจุดที่ฉันไม่อยากอ่านมันอีกต่อไป
การสื่อสารทางอีเมลได้รับผลกระทบเป็นพิเศษ โดยผู้รับรายงานว่าพวกเขาสามารถระบุข้อความที่สร้างโดย AI ได้อย่างง่ายดายจากโทนเสียงที่ยืดยาวและทั่วไป และวลีที่เป็นเครื่องหมาย ข้อความบางข้อความแม้กระทั่งรวมคำสั่งของ AI เองโดยไม่ตั้งใจ เช่น คุณต้องการให้ฉันจัดรูปแบบสำหรับ Outlook หรือช่วยคุณโพสต์ไปยังช่องทางเฉพาะหรือไม่?
สัญญาณเตือนเนื้อหาที่สร้างโดย AI ทั่วไป:
- ข้อความยาวเหยียดแต่ให้ข้อมูลน้อย
- ภาษาองค์กรทั่วไปและคำพูดเก่าๆ
- การใส่คำสั่ง AI เข้าไปในข้อความโดยไม่ตั้งใจ
- การใช้เครื่องหมายขีดกลางยาวและโครงสร้างประโยคที่เป็นทางการ
- การตอบกลับที่ไม่ได้ตอบคำถามเฉพาะเจาะจงโดยตรง
ข้อโต้แย้งเรื่องการเข้าถึง
ไม่ใช่ทุกคนที่เห็นด้วยว่าความช่วยเหลือจาก AI เป็นปัญหาโดยธรรมชาติ ผู้พูดภาษาอังกฤษที่ไม่ใช่เจ้าของภาษาและบุคคลที่มีปัญหาในการเขียนโต้แย้งว่าเครื่องมือ AI ช่วยให้พวกเขาสื่อสารได้อย่างมีประสิทธิภาพและเป็นมืออาชีพมากขึ้น ผู้ใช้เหล่านี้มักจะลงทุนความพยายามอย่างมากในการสร้างคำสั่งและตรวจสอบผลลัพธ์ก่อนแชร์
ความแตกต่างที่สำคัญดูเหมือนจะอยู่ระหว่างการใช้ AI เป็นเครื่องมือช่วยเขียนเทียบกับการใช้มันเป็นตัวแทนของความคิดของมนุษย์ เมื่อมีคนใช้ AI เพื่อปรับปรุงไวยากรณ์หรือทำให้ความคิดที่มีอยู่ของพวกเขาชัดเจนขึ้น เจตนาของมนุษย์ที่อยู่เบื้องหลังยังคงอยู่ ปัญหาเกิดขึ้นเมื่อ AI สร้างทั้งความคิดและการแสดงออกโดยไม่มีการตรวจสอบของมนุษย์อย่างมีความหมาย
แนวทางปฏิบัติด้านมารยาท AI ที่แนะนำ:
- เปิดเผยเสมอเมื่อแชร์เนื้อหาที่สร้างโดย AI
- ตรวจสอบและยืนยันผลลัพธ์จาก AI ก่อนแชร์
- รับผิดชอบต่อความถูกต้องของเนื้อหา AI ที่แชร์
- ใช้ AI เป็นเครื่องมือช่วยเขียน ไม่ใช่ตัวแทนการคิด
- พิจารณาว่าผู้รับต้องการคำตอบที่สร้างโดย AI จริงหรือไม่
แนวทางมารยาทที่เกิดขึ้นใหม่
ฉันทามติกำลังก่อตัวขึ้นรอบหลักการมารยาท AI ขั้นพื้นฐาน ความโปร่งใสเกี่ยวกับการใช้ AI ช่วยให้ผู้รับปรับความคาดหวังของพวกเขาได้อย่างเหมาะสม ที่สำคัญกว่านั้น ใครก็ตามที่แชร์เนื้อหาที่สร้างโดย AI ควรตรวจสอบและรับมันเป็นงานของตนเอง โดยรับผิดชอบต่อความถูกต้องและความเหมาะสม
ชุมชนแนะนำว่าการพูดว่า ฉันถาม ChatGPT และนี่คือสิ่งที่มันพูด มีประโยชน์น้อยกว่าการยอมรับความไม่รู้หรือใช้เวลาเพื่อเข้าใจและตรวจสอบการตอบสนองของ AI ก่อนแชร์ข้อมูลเชิงลึกด้วยคำพูดของตนเอง แนวทางนี้เคารพทั้งเวลาของผู้รับและลักษณะการทำงานร่วมกันของการสื่อสารทางอาชีพ
เมื่อเครื่องมือ AI กลายเป็นที่ซับซ้อนมากขึ้นและยากต่อการตรวจจับมากขึ้น การเน้นย้ำในการตรวจสอบของมนุษย์และความรับผิดชอบจึงมีความสำคัญมากยิ่งขึ้น เป้าหมายไม่ใช่การกำจัดความช่วยเหลือจาก AI แต่เพื่อให้แน่ใจว่ามันเสริมสร้างมากกว่าแทนที่การสื่อสารของมนุษย์ที่มีความคิด