ปัญหาในที่ทำงานที่เพิ่มขึ้นกำลังเกิดขึ้นเมื่อผู้เชี่ยวชาญจำนวนมากขึ้นใช้เครื่องมือ AI เพื่อสร้างเอกสารและการสื่อสาร พนักงานรายงานความยากลำบากอย่างมีนัยสำคัญในการอ่านและเข้าใจเนื้อหาที่สร้างโดย AI ซึ่งนำไปสู่สิ่งที่ผู้เชี่ยวชาญเรียกว่าความเหนื่อยล้าจากการอ่าน AI
ปัญหานี้เริ่มชัดเจนขึ้นเมื่อพนักงานเทคโนโลยีคนหนึ่งได้รับเอกสารออกแบบที่มีความยาวซึ่งดูเหมือนเขียนได้ดีแต่ยากมากที่จะติดตาม หลังจากดิ้นรนผ่านเนื้อหาแล้ว พวกเขาค้นพบว่าเอกสารส่วนใหญ่ถูกสร้างโดย Large Language Model (LLM) ประสบการณ์นี้เน้นย้ำปัญหาพื้นฐาน: เมื่อมนุษย์อ่านข้อความ พวกเขาสมมติว่าทุกประโยคมีจุดประสงค์และความหมายเบื้องหลัง
ปัญหาความตั้งใจเบื้องหลังเนื้อหาที่สร้างโดย AI
ปัญหาหลักอยู่ในสิ่งที่นักวิจัยเรียกว่าช่องว่างความตั้งใจ เมื่อมนุษย์เขียน การเลือกใช้คำทุกคำสะท้อนถึงความคิดและเป้าหมายของพวกเขา ผู้อ่านมองหาจุดประสงค์ที่อยู่เบื้องหลังนี้อย่างเป็นธรรมชาติ พยายามเข้าใจไม่เพียงแค่สิ่งที่ข้อความกล่าว แต่ว่าทำไมผู้เขียนถึงเลือกใช้คำเหล่านั้นโดยเฉพาะ
ข้อความที่สร้างโดย AI ทำลายสมมติฐานนี้ LLM สร้างเนื้อหาผ่านรูปแบบทางสถิติมากกว่าความตั้งใจที่แท้จริง สิ่งนี้สร้างเอกสารที่เต็มไปด้วยสิ่งที่ดูเหมือนเนื้อหาที่มีความหมายแต่มักจะมีข้อมูลเติมเต็มที่ไม่จำเป็นหรือข้อมูลที่หลอนที่ฟังดูดีแต่ขาดจุดประสงค์ที่แท้จริง
ในที่ทำงานฉันไม่ได้พยายามเชื่อมต่อกับผู้คนในระดับใดๆ มากไปกว่าการอยู่ในระดับเดียวกันกับสิ่งที่เรากำลังทำงานอยู่... หากคุณจ้างเหมาการส่งการสื่อสารของคุณให้กับ SlopBot และฉันจ้างเหมาการอ่านการสื่อสารดังกล่าวให้กับ SlopBot อีกตัวเพื่อสรุปหรืออะไรก็ตาม เรากำลังเพิ่มเสียงรบกวนมากมายจนมันกลายเป็นงานที่มากขึ้น
ปัญหาหลักของเอกสารที่สร้างโดย AI:
- เนื้อหาที่ใช้เติมเต็มมากเกินไปจนทำให้ผู้อ่านสับสน
- ขาดเจตนาแท้จริงของมนุษย์ที่อยู่เบื้องหลังการเลือกใช้คำ
- ต้นทุนด้านผลิตภาพที่ซ่อนเร้นจากการใช้เวลาอ่านที่เพิ่มขึ้น
- ความจำเป็นในการตรวจสอบข้อเท็จจริงและพิสูจน์อักษรอย่างต่อเนื่อง
- อุปสรรคด้านการสื่อสารในสภาพแวดล้อมการทำงาน
ผลกระทบในที่ทำงานและต้นทุนที่ซ่อนอยู่
ผลกระทบในที่ทำงานมีนัยสำคัญ พนักงานรายงานว่าใช้เวลาเพิ่มเติมในการพยายามถอดรหัสเอกสารที่สร้างโดย AI ค้นหาความหมายที่อาจไม่มีอยู่ สิ่งนี้สร้างต้นทุนผลิตภาพที่ซ่อนอยู่เนื่องจากพนักงานต้องทำหน้าที่เป็นทั้งผู้อ่านและผู้พิสูจน์อักษร คอยตั้งคำถามอย่างต่อเนื่องว่าเนื้อหามีข้อผิดพลาดหรือข้อมูลที่ไม่เกี่ยวข้องหรือไม่
ผู้เชี่ยวชาญบางคนได้พัฒนากลยุทธ์เพื่อแก้ไขปัญหานี้ พวกเขาใช้เครื่องมือ AI สำหรับการวิจัยและการให้ข้อเสนอแนะมากกว่าการสร้างเนื้อหา หรือพวกเขาเขียนคำสั่งที่มีรายละเอียดเพื่อลดเนื้อหาเติมเต็ม อย่างไรก็ตาม วิธีการเหล่านี้ต้องการการลงทุนด้านเวลาและความรู้ทางเทคนิคอย่างมาก
กลยุทธ์การใช้ AI อย่างมีประสิทธิภาพ:
- ใช้ AI สำหรับการวิจัยและค้นหาข้อมูลอ้างอิงแทนการเขียน
- เขียนเนื้อหาด้วยตนเองและใช้ AI สำหรับการให้ข้อเสนอแนะ/ตรวจสอบ
- สร้างคำสั่งที่มีรายละเอียดเพื่อลดเนื้อหาที่ไม่จำเป็นเมื่อต้องให้ AI เขียน
- กำหนดให้เปิดเผยเมื่อ AI สร้างส่วนสำคัญของเอกสาร
- มุ่งเน้นให้ AI เป็นเครื่องมือช่วยเหลือแทนที่จะเป็นตัวแทนการสื่อสารของมนุษย์
การหาสมดุลในการใช้ AI
การอภิปรายไม่ได้เกี่ยวกับการหลีกเลี่ยงเครื่องมือ AI อย่างสมบูรณ์ ผู้เชี่ยวชาญหลายคนพบคุณค่าในการใช้ LLM สำหรับงานเฉพาะเจาะจงเช่นการหาข้อมูลอ้างอิงการวิจัยหรือการจัดรูปแบบเนื้อหาที่มีอยู่ กุญแจสำคัญคือการเข้าใจว่าเมื่อใด AI เพิ่มคุณค่าเมื่อเทียบกับเมื่อใดที่มันสร้างอุปสรรคในการสื่อสาร
ความท้าทายที่จะเกิดขึ้นจะเป็นการสร้างบรรทัดฐานในที่ทำงานเกี่ยวกับการใช้ AI บางคนแนะนำให้เปิดเผยเมื่อ AI สร้างส่วนสำคัญของเอกสาร คนอื่นๆ สนับสนุนการใช้ AI เป็นผู้ช่วยวิจัยมากกว่าการทดแทนการเขียนและการคิดของมนุษย์
เมื่อเครื่องมือ AI มีความซับซ้อนมากขึ้น ปัญหาพื้นฐานยังคงไม่เปลี่ยนแปลง ไม่ว่าระบบเหล่านี้จะก้าวหน้าแค่ไหน พวกมันไม่สามารถจำลองความตั้งใจและความใส่ใจของมนุษย์ที่ทำให้การสื่อสารมีความหมายและมีประสิทธิภาพ
อ้างอิง: Al stands for Artificial Inanity