นักวิพากษ์ AI เงียบหายไปขณะที่อุตสาหกรรมเทคโนโลยีเปลี่ยนจากความหวาดกลัวสู่การแย่งชิงทอง

ทีมชุมชน BigGo
นักวิพากษ์ AI เงียบหายไปขณะที่อุตสาหกรรมเทคโนโลยีเปลี่ยนจากความหวาดกลัวสู่การแย่งชิงทอง

เสียงเตือนอันดังเกี่ยวกับอันตรายของปัญญาประดิษฐ์ที่ครองพาดหัวข่าวในเดือนมีนาคม 2023 ได้หายไปจากวาทกรรมสาธารณะเป็นส่วนใหญ่แล้ว สิ่งที่เคยเป็นเสียงเตือนภัยจากผู้นำด้านเทคโนโลยี นักวิจัย และผู้ลงนามกว่า 30,000 คนที่เรียกร้องให้หยุดพัฒนา AI ชั่วคราวได้จางหายไปจนแทบไม่มีเสียง คำถามไม่ใช่ว่าความเสี่ยงจาก AI หายไปแล้วหรือไม่ แต่เป็นว่าทำไมเสียงที่เตือนถึงความกังวลเหล่านี้จึงเงียบไป

ไทม์ไลน์ของการเปลี่ยนแปลงวาทกรรม AI:

  • มีนาคม 2023: ความตื่นตระหนกเรื่อง AI ถึงจุดสูงสุดด้วยลายเซ็นกว่า 30,000 รายชื่อในจดหมายเรียกร้องให้หยุดพัก
  • กลางปี 2023: บริษัทใหญ่ๆ เงียบๆ ยุบทีมจริยธรรม AI
  • ปลายปี 2023-2024: เปลี่ยนจากความระมัดระวังเป็นกรอบความคิดแบบไขทอง
  • ปัจจุบัน: เสียงที่มีความสงสัยส่วนใหญ่เงียบหรือถูกผลักไสให้อยู่ชายขอบ

ความสับสนใหญ่เรื่องศัพท์เฉพาะ

ชุมชนเทคโนโลยีได้ชี้ให้เห็นความสับสนพื้นฐานในการพูดคุยเกี่ยวกับการวิพากษ์วิจารณ์ AI นักสงสัยตัวจริงจะตั้งคำถามว่า AI มีความสามารถตามที่อ้างหรือไม่ โดยมองว่าอาจเป็นเทคโนโลยีที่ถูกโฆษณาเกินจริงและมีข้อจำกัดสำคัญ ในขณะที่ผู้เตือนเกี่ยวกับความเสี่ยงต่อการดำรงอยู่กลับเป็นผู้เชื่อในพลังของ AI - พวกเขากลัวเพราะคิดว่ามันจะมีความสามารถสูงอย่างไม่น่าเชื่อ

ความแตกต่างนี้สำคัญเพราะเผยให้เห็นความกังวลสองประเภทที่แตกต่างกันมาก กลุ่มหนึ่งกังวลว่า AI จะไม่เป็นไปตามที่โฆษณาและจะเปลืองทรัพยากรในขณะที่ก่อให้เกิดปัญหาในทางปฏิบัติอย่างการแทนที่งานและการละเมิดลิขสิทธิ์ อีกกลุ่มหนึ่งกลัวว่า AI จะเกินความคาดหมายและก่อให้เกิดภัยคุกคามต่อการอยู่รอดของมนุษยชาติ

ประเภทของการวิจารณ์ AI:

  • นักสงสัยด้านเทคนิค: ตั้งคำถามเกี่ยวกับความสามารถของ AI มองว่าเป็นเครื่องมือที่ถูกโฆษณาเกินจริงและมีข้อจำกัด
  • ผู้เชื่อในความเสี่ยงต่อการดำรงอยู่: กลัวว่า AI จะมีพลังมากเกินไปและเป็นภัยคุกคามต่อมนุษยชาติ
  • นักวิจารณ์เชิงปฏิบัติ: มุ่งเน้นไปที่ปัญหาปัจจุบันเช่น การแทนที่งาน การละเมิดลิขสิทธิ์ ผลกระทบต่อสิ่งแวดล้อม
  • ข้อกังวลด้านคุณภาพ: เน้นย้ำปัญหาเกี่ยวกับการหลอนลวง ข้อบกพร่อง และผลลัพธ์ที่ไม่น่าเชื่อถือ

ความเหนื่อยหน่ายและแรงกดดันทางสังคมนำไปสู่ความเงียบ

นักวิพากษ์ AI หลายคนเหนื่อยหน่ายจากการถกเถียงอย่างต่อเนื่องและการตอบโต้ทางสังคม ชุมชนเทคโนโลยีอาจรุนแรงเป็นพิเศษต่อผู้ที่แสดงความสงสัยเกี่ยวกับ AI โดยมักจะติดป้ายว่าเป็นการต่อต้านวิทยาศาสตร์หรือคิดแบบถอยหลัง แรงกดดันทางสังคมนี้ได้ผลักดันให้นักสงสัยหลายคนใช้กลยุทธ์แสร้งทำเป็นไม่สนใจแทนที่จะเข้าไปพัวพันกับการโต้เถียงที่น่าเหนื่อยหน่าย

มันง่ายกว่าที่จะแสร้งทำเป็นไม่สนใจหรือไม่สนใจในที่สาธารณะมากกว่าที่จะเป็นนักสงสัย

รูปแบบนี้ไม่ใช่เรื่องเฉพาะของ AI - พลวัตคล้ายกันเกิดขึ้นกับรอบการโฆษณาเทคโนโลยีก่อนหน้านี้รอบผลิตภัณฑ์อย่าง Apple Vision Pro, 3D TV และเฟรมเวิร์กการเขียนโปรแกรมต่างๆ ผู้ที่กระตือรือร้นมักจะตอบสนองต่อการวิพากษ์วิจารณ์แบบป้องกันตัว ทำให้เสียงของนักสงสัยรู้สึกไม่ได้รับการต้อนรับในการสนทนาเรื่องเทคโนโลยี

แรงจูงใจทางเศรษฐกิจเอาชนะความกังวลด้านความปลอดภัย

การเปลี่ยนจากความระมัดระวังไปสู่ความกระตือรือร้นมักจะตามเส้นทางเงิน แม้แต่อนุกนักวิพากษ์เช่น Elon Musk ที่ลงนามในจดหมายขอหยุดชั่วคราวในปี 2023 ก็ได้เปิดบริษัท AI ของตัวเอง เมื่อมีกำไรที่จะได้รับ เสียงของนักสงสัยมักจะเงียบลงหรือเปลี่ยนข้างทั้งหมด

ผู้เชี่ยวชาญบางคนได้พบประโยชน์ที่ไม่คาดคิดจากข้อจำกัดของ AI ที่ปรึกษารายงานว่าธุรกิจเพิ่มขึ้นในการช่วยบริษัทแก้ไขโค้ดที่มีข้อบกพร่องที่สร้างโดย AI ในขณะที่ความต้องการความเชี่ยวชาญของมนุษย์เพิ่มขึ้นเมื่อข้อบกพร่องของ AI กลายเป็นที่ชัดเจนในการประยุกต์ใช้ในโลกจริง

กลยุทธ์ขององค์กรเบื้องหลังความเงียบ

การหายไปของทีมจริยธรรม AI ที่บริษัทใหญ่ๆ ในปี 2023 ส่งสัญญาณการเปลี่ยนแปลงเชิงกลยุทธ์ ทีมเหล่านี้ถูกยุบอย่างเงียบๆ ในช่วงเวลาเดียวกับที่ความคลั่งไคล้ LLM เร่งตัวขึ้น บ่งบอกว่าความสำคัญขององค์กรเปลี่ยนจากการจัดการความเสี่ยงไปสู่การคว้าโอกาสในตลาด

ชุมชนสังเกตว่าเมื่อ CEO ของบริษัทเทคโนโลยีเตือนเกี่ยวกับอันตรายของ AI มันมีจุดประสงค์สองประการ: สร้างการประชาสัmpaniesเกี่ยวกับพลังที่คาดว่าจะมีของเทคโนโลยีของพวกเขาในขณะที่จัดตั้งกรอบการกำกับดูแลที่อาจปกป้องผู้เล่นที่มีอยู่แล้วจากคู่แข่งที่เล็กกว่า

การตรวจสอบความเป็นจริง

เมื่อระบบ AI ถูกนำไปใช้อย่างแพร่หลายมากขึ้น ความกลัวเริ่มต้นหลายอย่างเกี่ยวกับความก้าวหน้าอย่างรวดเร็วไปสู่ปัญญาเหนือมนุษย์ได้พิสูจน์แล้วว่าเร็วเกินไป ระบบ AI ปัจจุบันยังคงมีข้อบกพร่อง ไม่น่าเชื่อถือ และมีข้อจำกัดในแบบที่ทำให้ความเสี่ยงต่อการดำรงอยู่ดูเหมือนเร่งด่วนน้อยลง ความเป็นจริงนี้ได้ลดความเร่งด่วนรอบสถานการณ์วันสิ้นโลกอย่างเป็นธรรมชาติ

อย่างไรก็ตาม ความกังวลในทางปฏิบัติเกี่ยวกับผลกระทบของ AI ต่อการศึกษา ข้อมูลที่ผิด และการแทนที่ทางเศรษฐกิจยังคงมีความถูกต้อง ความท้าทายคือการแยกแยะระหว่างความกลัวแบบนิยายวิทยาศาสตร์และปัญหาในโลกจริงที่ต้องการความสนใจในวันนี้

ความเงียบของนักสงสัย AI ไม่ได้หมายความว่าความกังวลหายไป - มันสะท้อนส่วนผสมที่ซับซ้อนของแรงกดดันทางสังคม แรงจูงใจทางเศรษฐกิจ และความเข้าใจที่พัฒนาไปเกี่ยวกับสิ่งที่ AI สามารถทำได้จริงเทียบกับสิ่งที่เรากลัวว่ามันอาจกลายเป็น

อ้างอิง: Where Did All the AI Doomers Go? The Quiet Disappearance of Skeptics in the AI Gold Rush