เว็บไซต์โคลน Wikipedia ที่สร้างด้วย AI ปิดตัวลงหลังค่าใช้จ่าย Scraping อัตโนมัติทำให้ผู้สร้างเสียเงิน 70 ดอลลาร์สหรัฐในข้ามคืน

ทีมชุมชน BigGo
เว็บไซต์โคลน Wikipedia ที่สร้างด้วย AI ปิดตัวลงหลังค่าใช้จ่าย Scraping อัตโนมัติทำให้ผู้สร้างเสียเงิน 70 ดอลลาร์สหรัฐในข้ามคืน

การทดลองของนักพัฒนาในการสร้าง Wikipedia ที่สร้างด้วย AI แบบไม่มีที่สิ้นสุดได้เจอกับอุปสรรคที่ไม่คาดคิด โปรเจกต์ที่ชื่อ EndlessWiki ถูกบังคับให้ปิดการสร้างหน้าใหม่ชั่วคราวหลังจากการเข้าชมแบบอัตโนมัติทำให้เกิดค่าใช้จ่าย inference สูงถึง 70 ดอลลาร์สหรัฐในคืนเดียว

ผู้สร้างได้พัฒนา EndlessWiki เป็นวิธีการแบบโต้ตอบในการสำรวจความรู้ที่อยู่ภายใน large language models ต่างจาก Wikipedia แบบดั้งเดิม ทุกหน้าในเว็บไซต์นี้จะถูกสร้างขึ้นโดย AI เมื่อผู้ใช้คลิกลิงก์ แนวคิดนี้ได้รับแรงบันดาลใจจาก Library of Babel ของ Jorge Luis Borges ซึ่งเป็นแนวคิดที่ว่า language models มีข้อความที่เป็นไปได้มากมายรออยู่ให้ค้นพบ

ผลกระทบด้านต้นทุน:

  • ต้นทุนการ Scraping ข้ามคืน: $70 USD
  • ประเภทการเข้าชม: บอทอัตโนมัติที่คลิกลิงก์
  • โมเดลต้นทุนเดิม: เข้าถึงฟรี ไม่ต้องลงชื่อเข้าใช้
  • สถานะปัจจุบัน: เปิดใช้งานใหม่พร้อมการจำกัดอัตรา

ความเป็นจริงที่มีค่าใช้จ่ายสูงของบริการ AI สาธารณะ

สิ่งที่เริ่มต้นเป็นการทดลองที่ไร้เดียงสากลายเป็นบทเรียนที่มีค่าใช้จ่ายสูงเกี่ยวกับความเป็นจริงของอินเทอร์เน็ต นักพัฒนาในตอนแรกไม่ได้กังวลเรื่องค่าใช้จ่าย โดยคิดว่าการคลิกลิงก์ด้วยมือจะทำให้การใช้งานอยู่ในระดับที่สมเหตุสมผล อย่างไรก็ตาม บอทอัตโนมัติเริ่มทำการ scraping เว็บไซต์ในช่วงกลางคืน สร้างหน้าแล้วหน้าเล่า และทำให้ค่าใช้จ่าย inference พุ่งสูงขึ้น

การตอบสนองจากชุมชนเผยให้เห็นปัญหาที่กว้างขึ้นเกี่ยวกับบริการเว็บสาธารณะ นักพัฒนาหลายคนชี้ให้เห็นว่าการเข้าชมของบอทเป็นเรื่องปกติของชีวิตสำหรับเว็บไซต์สาธารณะใดๆ เสิร์ชเอนจิน, scraper และเครื่องมืออัตโนมัติต่างๆ คอยสำรวจเว็บอย่างต่อเนื่อง โดยมักไม่คำนึงถึงค่าใช้จ่ายในการประมวลผลที่พวกเขาสร้างขึ้นให้กับผู้ดำเนินการเว็บไซต์

ข้อสังเกตที่น่าสนใจเป็นพิเศษจากชุมชนคือความขัดแย้งของสถานการณ์:

มันเป็นจุดจบที่เหมือนบทกวี เมื่อพิจารณาว่ากิจกรรม scraping แบบเดียวกันนี้ที่ไม่คำนึงถึงค่าใช้จ่ายของผู้ดำเนินการเว็บไซต์ คือวิธีที่โมเดลเหล่านี้ถูกฝึกมาตั้งแต่แรก

ความท้าทายทางเทคนิคและมาตรการป้องกันการโกง

นอกจากความกังวลเรื่องค่าใช้จ่ายแล้ว โปรเจกต์ยังเผชิญกับความท้าทายทางเทคนิคที่น่าสนใจ นักพัฒนาได้ใช้ระบบป้องกันการโกงเพื่อป้องกันไม่ให้ผู้ใช้เข้าถึงหน้าเฉพาะเจาะจงผ่านการจัดการ URL ลิงก์แต่ละอันจะมี origin parameter ที่ได้รับการตรวจสอบที่ฝั่งเซิร์ฟเวอร์เพื่อให้แน่ใจว่าผู้ใช้กำลังติดตามโครงสร้างลิงก์ที่สร้างโดย AI อย่างแท้จริง

สถาปัตยกรรมเองยังคงค่อนข้างเรียบง่าย: ฐานข้อมูล MySQL ที่เก็บหน้าที่สร้างขึ้นและเซิร์ฟเวอร์ Golang ที่ให้บริการเนื้อหาที่มีอยู่หรือสร้างหน้าใหม่โดยใช้โมเดล Kimi K2 ผ่านบริการ inference ของ Groq การเลือกใช้โมเดลที่ใหญ่กว่าเป็นการตั้งใจ เนื่องจากโมเดลที่ใหญ่กว่ามักจะมีความรู้เชิงข้อเท็จจริงมากกว่าที่เหมาะสำหรับเนื้อหาแบบสารานุกรม

สถาปัตยกรรมทางเทคนิค:

  • Backend: เซิร์ฟเวอร์ Golang พร้อมฐานข้อมูล MySQL
  • โมเดล AI: เริ่มต้นใช้ Kimi K2 ต่อมาเปลี่ยนเป็น GPT-OSS-120B
  • ผู้ให้บริการ Inference: Groq (เลือกใช้เพื่อความเร็วและความน่าเชื่อถือ)
  • เวลาตอบสนอง: ไม่กี่ร้อยมิลลิวินาทีสำหรับการสร้างหน้าเว็บ
  • ป้องกันการโกง: ระบบตรวจสอบ origin slug

ความสงสัยของชุมชนและความกังวลเรื่องการหลอนลวง

การตอบสนองของชุมชนเผยให้เห็นความรู้สึกที่หลากหลายเกี่ยวกับเนื้อหาสารานุกรมที่สร้างโดย AI ผู้ใช้บางคนแสดงความกังวลเกี่ยวกับศักยภาพของข้อมูลที่เป็นภาพลวงตา โดยอธิบายว่าเป็นทางลาดลื่นสู่นรกแห่งภาพลวงตา คนอื่นๆ ตั้งคำถามว่าการเอาการควบคุมการแก้ไขของมนุษย์ออกไป ซึ่งหลายคนมองว่าเป็นจุดแข็งของ Wikipedia จะทำลายแนวคิดทั้งหมดหรือไม่

แม้จะมีความกังวลเหล่านี้ สมาชิกชุมชนบางคนเห็นศักยภาพในแนวทางนี้ พวกเขาแนะนำว่าด้วยการตรวจสอบข้อเท็จจริงและการตรวจสอบการอ้างอิงที่เหมาะสม wiki ที่สร้างโดย AI อาจสามารถครอบคลุมหัวข้อได้มากกว่าเวอร์ชันที่แก้ไขโดยมนุษย์ และอาจใหญ่กว่า Wikipedia ปัจจุบันถึง 1000 เท่า

อนาคตของการสำรวจความรู้ที่ขับเคลื่อนด้วย AI

นักพัฒนาได้เปิดบริการใหม่พร้อมกับการจำกัดอัตราและเปลี่ยนไปใช้โมเดลอื่น ( GPT-OSS-120B ) เพื่อจัดการค่าใช้จ่าย เหตุการณ์นี้เน้นย้ำถึงความท้าทายที่ยังคงมีอยู่ในการทำให้บริการ AI เข้าถึงได้สำหรับสาธารณะในขณะที่จัดการค่าใช้จ่ายในการดำเนินงาน

โปรเจกต์นี้เป็นส่วนหนึ่งของแนวโน้มที่กว้างขึ้นไปสู่อินเทอร์เฟซที่ไม่ใช่แชทสำหรับ language models แทนที่จะเป็นการโต้ตอบแบบถาม-ตอบแบบดั้งเดิม EndlessWiki เสนอแนวทางการค้นพบความรู้ AI แบบสำรวจมากกว่า คล้ายกับวิธีที่ผู้คนเรียกดู Wikipedia โดยธรรมชาติผ่านการติดตามลิงก์ที่น่าสนใจ

แม้ว่าอนาคตในอันใกล้ของ EndlessWiki จะยังไม่แน่นอนเนื่องจากแรงกดดันด้านค่าใช้จ่าย การทดลองนี้ได้ให้ข้อมูลเชิงลึกที่มีค่าเกี่ยวกับทั้งศักยภาพและข้อผิดพลาดของการทำให้การสร้างความรู้ที่ขับเคลื่อนด้วย AI เป็นประชาธิปไตย

อ้างอิง: Endless Al-generated Wikipedia