AI ลุกลามสู่สื่อชั้นนำ: เมื่อบทความในหนังสือพิมพ์ดังอาจไม่ได้เขียนโดยมนุษย์
นักเขียนตั้งข้อสงสัยบทความ NYT ว่าสร้างด้วย AI จุดชนวนถกเถียงครั้งใหญ่ งานวิจัยพบ AI แพร่กระจายในสื่อชั้นนำทั่วสหรัฐฯ พร้อมเรียกร้องนโยบาย Disclosure ที่ชัดเจน
Key takeaway
- AI-generated content กำลังแทรกซึมเข้าสู่สื่อกระแสหลักระดับโลกอย่าง The New York Times, The Wall Street Journal และ The Washington Post โดยที่ผู้อ่านส่วนใหญ่ไม่รู้ตัว และ AI-detection tools ในปัจจุบันยังให้ผลลัพธ์ที่ไม่สอดคล้องกัน ทำให้การพิสูจน์ว่าบทความใดถูกสร้างจาก AI นั้นยังไม่มีมาตรฐานที่ชัดเจน
- ความเสี่ยงที่แท้จริงไม่ใช่แค่เรื่องของ authorship แต่คือ AI output ที่มีลักษณะ homogenous และอาจฝัง bias ทางวัฒนธรรมหรือการเมืองโดยไม่รู้ตัว รวมถึงงานวิจัยยืนยันว่า AI-generated content มีพลังในการ persuade สูงกว่าปกติ จนถึงขั้นเปลี่ยนความคิดเห็นทางการเมืองของผู้อ่านได้
- แม้จะมีแนวทางแก้ไขเช่น disclosure policy, AI-detection tools และ watermarking แต่ปัจจัยที่ขัดขวางการเปลี่ยนแปลงที่สำคัญที่สุดคือ business model ของบริษัท AI เองที่ต้องการให้ภาษาของ AI แยกไม่ออกจากภาษามนุษย์ ทำให้การ implement watermarking อย่างจริงจังยังคงเป็นเรื่องที่ไม่น่าจะเกิดขึ้นในเร็วๆ นี้
เมื่อไม่นานมานี้ นักเขียนชื่อ Becky Tuch ได้โพสต์ข้อความบนแพลตฟอร์ม X โดยยกตัวอย่างบทความจากคอลัมน์ "Modern Love" ของหนังสือพิมพ์ The New York Times พร้อมตั้งข้อสังเกตว่า "บทความนี้อ่านแล้วรู้สึกเหมือนเนื้อหาที่สร้างขึ้นด้วย AI ทุกประการ" จุดชนวนให้เกิดการถกเถียงอย่างกว้างขวางเกี่ยวกับการแพร่หลายของ AI-generated content ในสื่อกระแสหลัก
Tuhin Chakrabarty นักวิจัยด้าน AI และอาจารย์ประจำภาควิชา Computer Science แห่ง Stony Brook University ได้นำข้อความดังกล่าวไปวิเคราะห์ผ่าน AI-detection tool ของ start-up Pangram Labs ซึ่งระบุว่าข้อความนั้นมีความเป็นไปได้สูงที่จะถูกสร้างขึ้นโดย AI เมื่อนำบทความทั้งชิ้นเข้าสู่ระบบ ผลการประเมินพบว่ากว่า 60% ของเนื้อหาน่าจะมาจาก AI อย่างไรก็ตาม เมื่อทดสอบผ่าน detection tools อื่นอีก 4 ตัว ผลลัพธ์กลับแตกต่างกันอย่างมีนัยสำคัญ โดยบางตัวระบุว่ามีเนื้อหาจาก AI ถึง 30% ขณะที่บางตัวไม่พบสัญญาณของ AI เลย
ผู้เขียนยอมรับใช้ AI เป็นเครื่องมือช่วยงาน
Kate Gilgan ผู้เขียนบทความดังกล่าว ยอมรับว่าได้ใช้ AI เป็นเครื่องมือในกระบวนการทำงาน แม้จะไม่ได้คัดลอก output มาใช้โดยตรง โดยระบุว่าตนใช้ผลิตภัณฑ์หลายตัว ได้แก่ ChatGPT, Claude, Copilot, Gemini และ Perplexity เพื่อช่วยในการ brainstorm และปรับแก้เนื้อหา พร้อมชี้แจงว่า "ใช้ AI ในฐานะ collaborative editor ไม่ใช่ content generator"
ด้าน The New York Times โฆษกของสำนักพิมพ์ชี้แจงว่า สัญญาที่ทำกับ freelancer กำหนดให้ต้องปฏิบัติตาม ethical-journalism handbook ซึ่งระบุไว้อย่างชัดเจนว่า หากมีการใช้ Generative AI อย่างมีนัยสำคัญ จะต้อง disclose ต่อผู้อ่านทุกครั้ง
กรณีศึกษา: AI Slop ที่พบในสื่อและสำนักพิมพ์ชั้นนำ
เหตุการณ์ลักษณะนี้ไม่ได้เกิดขึ้นเป็นครั้งแรก ก่อนหน้านี้ Hachette สำนักพิมพ์ระดับโลก ประกาศยกเลิกการตีพิมพ์นิยายเรื่อง Shy Girl หลังจากผู้อ่านตรวจพบว่ามีข้อความที่สร้างขึ้นโดย AI แทรกอยู่ในเนื้อหา ขณะที่ Chicago Sun-Times และ The Philadelphia Inquirer ก็ถูกจับได้ว่าตีพิมพ์ summer-reading guide ที่ freelancer สร้างขึ้นด้วย ChatGPT โดยมีการอ้างอิงถึงนิยายที่ไม่มีอยู่จริง
งานวิจัย: AI แพร่กระจายในสื่อสิ่งพิมพ์ระดับชาติ
Jenna Russell นักศึกษาปริญญาเอกด้าน Computer Science จาก University of Maryland และทีมวิจัยอีก 6 คน ได้ใช้ Pangram ในการสแกนบทความหลายพันชิ้น และพบว่ามีการตรวจพบการใช้ AI ในสื่อทั่วสหรัฐอเมริกา รวมถึงในส่วน opinion section ของ The New York Times, The Wall Street Journal และ The Washington Post ผลการศึกษาชี้ให้เห็นว่านักเขียนหันมาพึ่งพา AI มากกว่าที่ผู้อ่านจะคาดคิด ทั้งนี้ งานวิจัยดังกล่าวได้รับการตีพิมพ์เป็น preprint ในเดือนตุลาคม แม้จะยังไม่ผ่านกระบวนการ peer-review
ความเสี่ยงที่ซ่อนอยู่: เมื่อ AI เริ่มครอบงำ Public Discourse
งานวิจัยพบว่า AI output มีลักษณะที่ homogenous กว่าภาษาของมนุษย์อย่างมีนัยสำคัญ นอกจากนี้ AI model ยังอาจมี bias ในเชิงวัฒนธรรมและการเมืองแฝงอยู่ด้วย ตัวอย่างเช่น การวิเคราะห์ Grok chatbot พบว่า output มักสะท้อน perspective ของ Elon Musk ผู้พัฒนาระบบ ที่น่ากังวลยิ่งกว่านั้น งานวิจัยหลายชิ้น รวมถึงจากบริษัท AI เอง ยืนยันว่า AI-generated content มีความสามารถในการ persuade ผู้อ่านสูงกว่าปกติ และในบางกรณีถึงขั้นเปลี่ยนความคิดเห็นทางการเมืองได้
แนวทางแก้ไข: Policy, Disclosure และ Watermarking
ผู้เชี่ยวชาญเสนอแนวทางแก้ไขหลายประการ ดังนี้
- สำนักพิมพ์ ควรกำหนดนโยบายการใช้ AI ที่ชัดเจน และบังคับใช้ข้อกำหนด disclosure ในสัญญากับ contributor ทุกราย ในแบบเดียวกับ The Atlantic ที่กำหนดให้ผู้เขียนรับรองว่าตนเป็น "sole author" และห้ามใช้ AI-generated content โดยไม่ได้รับอนุมัติ
- Editor ควรได้รับการฝึกอบรมในการระบุลักษณะเฉพาะของ AI และใช้ AI-detection tools ประกอบการตัดสินใจ
- ภาครัฐ อาจพิจารณาออก legislation กำหนดให้มีการ disclose การใช้ AI ในบริบทที่เหมาะสม แม้จะต้องเผชิญกับความท้าทายในประเด็น free speech
- บริษัท AI ควรรับผิดชอบด้วยการ implement watermarking บน output ของตน
อย่างไรก็ตาม The Wall Street Journal รายงานในปี 2024 ว่า OpenAI ได้พัฒนา tool ที่สามารถ detect AI-generated text ได้ด้วยความแม่นยำสูงถึง 99.9% แต่ยังคงไม่ได้ release ออกมา โดยปัจจัยหนึ่งมาจากผลสำรวจที่พบว่า ผู้ใช้บางส่วนจะลดการใช้งาน ChatGPT ลง หากมีการ deploy watermarks
Chakrabarty ตั้งคำถามที่ตรงประเด็นที่สุดในเรื่องนี้ว่า "ทำไม Anthropic หรือ OpenAI ถึงจะทำสิ่งนั้น ในเมื่อ business model ทั้งหมดของพวกเขาตั้งอยู่บนการทำให้คนเชื่อว่าภาษาของ AI นั้นไม่ต่างจากภาษามนุษย์?"
Why it matters
💡 ในยุคที่ AI กำลังแทรกซึมเข้าสู่ทุกมิติของสื่อสารมวลชน นักเขียนและนักพัฒนาเทคโนโลยีทุกคนจำเป็นต้องเข้าใจความเสี่ยงที่ซ่อนอยู่เบื้องหลัง AI-generated content ในสื่อชั้นนำอย่าง The New York Times และ The Washington Post เพราะเมื่อ AI สามารถครอบงำ public discourse ได้โดยที่ผู้อ่านไม่รู้ตัว ทั้งยังมีศักยภาพในการเปลี่ยนความคิดเห็นทางการเมือง ความโปร่งใสและมาตรฐาน disclosure จึงไม่ใช่แค่ประเด็นจริยธรรม แต่คือรากฐานสำคัญของความน่าเชื่อถือในวงการสื่อและอุตสาหกรรม AI ทั้งหมด
ข้อมูลอ้างอิงจาก https://www.theatlantic.com/culture/2026/03/how-ai-creeping-new-york-times/686528/