หลังจากผ่านไปกว่า 2 ปีของ ChatGPT สำนักข่าวยังคงดิ้นรนกับข้อบกพร่องของ AI
หลังจาก ChatGPT เปิดตัวมากว่า 2 ปี สำนักข่าวยังคงประสบปัญหาในการใช้งาน AI อย่างมีประสิทธิภาพ เผยกรณีล่าสุดการตีพิมพ์รายการหนังสือที่ไม่มีอยู่จริง สะท้อนความท้าทายในการรักษามาตรฐานวารสารศาสตร์

Key takeaway
- การใช้ AI ในวงการสื่อยังคงมีความท้าทายอย่างมาก โดยเฉพาะปัญหาการให้ข้อมูลที่ไม่ถูกต้อง (Hallucination) ดังเห็นได้จากกรณีของ Chicago Sun-Times และ Philadelphia Inquirer ที่ตีพิมพ์รายการหนังสือที่ไม่มีอยู่จริงซึ่งสร้างโดย AI
- สำนักข่าวชั้นนำอย่าง Associated Press (AP) ได้วางแนวทางการใช้ AI อย่างรับผิดชอบ โดยถือว่าข้อมูลที่ได้จาก AI เป็นแหล่งข้อมูลที่ยังไม่ได้รับการตรวจสอบ และต้องมีการตรวจสอบโดยมนุษย์ทุกครั้งก่อนเผยแพร่
- ผู้เชี่ยวชาญแนะนำให้มองว่า AI เป็นเหมือนนักวิจัยระดับต้นที่มีความสามารถสูงแต่ยังขาดความน่าเชื่อถือ และไม่สามารถทดแทนการตัดสินใจเชิงจริยธรรม การท้าทายอำนาจ และความเข้าใจในความละเอียดอ่อนของมนุษย์ได้
สำนักข่าวยังคงเผชิญปัญหาในการใช้ AI หลังจากเหตุการณ์ล่าสุดที่รายการหนังสือแนะนำซึ่งสร้างโดย AI และมีข้อมูลผิดพลาดได้ถูกตีพิมพ์โดยหนังสือพิมพ์ Chicago Sun-Times และ Philadelphia Inquirer
รายละเอียดเหตุการณ์
หนังสือพิมพ์ทั้งสองฉบับได้ตีพิมพ์เอกสารแทรกแนะนำหนังสือสำหรับฤดูร้อนที่ผลิตโดย King Features ซึ่งเป็นบริษัทในเครือของ Hearst Newspapers ที่ให้บริการเนื้อหาที่ได้รับอนุญาต แม้ว่าเอกสารจะระบุชื่อนักเขียนจริง แต่หนังสือที่แนะนำส่วนใหญ่เป็นหนังสือที่ไม่มีอยู่จริง ในที่สุด 404 Media ค้นพบว่านักเขียนมนุษย์ได้สร้างรายการโดยใช้ ChatGPT และไม่ได้ตรวจสอบข้อเท็จจริง
นักเขียนของเอกสารแทรกยอมรับว่า "ผมใช้ AI เป็นข้อมูลพื้นหลังบางครั้ง แต่มักจะตรวจสอบเนื้อหาเสมอ ครั้งนี้ผมไม่ได้ทำและผมไม่อยากเชื่อว่าผมพลาดมันไปเพราะมันชัดเจนมาก ไม่มีข้อแก้ตัว"
ความท้าทายของ AI ในวงการสื่อ
การเปิดตัว ChatGPT ของ OpenAI เมื่อกว่าสองปีที่แล้วได้จุดประกายการแข่งขันด้าน AI ส่งผลให้เกิดเครื่องมือ AI มากมายที่ช่วยให้ผู้ใช้ค้นหาข้อมูลออนไลน์โดยไม่ต้องค้นหาผ่านเว็บไซต์จำนวนมาก แต่ความสะดวกนี้มาพร้อมกับข้อเสีย เนื่องจากแชทบอท AI ยังคงให้คำตอบที่ไม่ถูกต้องหรือเป็นเพียงการคาดเดา
สำนักข่าวได้นำแชทบอท AI มาใช้ด้วยความระมัดระวัง โดยตระหนักถึงโอกาสใหม่ๆ และความเสี่ยงที่อาจเกิดขึ้น ท่ามกลางความกังวลว่า AI อาจนำไปสู่การสูญเสียงานและกระทบต่อรายได้ของสำนักข่าว อย่างไรก็ตาม การไม่นำเทคโนโลยีมาใช้อาจเสี่ยงต่อการถูกทิ้งไว้ข้างหลัง ในขณะที่คู่แข่งใช้ AI ในการวิเคราะห์ข้อมูลขนาดใหญ่ พัฒนาไอเดีย และช่วยผู้อ่านทำความเข้าใจเรื่องราวที่ซับซ้อน
แนวทางการใช้ AI อย่างรับผิดชอบ
Tracy Brown ประธานเจ้าหน้าที่ฝ่ายพันธมิตรของ Chicago Public Media บริษัทแม่ของ Sun-Times กล่าวว่า "ไม่ใช่ว่าเราห้ามใช้ AI แต่คุณต้องใช้มันอย่างรับผิดชอบและต้องทำในลักษณะที่รักษามาตรฐานบรรณาธิการและความซื่อสัตย์ไว้"
Peter Adams รองประธานอาวุโสฝ่ายวิจัยและออกแบบที่ News Literacy Project ย้ำว่าสำนักข่าวต้องรักษา "มาตรฐานและค่านิยมพื้นฐานที่เป็นแนวทางในการทำงานมาอย่างยาวนาน" รวมถึงความโปร่งใสเกี่ยวกับการใช้ AI
การตรวจสอบข้อมูลจาก AI
Associated Press (AP) ซึ่งถือเป็นมาตรฐานสูงสุดสำหรับวิธีปฏิบัติด้านวารสารศาสตร์ ได้หลีกเลี่ยงความผิดพลาดโดยมีมนุษย์คอยตรวจสอบเสมอ Amanda Barrett รองประธานฝ่ายมาตรฐานของ AP กล่าวว่าข้อมูลใดๆ ที่รวบรวมโดยใช้เครื่องมือ AI จะถือเป็นแหล่งข้อมูลที่ยังไม่ได้รับการตรวจสอบ และนักข่าวมีหน้าที่ตรวจสอบข้อมูลที่ AI ผลิตขึ้น
Zack Kass ที่ปรึกษาด้าน AI และอดีตผู้นำด้านการตลาดของ OpenAI แนะนำว่าสำนักข่าวควรปฏิบัติต่อ AI "เหมือนนักวิจัยระดับต้นที่มีพลังไม่จำกัดแต่ไม่มีความน่าเชื่อถือ" ซึ่งหมายความว่างานเขียนของ AI ควร "อยู่ภายใต้การตรวจสอบเช่นเดียวกับข้อมูลจากแหล่งที่ยังไม่ได้รับการยืนยัน"
ความผิดพลาดที่เกิดขึ้นจาก AI ในวงการข่าว
ความผิดพลาดที่มีชื่อเสียงของ AI ในสำนักข่าวมักก่อให้เกิดความอับอายอย่างมาก ตัวอย่างเช่น:
- บทสรุป AI ของ Bloomberg News ที่ประกาศในเดือนมกราคมและมีข้อผิดพลาดหลายประการ
- LA Times' Insights AI ในเดือนมีนาคมแสดงความเห็นอกเห็นใจกับ KKK ภายใน 24 ชั่วโมงหลังจากเปิดตัว
- Apple ถอนฟีเจอร์จาก Apple Intelligence AI ที่สรุปการแจ้งเตือนจากสำนักข่าวอย่างไม่ถูกต้อง
- Gannett ในปี 2023 ถูกบังคับให้หยุดการทดลอง AI หลังจากมีข้อผิดพลาดสำคัญในบทความกีฬาระดับมัธยม
- CNET ในปี 2023 ตีพิมพ์บทความที่มีข้อมูลผิดพลาดหลายเรื่อง
อย่างไรก็ตาม Felix Simon นักวิจัยด้าน AI และข่าวดิจิทัลที่ Reuters Institute for the Study of Journalism ของมหาวิทยาลัย Oxford ชี้ให้เห็นว่า "กรณีที่ร้ายแรงจริงๆ มีไม่มากนัก"
อนาคตของ AI ในวงการข่าว
นวัตกรรมการวิจัยใหม่ได้ลดการเกิด hallucinations หรือคำตอบเท็จจาก AI โดยให้แชทบอทใช้เวลาคิดมากขึ้นก่อนตอบ แต่ระบบเหล่านี้ยังไม่สมบูรณ์แบบ ซึ่งเป็นสาเหตุที่ยังคงเกิดความผิดพลาดอยู่
Chris Callison-Burch ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และสารสนเทศที่มหาวิทยาลัย Pennsylvania กล่าวว่า "บริษัท AI จำเป็นต้องสื่อสารกับผู้ใช้เกี่ยวกับความเป็นไปได้ของข้อผิดพลาดให้ดีขึ้น เพราะเราได้เห็นตัวอย่างซ้ำๆ ของผู้ใช้ที่เข้าใจผิดเกี่ยวกับวิธีใช้เทคโนโลยี"
Kass สรุปว่า "บทเรียนที่แท้จริง" ไม่ใช่แค่ว่ามนุษย์มีความจำเป็น แต่เป็น "เหตุผลที่เราจำเป็น" "ไม่ใช่เพียงเพื่อแก้ไขสิ่งที่ AI ทำผิดพลาด แต่เพื่อทำสิ่งที่ AI ไม่สามารถทำได้โดยพื้นฐาน นั่นคือการตัดสินใจเชิงจริยธรรม ท้าทายอำนาจ เข้าใจความละเอียดอ่อน และตัดสินใจว่าอะไรสำคัญจริงๆ"
Why it matters
💡 บทความนี้นำเสนอมุมมองที่สำคัญเกี่ยวกับความท้าทายที่สำนักข่าวต่างๆ กำลังเผชิญในการใช้งาน AI โดยเฉพาะ ChatGPT หลังจากผ่านมา 2 ปี ผู้อ่านจะได้เรียนรู้ถึงกรณีศึกษาจริงของความผิดพลาดที่เกิดขึ้น แนวทางการแก้ไขปัญหา และวิธีการใช้ AI อย่างมีประสิทธิภาพในวงการสื่อ ซึ่งเป็นบทเรียนสำคัญสำหรับองค์กรและผู้ที่กำลังพิจารณานำ AI มาใช้ในการทำงาน รวมถึงการรักษาสมดุลระหว่างการใช้เทคโนโลยีและการรักษามาตรฐานวิชาชีพ
ข้อมูลอ้างอิงจาก https://www.cnn.com/2025/05/28/media/ai-chatgpt-news-journalism