หลังจากผ่านไปกว่า 2 ปีของ ChatGPT สำนักข่าวยังคงดิ้นรนกับข้อบกพร่องของ AI

หลังจาก ChatGPT เปิดตัวมากว่า 2 ปี สำนักข่าวยังคงประสบปัญหาในการใช้งาน AI อย่างมีประสิทธิภาพ เผยกรณีล่าสุดการตีพิมพ์รายการหนังสือที่ไม่มีอยู่จริง สะท้อนความท้าทายในการรักษามาตรฐานวารสารศาสตร์

หลังจากผ่านไปกว่า 2 ปีของ ChatGPT สำนักข่าวยังคงดิ้นรนกับข้อบกพร่องของ AI

Key takeaway

  • การใช้ AI ในวงการสื่อยังคงมีความท้าทายอย่างมาก โดยเฉพาะปัญหาการให้ข้อมูลที่ไม่ถูกต้อง (Hallucination) ดังเห็นได้จากกรณีของ Chicago Sun-Times และ Philadelphia Inquirer ที่ตีพิมพ์รายการหนังสือที่ไม่มีอยู่จริงซึ่งสร้างโดย AI
  • สำนักข่าวชั้นนำอย่าง Associated Press (AP) ได้วางแนวทางการใช้ AI อย่างรับผิดชอบ โดยถือว่าข้อมูลที่ได้จาก AI เป็นแหล่งข้อมูลที่ยังไม่ได้รับการตรวจสอบ และต้องมีการตรวจสอบโดยมนุษย์ทุกครั้งก่อนเผยแพร่
  • ผู้เชี่ยวชาญแนะนำให้มองว่า AI เป็นเหมือนนักวิจัยระดับต้นที่มีความสามารถสูงแต่ยังขาดความน่าเชื่อถือ และไม่สามารถทดแทนการตัดสินใจเชิงจริยธรรม การท้าทายอำนาจ และความเข้าใจในความละเอียดอ่อนของมนุษย์ได้

สำนักข่าวยังคงเผชิญปัญหาในการใช้ AI หลังจากเหตุการณ์ล่าสุดที่รายการหนังสือแนะนำซึ่งสร้างโดย AI และมีข้อมูลผิดพลาดได้ถูกตีพิมพ์โดยหนังสือพิมพ์ Chicago Sun-Times และ Philadelphia Inquirer

รายละเอียดเหตุการณ์

หนังสือพิมพ์ทั้งสองฉบับได้ตีพิมพ์เอกสารแทรกแนะนำหนังสือสำหรับฤดูร้อนที่ผลิตโดย King Features ซึ่งเป็นบริษัทในเครือของ Hearst Newspapers ที่ให้บริการเนื้อหาที่ได้รับอนุญาต แม้ว่าเอกสารจะระบุชื่อนักเขียนจริง แต่หนังสือที่แนะนำส่วนใหญ่เป็นหนังสือที่ไม่มีอยู่จริง ในที่สุด 404 Media ค้นพบว่านักเขียนมนุษย์ได้สร้างรายการโดยใช้ ChatGPT และไม่ได้ตรวจสอบข้อเท็จจริง

นักเขียนของเอกสารแทรกยอมรับว่า "ผมใช้ AI เป็นข้อมูลพื้นหลังบางครั้ง แต่มักจะตรวจสอบเนื้อหาเสมอ ครั้งนี้ผมไม่ได้ทำและผมไม่อยากเชื่อว่าผมพลาดมันไปเพราะมันชัดเจนมาก ไม่มีข้อแก้ตัว"

ความท้าทายของ AI ในวงการสื่อ

การเปิดตัว ChatGPT ของ OpenAI เมื่อกว่าสองปีที่แล้วได้จุดประกายการแข่งขันด้าน AI ส่งผลให้เกิดเครื่องมือ AI มากมายที่ช่วยให้ผู้ใช้ค้นหาข้อมูลออนไลน์โดยไม่ต้องค้นหาผ่านเว็บไซต์จำนวนมาก แต่ความสะดวกนี้มาพร้อมกับข้อเสีย เนื่องจากแชทบอท AI ยังคงให้คำตอบที่ไม่ถูกต้องหรือเป็นเพียงการคาดเดา

สำนักข่าวได้นำแชทบอท AI มาใช้ด้วยความระมัดระวัง โดยตระหนักถึงโอกาสใหม่ๆ และความเสี่ยงที่อาจเกิดขึ้น ท่ามกลางความกังวลว่า AI อาจนำไปสู่การสูญเสียงานและกระทบต่อรายได้ของสำนักข่าว อย่างไรก็ตาม การไม่นำเทคโนโลยีมาใช้อาจเสี่ยงต่อการถูกทิ้งไว้ข้างหลัง ในขณะที่คู่แข่งใช้ AI ในการวิเคราะห์ข้อมูลขนาดใหญ่ พัฒนาไอเดีย และช่วยผู้อ่านทำความเข้าใจเรื่องราวที่ซับซ้อน

แนวทางการใช้ AI อย่างรับผิดชอบ

Tracy Brown ประธานเจ้าหน้าที่ฝ่ายพันธมิตรของ Chicago Public Media บริษัทแม่ของ Sun-Times กล่าวว่า "ไม่ใช่ว่าเราห้ามใช้ AI แต่คุณต้องใช้มันอย่างรับผิดชอบและต้องทำในลักษณะที่รักษามาตรฐานบรรณาธิการและความซื่อสัตย์ไว้"

Peter Adams รองประธานอาวุโสฝ่ายวิจัยและออกแบบที่ News Literacy Project ย้ำว่าสำนักข่าวต้องรักษา "มาตรฐานและค่านิยมพื้นฐานที่เป็นแนวทางในการทำงานมาอย่างยาวนาน" รวมถึงความโปร่งใสเกี่ยวกับการใช้ AI

การตรวจสอบข้อมูลจาก AI

Associated Press (AP) ซึ่งถือเป็นมาตรฐานสูงสุดสำหรับวิธีปฏิบัติด้านวารสารศาสตร์ ได้หลีกเลี่ยงความผิดพลาดโดยมีมนุษย์คอยตรวจสอบเสมอ Amanda Barrett รองประธานฝ่ายมาตรฐานของ AP กล่าวว่าข้อมูลใดๆ ที่รวบรวมโดยใช้เครื่องมือ AI จะถือเป็นแหล่งข้อมูลที่ยังไม่ได้รับการตรวจสอบ และนักข่าวมีหน้าที่ตรวจสอบข้อมูลที่ AI ผลิตขึ้น

Zack Kass ที่ปรึกษาด้าน AI และอดีตผู้นำด้านการตลาดของ OpenAI แนะนำว่าสำนักข่าวควรปฏิบัติต่อ AI "เหมือนนักวิจัยระดับต้นที่มีพลังไม่จำกัดแต่ไม่มีความน่าเชื่อถือ" ซึ่งหมายความว่างานเขียนของ AI ควร "อยู่ภายใต้การตรวจสอบเช่นเดียวกับข้อมูลจากแหล่งที่ยังไม่ได้รับการยืนยัน"

ความผิดพลาดที่เกิดขึ้นจาก AI ในวงการข่าว

ความผิดพลาดที่มีชื่อเสียงของ AI ในสำนักข่าวมักก่อให้เกิดความอับอายอย่างมาก ตัวอย่างเช่น:

  • บทสรุป AI ของ Bloomberg News ที่ประกาศในเดือนมกราคมและมีข้อผิดพลาดหลายประการ
  • LA Times' Insights AI ในเดือนมีนาคมแสดงความเห็นอกเห็นใจกับ KKK ภายใน 24 ชั่วโมงหลังจากเปิดตัว
  • Apple ถอนฟีเจอร์จาก Apple Intelligence AI ที่สรุปการแจ้งเตือนจากสำนักข่าวอย่างไม่ถูกต้อง
  • Gannett ในปี 2023 ถูกบังคับให้หยุดการทดลอง AI หลังจากมีข้อผิดพลาดสำคัญในบทความกีฬาระดับมัธยม
  • CNET ในปี 2023 ตีพิมพ์บทความที่มีข้อมูลผิดพลาดหลายเรื่อง

อย่างไรก็ตาม Felix Simon นักวิจัยด้าน AI และข่าวดิจิทัลที่ Reuters Institute for the Study of Journalism ของมหาวิทยาลัย Oxford ชี้ให้เห็นว่า "กรณีที่ร้ายแรงจริงๆ มีไม่มากนัก"

อนาคตของ AI ในวงการข่าว

นวัตกรรมการวิจัยใหม่ได้ลดการเกิด hallucinations หรือคำตอบเท็จจาก AI โดยให้แชทบอทใช้เวลาคิดมากขึ้นก่อนตอบ แต่ระบบเหล่านี้ยังไม่สมบูรณ์แบบ ซึ่งเป็นสาเหตุที่ยังคงเกิดความผิดพลาดอยู่

Chris Callison-Burch ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และสารสนเทศที่มหาวิทยาลัย Pennsylvania กล่าวว่า "บริษัท AI จำเป็นต้องสื่อสารกับผู้ใช้เกี่ยวกับความเป็นไปได้ของข้อผิดพลาดให้ดีขึ้น เพราะเราได้เห็นตัวอย่างซ้ำๆ ของผู้ใช้ที่เข้าใจผิดเกี่ยวกับวิธีใช้เทคโนโลยี"

Kass สรุปว่า "บทเรียนที่แท้จริง" ไม่ใช่แค่ว่ามนุษย์มีความจำเป็น แต่เป็น "เหตุผลที่เราจำเป็น" "ไม่ใช่เพียงเพื่อแก้ไขสิ่งที่ AI ทำผิดพลาด แต่เพื่อทำสิ่งที่ AI ไม่สามารถทำได้โดยพื้นฐาน นั่นคือการตัดสินใจเชิงจริยธรรม ท้าทายอำนาจ เข้าใจความละเอียดอ่อน และตัดสินใจว่าอะไรสำคัญจริงๆ"

Why it matters

💡 บทความนี้นำเสนอมุมมองที่สำคัญเกี่ยวกับความท้าทายที่สำนักข่าวต่างๆ กำลังเผชิญในการใช้งาน AI โดยเฉพาะ ChatGPT หลังจากผ่านมา 2 ปี ผู้อ่านจะได้เรียนรู้ถึงกรณีศึกษาจริงของความผิดพลาดที่เกิดขึ้น แนวทางการแก้ไขปัญหา และวิธีการใช้ AI อย่างมีประสิทธิภาพในวงการสื่อ ซึ่งเป็นบทเรียนสำคัญสำหรับองค์กรและผู้ที่กำลังพิจารณานำ AI มาใช้ในการทำงาน รวมถึงการรักษาสมดุลระหว่างการใช้เทคโนโลยีและการรักษามาตรฐานวิชาชีพ

ข้อมูลอ้างอิงจาก https://www.cnn.com/2025/05/28/media/ai-chatgpt-news-journalism

Read more

10 เหตุผลที่ AI เขียนคอนเทนต์ได้แย่ และ 10 วิธีที่ AI สามารถช่วยงานเขียนได้

news

10 เหตุผลที่ AI เขียนคอนเทนต์ได้แย่ และ 10 วิธีที่ AI สามารถช่วยงานเขียนได้

วิเคราะห์เจาะลึก 10 ข้อจำกัดของ AI ในการเขียนเนื้อหา เช่น การขาดประสบการณ์จริง การใช้คำซ้ำซาก พร้อม 10 วิธีที่ AI สามารถเป็นผู้ช่วยที่ดีในการสร้างคอนเทนต์ เพื่อเพิ่มประสิทธิภาพการทำงาน

By
Salesforce เผยรายได้ AI พุ่งสูง พร้อมดีลใหม่จาก Agentforce เพิ่มขึ้น

news

Salesforce เผยรายได้ AI พุ่งสูง พร้อมดีลใหม่จาก Agentforce เพิ่มขึ้น

Salesforce ประกาศผลประกอบการที่แข็งแกร่ง โดยรายได้จาก AI และ Data Cloud เติบโต 120% ทะลุ 1 พันล้านดอลลาร์ พร้อมฐานลูกค้า Agentforce ขยายตัวเป็น 4,000 ราย และเตรียมซื้อ Informatica มูลค่า 8 พันล้านดอลลาร์

By
Microsoft เพิ่ม Grok แชทบอทที่สุดสุดท้าทาย เข้าสู่บริการ Azure AI

news

Microsoft เพิ่ม Grok แชทบอทที่สุดสุดท้าทาย เข้าสู่บริการ Azure AI

ไมโครซอฟท์เพิ่มแชทบอท Grok จาก xAI เข้าสู่ Azure AI Foundry ไม่สนใจความขัดแย้งกับ OpenAI และปัญหาทฤษฎีสมคบคิด เน้นขยายตัวเลือก AI ให้ลูกค้าคลาวด์

By
เทคนิคการเปลี่ยน Prompt เพียงนิดเดียวนี้ ทำให้ ChatGPT มีประโยชน์มากขึ้น

news

เทคนิคการเปลี่ยน Prompt เพียงนิดเดียวนี้ ทำให้ ChatGPT มีประโยชน์มากขึ้น

ค้นพบวิธีการปรับคำสั่งให้ AI chatbot เข้าใจและตอบสนองได้ดีขึ้น ด้วยการเริ่มต้นประโยคด้วย "ฉัน" พร้อมตัวอย่างคำสั่งที่มีประสิทธิภาพ 5 รูปแบบที่คุณสามารถนำไปใช้ได้ทันที

By