เครื่องมือค้นหาที่ใช้ AI อ้างอิงแหล่งข้อมูลผิดในอัตราที่น่าตกใจถึง 60%

ผลการศึกษาจาก Columbia Journalism Review พบว่าระบบค้นหาข่าวด้วย AI มีความผิดพลาดสูงถึง 60% แม้แต่เวอร์ชันพรีเมียมก็ให้ผลลัพธ์ที่แย่กว่า และบางระบบยังละเมิด Robot Exclusion Protocol

เครื่องมือค้นหาที่ใช้ AI อ้างอิงแหล่งข้อมูลผิดในอัตราที่น่าตกใจถึง 60%

Key takeaway

  • ผลการศึกษาพบว่าเครื่องมือค้นหาที่ใช้ AI จำนวน 8 ระบบ มีความผิดพลาดในการให้ข้อมูลข่าวสารสูงถึง 60% โดย Perplexity มีความผิดพลาดน้อยที่สุดที่ 37% ในขณะที่ Grok 3 มีความผิดพลาดสูงสุดถึง 94%
  • น่าแปลกใจที่เวอร์ชันพรีเมียมแบบเสียเงินของ AI อย่าง Perplexity Pro และ Grok 3 Premium กลับให้ผลลัพธ์ที่แย่กว่าเวอร์ชันฟรี ทั้งในแง่ความถูกต้องและการแสดงความมั่นใจในคำตอบ
  • มีการพบปัญหาด้านจริยธรรมที่ AI บางระบบละเมิด Robot Exclusion Protocol โดยสามารถเข้าถึงเนื้อหาที่อยู่หลัง Paywall ได้ แม้จะมีการห้าม Web Crawlers ไว้อย่างชัดเจน

ผลศึกษาจาก Columbia Journalism Review's Tow Center for Digital Journalism เผยข้อมูลน่าวิตกเกี่ยวกับความแม่นยำของ Generative AI Models ในการค้นหาข่าว โดยผลการทดสอบเครื่องมือค้นหาที่ใช้ AI จำนวน 8 ระบบพบว่า มีความผิดพลาดในการให้ข้อมูลข่าวสารสูงถึง 60%

จากรายงานของนักวิจัย Klaudia Jaźwińska และ Aisvarya Chandrasekar ระบุว่าชาวอเมริกันราว 25% หันมาใช้ AI Models แทนระบบค้นหาแบบเดิม ซึ่งสร้างความกังวลด้านความน่าเชื่อถือของข้อมูล เมื่อพิจารณาจากอัตราความผิดพลาดที่สูงในการศึกษานี้

ผลการทดสอบแต่ละแพลตฟอร์มมีความแตกต่างกันอย่างชัดเจน โดย Perplexity มีความผิดพลาด 37% ขณะที่ ChatGPT Search ให้ข้อมูลผิดพลาดถึง 67% หรือ 134 จาก 200 บทความ และ Grok 3 มีความผิดพลาดสูงสุดถึง 94%

การทดสอบดำเนินการโดยการป้อนข้อความจากบทความข่าวจริงให้ AI Models ระบุ Headline ผู้เผยแพร่ วันที่ และ URL รวมทั้งสิ้น 1,600 Queries ผ่านระบบค้นหาทั้ง 8 ระบบ

ที่น่าสนใจคือ เวอร์ชันพรีเมียมแบบเสียเงินกลับให้ผลลัพธ์ที่แย่กว่า โดย Perplexity Pro (ราคา $20/เดือน) และ Grok 3 Premium ($40/เดือน) ให้คำตอบที่ผิดพลาดและแสดงความมั่นใจมากกว่าเวอร์ชันฟรี

นอกจากนี้ยังพบว่า AI บางระบบละเมิด Robot Exclusion Protocol ที่ผู้เผยแพร่ใช้ป้องกันการเข้าถึงที่ไม่ได้รับอนุญาต เช่น Perplexity เวอร์ชันฟรีสามารถเข้าถึงเนื้อหาหลัง Paywall ของ National Geographic ได้ทั้ง 10 ข้อความ แม้จะมีการห้าม Web Crawlers ไว้อย่างชัดเจน

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ใช้งาน AI ในการค้นหาข้อมูลข่าวสาร เนื่องจากเผยให้เห็นถึงความไม่แม่นยำที่น่าตกใจของระบบ AI ชั้นนำในปัจจุบัน โดยมีอัตราความผิดพลาดสูงถึง 60% ซึ่งเป็นประเด็นที่น่ากังวลอย่างมากเมื่อพิจารณาว่าชาวอเมริกัน 25% กำลังพึ่งพา AI ในการค้นหาข้อมูล ข้อมูลนี้จะช่วยให้ผู้อ่านตระหนักถึงข้อจำกัดของเทคโนโลยี AI และเลือกใช้งานอย่างมีวิจารณญาณมากขึ้น

ข้อมูลอ้างอิงจาก https://arstechnica.com/ai/2025/03/ai-search-engines-give-incorrect-answers-at-an-alarming-60-rate-study-says/

Read more

Anthropic's Claude เพิ่มฟีเจอร์ฟรีมากขึ้น ขณะที่ OpenAI เริ่มแสดงโฆษณาใน ChatGPT

news

Anthropic's Claude เพิ่มฟีเจอร์ฟรีมากขึ้น ขณะที่ OpenAI เริ่มแสดงโฆษณาใน ChatGPT

แอนโทรปิคประกาศให้ผู้ใช้ Claude แบบฟรีเข้าถึงฟีเจอร์การสร้างไฟล์, connectors และ skills ได้แล้ว หลังจาก OpenAI เริ่มแสดงโฆษณาใน ChatGPT สำหรับผู้ใช้ฟรีและแผน Go ซึ่งเป็นความพยายามดึงดูดผู้ใช้ที่ไม่ต้องการเห็นโฆษณาขณะใช้แชทบอท

By
Olix สตาร์ทอัพชิป AI โฟโทนิกได้รับเงินลงทุน 220 ล้านดอลลาร์

news

Olix สตาร์ทอัพชิป AI โฟโทนิกได้รับเงินลงทุน 220 ล้านดอลลาร์

สตาร์ทอัพ Olix Computing ผู้พัฒนาชิปเอไอที่ใช้เทคโนโลยีโฟโทนิกประสบความสำเร็จในการระดมทุน 220 ล้านดอลลาร์ นำโดย Hummingbird Ventures ชิป OTPU ของบริษัทแก้ปัญหา "memory wall" ด้วยสถาปัตยกรรมหน่วยความจำแบบใหม่ที่ใช้ SRAM แทน HBM

By
Microsoft เตือนว่าปุ่ม AI และลิงก์ที่ถูกปลอมแปลงอาจทำลายความไว้วางใจของคุณ

news

Microsoft เตือนว่าปุ่ม AI และลิงก์ที่ถูกปลอมแปลงอาจทำลายความไว้วางใจของคุณ

ไมโครซอฟท์เตือนภัยการวางยา "หน่วยความจำ" ของโมเดล AI ด้วยคำสั่งซ่อนเร้นในปุ่ม "Summarize with AI" และลิงก์ต่างๆ ทำให้ AI แสดงคำแนะนำที่มีอคติ ส่งผลกระทบต่อความเชื่อมั่นของผู้ใช้ โดยเฉพาะในหัวข้อสำคัญเช่นสุขภาพและการเงิน

By
การโพสต์ภาพการ์ตูนที่สร้างโดย AI บนโซเชียลมีเดียมีความเสี่ยง นักวิเคราะห์ความปลอดภัยเตือน

news

การโพสต์ภาพการ์ตูนที่สร้างโดย AI บนโซเชียลมีเดียมีความเสี่ยง นักวิเคราะห์ความปลอดภัยเตือน

การโพสต์ภาพการ์ตูนที่สร้างโดย AI พร้อมข้อมูลส่วนตัวบนโซเชียลมีเดียอาจนำไปสู่การถูกยึดบัญชี LLM และการโจมตีแบบ social engineering นักวิเคราะห์ความปลอดภัยเตือนว่าข้อมูลองค์กรที่อ่อนไหวอาจรั่วไหลหากผู้ใช้ไม่ระมัดระวัง

By