AI สร้างข้อมูลเท็จ ผลวิจัยชี้ชัด

ผลวิจัยล่าสุดชี้ว่า AI ยังคงสร้างข้อมูลเท็จ โดยเฉพาะชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจนำไปสู่ความเสี่ยงด้านความปลอดภัย นักวิจัยเตือนให้ระมัดระวังในการใช้งาน AI สำหรับงานสำคัญ

AI สร้างข้อมูลเท็จ ผลวิจัยชี้ชัด

Key takeaway

  • โมเดล AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง โดยเฉพาะการสร้างชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจเป็นช่องทางให้อาชญากรนำไปใช้ในทางที่ผิดได้
  • ผลการศึกษาพบว่าโมเดล AI เชิงพาณิชย์สร้างชื่อ packages ที่ไม่มีอยู่จริงอย่างน้อย 5.2% ส่วนโมเดลโอเพนซอร์สสูงถึง 21.7% ซึ่งแสดงให้เห็นว่าปัญหานี้ยังคงมีอยู่อย่างมีนัยสำคัญ
  • งานวิจัยอีกชิ้นพบว่า AI ขนาดใหญ่มีแนวโน้มที่จะให้คำตอบที่ดูสมเหตุสมผลแต่ผิดมากกว่า AI ขนาดเล็ก ชี้ให้เห็นถึงความจำเป็นในการปรับปรุงการออกแบบและพัฒนา AI โดยเฉพาะสำหรับการใช้งานที่มีความเสี่ยงสูง

ผลการศึกษาล่าสุดสองชิ้นชี้ให้เห็นว่า โมเดล AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง ซึ่งสอดคล้องกับคำเตือนก่อนหน้านี้ที่ว่าไม่ควรพึ่งพาคำแนะนำจาก AI สำหรับเรื่องสำคัญ

หนึ่งในสิ่งที่ AI มักจะสร้างขึ้นมาคือชื่อของ software packages

ตามที่เคยรายงานไปก่อนหน้านี้ Lasso Security พบว่า large language models (LLMs) เมื่อสร้าง sample source code บางครั้งจะสร้างชื่อ software package dependencies ที่ไม่มีอยู่จริง

ประเด็นนี้น่าวิตกกังวล เนื่องจากอาชญากรอาจสร้าง package โดยใช้ชื่อที่ผลิตโดยบริการ AI ทั่วไปและบรรจุ malware ไว้ข้างใน จากนั้นก็เพียงแค่รอให้นักพัฒนาที่ไม่ระมัดระวังยอมรับคำแนะนำของ AI ให้ใช้ package ที่ถูกวางยาพิษ รวมถึง dependency ที่ถูกปลอมแปลงด้วย

นักวิจัยจาก University of Texas at San Antonio, University of Oklahoma และ Virginia Tech ได้ศึกษา LLMs 16 ตัวที่ใช้สำหรับการสร้างโค้ด เพื่อสำรวจแนวโน้มในการสร้างชื่อ package ที่ไม่มีอยู่จริง

ในงานวิจัยชื่อ "We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs" ผู้เขียนอธิบายว่า hallucinations เป็นหนึ่งในข้อบกพร่องสำคัญของ LLMs ที่ยังไม่ได้รับการแก้ไข

ทีมวิจัยได้ใช้ LLMs ยอดนิยม 16 ตัวทั้งเชิงพาณิชย์และโอเพนซอร์ส เพื่อสร้างตัวอย่างโค้ด 576,000 ชิ้นใน JavaScript และ Python โดยอ้างอิงจาก package repositories npm และ PyPI ตามลำดับ

ผลลัพธ์ที่ได้ยังไม่เป็นที่น่าพอใจ โดยเฉลี่ยแล้วเปอร์เซ็นต์ของ packages ที่ถูกสร้างขึ้นมาอยู่ที่อย่างน้อย 5.2% สำหรับโมเดลเชิงพาณิชย์ และ 21.7% สำหรับโมเดลโอเพนซอร์ส นอกจากนี้ยังพบว่ามีตัวอย่างชื่อ package ที่ถูกสร้างขึ้นมาถึง 205,474 ชื่อ

อีกหนึ่งการศึกษาพบว่า LLMs ยิ่งมีขนาดใหญ่ขึ้นก็ยิ่งไม่น่าเชื่อถือมากขึ้น โดยโมเดลขนาดใหญ่มีแนวโน้มที่จะให้คำตอบที่ดูสมเหตุสมผลแต่ผิดมากกว่า ในขณะที่โมเดลขนาดเล็กจะหลีกเลี่ยงการตอบคำถามที่ไม่สามารถตอบได้

ผลการศึกษาเหล่านี้ชี้ให้เห็นถึงความจำเป็นในการเปลี่ยนแปลงพื้นฐานในการออกแบบและพัฒนา AI สำหรับการใช้งานทั่วไป โดยเฉพาะในด้านที่มีความเสี่ยงสูงซึ่งต้องการการกระจายของข้อผิดพลาดที่คาดการณ์ได้อย่างแม่นยำ

Why it matters

💡
ผู้อ่านควรติดตามข่าวนี้เพราะเป็นการเปิดเผยข้อบกพร่องสำคัญของ AI ที่ส่งผลกระทบต่อความปลอดภัยทางไซเบอร์ การศึกษาล่าสุดแสดงให้เห็นว่า AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง โดยเฉพาะการสร้างชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจถูกนำไปใช้ในการโจมตีทางไซเบอร์ได้ ข้อมูลนี้สำคัญสำหรับนักพัฒนาและผู้ใช้งาน AI ในการตระหนักถึงความเสี่ยงและใช้งานอย่างระมัดระวัง

ข้อมูลอ้างอิงจาก https://www.theregister.com/2024/09/30/ai_code_helpers_invent_packages/

Read more

Google ปรับนโยบาย AI ครั้งใหญ่ ยกเลิกข้อจำกัดการพัฒนาเทคโนโลยี

news

Google ปรับนโยบาย AI ครั้งใหญ่ ยกเลิกข้อจำกัดการพัฒนาเทคโนโลยี

กูเกิลปรับเปลี่ยนนโยบาย AI ครั้งสำคัญ ยกเลิกข้อจำกัดการพัฒนาเทคโนโลยีที่อาจก่อให้เกิดอันตราย เน้นการกำกับดูแลโดยมนุษย์ สร้างความกังวลในหมู่พนักงานถึงประเด็นจริยธรรม AI

By
หน่วยงานลิขสิทธิ์สหรัฐฯ ออกรายงานชี้ชัด ผลงาน AI ต้องมีส่วนร่วมจากมนุษย์จึงจะได้ลิขสิทธิ์

news

หน่วยงานลิขสิทธิ์สหรัฐฯ ออกรายงานชี้ชัด ผลงาน AI ต้องมีส่วนร่วมจากมนุษย์จึงจะได้ลิขสิทธิ์

หน่วยงานลิขสิทธิ์สหรัฐฯ ออกรายงานยืนยันว่าผลงานที่สร้างจาก AI จะได้รับความคุ้มครองลิขสิทธิ์ต่อเมื่อมีการมีส่วนร่วมจากมนุษย์เท่านั้น โดยระดับการมีส่วนร่วมเป็นปัจจัยสำคัญในการพิจารณา

By
Microsoft เพิ่มฟีเจอร์ "Think Deeper" ให้ผู้ใช้ Copilot ทั่วไป

news

Microsoft เพิ่มฟีเจอร์ "Think Deeper" ให้ผู้ใช้ Copilot ทั่วไป

Microsoft ประกาศเปิดให้ผู้ใช้ทั่วไปใช้ฟีเจอร์ Think Deeper ฟรีใน Copilot โดยใช้ OpenAI's O1 reasoning model ที่ออกแบบมาให้ "คิดก่อนพูด" เหมาะสำหรับงาน STEM และการวิเคราะห์ขั้นสูง

By
Meta ประกาศวิสัยทัศน์ AI ปี 2025 มุ่งพัฒนา Engineering Agent เทียบชั้นโปรแกรมเมอร์

news

Meta ประกาศวิสัยทัศน์ AI ปี 2025 มุ่งพัฒนา Engineering Agent เทียบชั้นโปรแกรมเมอร์

Mark Zuckerberg เผยวิสัยทัศน์ Meta ปี 2025 มุ่งพัฒนา AI Engineering Agent ให้เทียบเท่าโปรแกรมเมอร์ระดับกลาง พร้อมเปิดตัว Llama 4.0 ตั้งเป้าเป็นผู้นำด้าน open-source AI ระดับโลก

By