AI สร้างข้อมูลเท็จ ผลวิจัยชี้ชัด

ผลวิจัยล่าสุดชี้ว่า AI ยังคงสร้างข้อมูลเท็จ โดยเฉพาะชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจนำไปสู่ความเสี่ยงด้านความปลอดภัย นักวิจัยเตือนให้ระมัดระวังในการใช้งาน AI สำหรับงานสำคัญ

AI สร้างข้อมูลเท็จ ผลวิจัยชี้ชัด

Key takeaway

  • โมเดล AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง โดยเฉพาะการสร้างชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจเป็นช่องทางให้อาชญากรนำไปใช้ในทางที่ผิดได้
  • ผลการศึกษาพบว่าโมเดล AI เชิงพาณิชย์สร้างชื่อ packages ที่ไม่มีอยู่จริงอย่างน้อย 5.2% ส่วนโมเดลโอเพนซอร์สสูงถึง 21.7% ซึ่งแสดงให้เห็นว่าปัญหานี้ยังคงมีอยู่อย่างมีนัยสำคัญ
  • งานวิจัยอีกชิ้นพบว่า AI ขนาดใหญ่มีแนวโน้มที่จะให้คำตอบที่ดูสมเหตุสมผลแต่ผิดมากกว่า AI ขนาดเล็ก ชี้ให้เห็นถึงความจำเป็นในการปรับปรุงการออกแบบและพัฒนา AI โดยเฉพาะสำหรับการใช้งานที่มีความเสี่ยงสูง

ผลการศึกษาล่าสุดสองชิ้นชี้ให้เห็นว่า โมเดล AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง ซึ่งสอดคล้องกับคำเตือนก่อนหน้านี้ที่ว่าไม่ควรพึ่งพาคำแนะนำจาก AI สำหรับเรื่องสำคัญ

หนึ่งในสิ่งที่ AI มักจะสร้างขึ้นมาคือชื่อของ software packages

ตามที่เคยรายงานไปก่อนหน้านี้ Lasso Security พบว่า large language models (LLMs) เมื่อสร้าง sample source code บางครั้งจะสร้างชื่อ software package dependencies ที่ไม่มีอยู่จริง

ประเด็นนี้น่าวิตกกังวล เนื่องจากอาชญากรอาจสร้าง package โดยใช้ชื่อที่ผลิตโดยบริการ AI ทั่วไปและบรรจุ malware ไว้ข้างใน จากนั้นก็เพียงแค่รอให้นักพัฒนาที่ไม่ระมัดระวังยอมรับคำแนะนำของ AI ให้ใช้ package ที่ถูกวางยาพิษ รวมถึง dependency ที่ถูกปลอมแปลงด้วย

นักวิจัยจาก University of Texas at San Antonio, University of Oklahoma และ Virginia Tech ได้ศึกษา LLMs 16 ตัวที่ใช้สำหรับการสร้างโค้ด เพื่อสำรวจแนวโน้มในการสร้างชื่อ package ที่ไม่มีอยู่จริง

ในงานวิจัยชื่อ "We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs" ผู้เขียนอธิบายว่า hallucinations เป็นหนึ่งในข้อบกพร่องสำคัญของ LLMs ที่ยังไม่ได้รับการแก้ไข

ทีมวิจัยได้ใช้ LLMs ยอดนิยม 16 ตัวทั้งเชิงพาณิชย์และโอเพนซอร์ส เพื่อสร้างตัวอย่างโค้ด 576,000 ชิ้นใน JavaScript และ Python โดยอ้างอิงจาก package repositories npm และ PyPI ตามลำดับ

ผลลัพธ์ที่ได้ยังไม่เป็นที่น่าพอใจ โดยเฉลี่ยแล้วเปอร์เซ็นต์ของ packages ที่ถูกสร้างขึ้นมาอยู่ที่อย่างน้อย 5.2% สำหรับโมเดลเชิงพาณิชย์ และ 21.7% สำหรับโมเดลโอเพนซอร์ส นอกจากนี้ยังพบว่ามีตัวอย่างชื่อ package ที่ถูกสร้างขึ้นมาถึง 205,474 ชื่อ

อีกหนึ่งการศึกษาพบว่า LLMs ยิ่งมีขนาดใหญ่ขึ้นก็ยิ่งไม่น่าเชื่อถือมากขึ้น โดยโมเดลขนาดใหญ่มีแนวโน้มที่จะให้คำตอบที่ดูสมเหตุสมผลแต่ผิดมากกว่า ในขณะที่โมเดลขนาดเล็กจะหลีกเลี่ยงการตอบคำถามที่ไม่สามารถตอบได้

ผลการศึกษาเหล่านี้ชี้ให้เห็นถึงความจำเป็นในการเปลี่ยนแปลงพื้นฐานในการออกแบบและพัฒนา AI สำหรับการใช้งานทั่วไป โดยเฉพาะในด้านที่มีความเสี่ยงสูงซึ่งต้องการการกระจายของข้อผิดพลาดที่คาดการณ์ได้อย่างแม่นยำ

Why it matters

💡
ผู้อ่านควรติดตามข่าวนี้เพราะเป็นการเปิดเผยข้อบกพร่องสำคัญของ AI ที่ส่งผลกระทบต่อความปลอดภัยทางไซเบอร์ การศึกษาล่าสุดแสดงให้เห็นว่า AI ยังคงสร้างข้อมูลเท็จอย่างต่อเนื่อง โดยเฉพาะการสร้างชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจถูกนำไปใช้ในการโจมตีทางไซเบอร์ได้ ข้อมูลนี้สำคัญสำหรับนักพัฒนาและผู้ใช้งาน AI ในการตระหนักถึงความเสี่ยงและใช้งานอย่างระมัดระวัง

ข้อมูลอ้างอิงจาก https://www.theregister.com/2024/09/30/ai_code_helpers_invent_packages/

Read more

วิธีใช้ ChatGPT เพิ่มประสิทธิภาพการเรียนรู้ภาษา

news

วิธีใช้ ChatGPT เพิ่มประสิทธิภาพการเรียนรู้ภาษา

ค้นพบวิธีใช้ ChatGPT เป็นติวเตอร์ส่วนตัวในการเรียนรู้ภาษาใหม่ ตั้งแต่การเขียน prompt ที่มีประสิทธิภาพ การสร้างคลังคำศัพท์ ไปจนถึงการฝึกสนทนาด้วย AI เพื่อเร่งความก้าวหน้าในการเรียนรู้ภาษา

By
Snowflake ขยายความร่วมมือเชิงกลยุทธ์ท่ามกลางการใช้งาน AI ที่เพิ่มสูงขึ้นของลูกค้า

news

Snowflake ขยายความร่วมมือเชิงกลยุทธ์ท่ามกลางการใช้งาน AI ที่เพิ่มสูงขึ้นของลูกค้า

Snowflake ขยายความร่วมมือกับ Anthropic และ Accenture เพื่อเสริมศักยภาพ Agentic AI และ Generative AI รายงานรายได้ Q3 ที่ 1.21 พันล้านดอลลาร์ เติบโต 29% YoY มีลูกค้ากว่า 1,200 รายใช้งาน AI Agents

By
CEO ของ Nvidia คาดการณ์: การนำ AI มาใช้ อาจสร้างอาชีพใหม่อย่าง "ช่างตัดเสื้อหุ่นยนต์"

news

CEO ของ Nvidia คาดการณ์: การนำ AI มาใช้ อาจสร้างอาชีพใหม่อย่าง "ช่างตัดเสื้อหุ่นยนต์"

Jensen Huang CEO ของ Nvidia คาดการณ์ว่าการนำ AI มาใช้จะเป็นไปอย่างค่อยเป็นค่อยไป งานที่ซับซ้อนจะปลอดภัยกว่างานซ้ำๆ และอาจเกิดอาชีพใหม่อย่างช่างตัดเสื้อหุ่นยนต์ในอนาคต

By
OpenAI ยืนยันไม่ใช่โฆษณา หลังแสดงคำแนะนำช็อปปิ้งใน ChatGPT แบบเสียค่าบริการ

news

OpenAI ยืนยันไม่ใช่โฆษณา หลังแสดงคำแนะนำช็อปปิ้งใน ChatGPT แบบเสียค่าบริการ

ผู้ใช้ ChatGPT Plus พบข้อความแนะนำช็อปปิ้ง Target ขณะถามเรื่อง BitLocker ทำให้เข้าใจว่าเป็นโฆษณา แต่ OpenAI ยืนยันว่าเป็นการแนะนำแอปจาก pilot partner และกำลังพัฒนาให้ดูเป็นธรรมชาติมากขึ้น

By