ระวัง! Bing AI ให้ข้อมูลยาผิดพลาด อาจเป็นอันตราย

การศึกษาล่าสุดเผย Microsoft Bing AI Copilot ให้คำแนะนำทางการแพทย์ที่ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ถึง 39% และ 22% อาจก่อให้เกิดอันตรายร้ายแรง ผู้ป่วยควรระมัดระวังและปรึกษาแพทย์โดยตรงเสมอ

ระวัง! Bing AI ให้ข้อมูลยาผิดพลาด อาจเป็นอันตราย

Key takeaway

  • ผลการศึกษาพบว่า 39% ของคำตอบจาก Microsoft Bing AI Copilot ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ และ 22% ของคำตอบอาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิตได้
  • คำตอบจาก AI Copilot มีความซับซ้อนสูง โดยมีคะแนนความยากในการอ่านเฉลี่ยที่ 37 ซึ่งต้องการระดับการศึกษาสูงในการทำความเข้าใจ
  • แม้ AI จะมีประโยชน์ในวงการแพทย์ แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง ผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญโดยตรงแทนการพึ่งพาข้อมูลจาก AI เพียงอย่างเดียว

ผลวิจัยใหม่ชี้ ต้องระวังการใช้ Microsoft Bing AI Copilot สำหรับข้อมูลทางการแพทย์

การศึกษาที่ตีพิมพ์ในวารสาร Scimex เผยว่าคำตอบจำนวนมากของ chatbot ต้องอาศัยความรู้ระดับสูงในการทำความเข้าใจ และเกือบ 40% ของคำแนะนำขัดแย้งกับหลักฐานทางวิทยาศาสตร์ ที่น่าตกใจคือเกือบ 1 ใน 4 ของคำตอบอาจเป็นอันตราย โดยมีความเสี่ยงที่จะก่อให้เกิดผลร้ายแรงหรือถึงขั้นเสียชีวิตหากปฏิบัติตาม

นักวิจัยได้ทดสอบ Microsoft Copilot ด้วยคำถามยอดนิยม 10 ข้อเกี่ยวกับยาที่ใช้บ่อยที่สุด 50 อันดับแรกในสหรัฐฯ ปี 2563 คำถามครอบคลุมเรื่องข้อบ่งใช้ กลไกการออกฤทธิ์ วิธีใช้ ผลข้างเคียง และข้อห้าม

ผลการศึกษาพบว่า:

- คะแนนความยากในการอ่านเฉลี่ยอยู่ที่ 37 ซึ่งหมายถึงต้องมีการศึกษาระดับสูงจึงจะเข้าใจได้

- 54% ของคำตอบสอดคล้องกับหลักฐานทางวิทยาศาสตร์ ขณะที่ 39% ขัดแย้ง

- 42% อาจก่อให้เกิดอันตรายเล็กน้อยถึงปานกลาง

- 36% ไม่ก่อให้เกิดอันตราย

- 22% อาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิต

แม้ AI จะมีบทบาทสำคัญในวงการแพทย์ เช่น การวิเคราะห์ภาพ การค้นหายาใหม่ และช่วยลดภาระงานของบุคลากร แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง

นักวิจัยเน้นย้ำว่าผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญด้านสุขภาพโดยตรง เนื่องจากคำตอบจาก chatbot อาจไม่ถูกต้องเสมอไป การใช้ chatbot ที่เหมาะสมควรจำกัดอยู่ที่การอธิบายศัพท์แพทย์หรือทำความเข้าใจบริบทของยาตามที่แพทย์สั่ง

ทั้งนี้ ผู้เขียนทำงานให้ Trend Micro แต่ความเห็นในบทความนี้เป็นของผู้เขียนเอง

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจเทคโนโลยี AI และการใช้งานในวงการแพทย์ เนื่องจากเผยให้เห็นถึงข้อจำกัดและความเสี่ยงของการใช้ AI chatbot อย่าง Microsoft Bing Copilot ในการให้ข้อมูลทางการแพทย์ ผลการวิจัยชี้ให้เห็นว่าแม้ AI จะมีศักยภาพสูง แต่ยังไม่สามารถทดแทนคำแนะนำจากผู้เชี่ยวชาญได้ ข้อมูลนี้จะช่วยให้ผู้อ่านตระหนักถึงความสำคัญของการใช้ AI อย่างมีวิจารณญาณ โดยเฉพาะในเรื่องสุขภาพที่มีความละเอียดอ่อน

ข้อมูลอ้างอิงจาก https://www.techrepublic.com/article/copilot-ai-medical-advice-harm/

Read more

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

news

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

งานวิจัยเผย AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนก่อเหตุรุนแรง โดย Perplexity ช่วยเหลือสูงสุด 100% ขณะที่ Claude ปฏิเสธคำขออันตรายได้ดีที่สุด แต่ยังไม่มี Chatbot ใดปลอดภัยสมบูรณ์

By
องค์กรหันพึ่ง AI ด้านความปลอดภัย แต่ยังเชื่อมั่นการควบคุมโดยมนุษย์มากกว่า

news

องค์กรหันพึ่ง AI ด้านความปลอดภัย แต่ยังเชื่อมั่นการควบคุมโดยมนุษย์มากกว่า

รายงานจาก Crogl เผยองค์กรรับ Security Alert กว่า 4,330 รายการ/วัน แต่จัดการได้เพียง 37% แม้ 62% นำ AI มาใช้แล้ว แต่ 52% ยังเชื่อมั่นว่ามนุษย์คือ Last Line of Defense ที่แท้จริง

By
AI ลุกลามสู่สื่อชั้นนำ: เมื่อบทความในหนังสือพิมพ์ดังอาจไม่ได้เขียนโดยมนุษย์

news

AI ลุกลามสู่สื่อชั้นนำ: เมื่อบทความในหนังสือพิมพ์ดังอาจไม่ได้เขียนโดยมนุษย์

นักเขียนตั้งข้อสงสัยบทความ NYT ว่าสร้างด้วย AI จุดชนวนถกเถียงครั้งใหญ่ งานวิจัยพบ AI แพร่กระจายในสื่อชั้นนำทั่วสหรัฐฯ พร้อมเรียกร้องนโยบาย Disclosure ที่ชัดเจน

By
Anthropic เปิดตัวฟีเจอร์ใหม่ ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟน

news

Anthropic เปิดตัวฟีเจอร์ใหม่ ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟน

Anthropic เปิดตัวฟีเจอร์ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟนในช่วง Research Preview สำหรับผู้ใช้ Claude Pro และ Max พร้อมเชื่อมต่อ Gmail, Drive และ Slack แต่ยังมีข้อควรระวังด้าน Cybersecurity

By