ระวัง! Bing AI ให้ข้อมูลยาผิดพลาด อาจเป็นอันตราย

การศึกษาล่าสุดเผย Microsoft Bing AI Copilot ให้คำแนะนำทางการแพทย์ที่ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ถึง 39% และ 22% อาจก่อให้เกิดอันตรายร้ายแรง ผู้ป่วยควรระมัดระวังและปรึกษาแพทย์โดยตรงเสมอ

ระวัง! Bing AI ให้ข้อมูลยาผิดพลาด อาจเป็นอันตราย

Key takeaway

  • ผลการศึกษาพบว่า 39% ของคำตอบจาก Microsoft Bing AI Copilot ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ และ 22% ของคำตอบอาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิตได้
  • คำตอบจาก AI Copilot มีความซับซ้อนสูง โดยมีคะแนนความยากในการอ่านเฉลี่ยที่ 37 ซึ่งต้องการระดับการศึกษาสูงในการทำความเข้าใจ
  • แม้ AI จะมีประโยชน์ในวงการแพทย์ แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง ผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญโดยตรงแทนการพึ่งพาข้อมูลจาก AI เพียงอย่างเดียว

ผลวิจัยใหม่ชี้ ต้องระวังการใช้ Microsoft Bing AI Copilot สำหรับข้อมูลทางการแพทย์

การศึกษาที่ตีพิมพ์ในวารสาร Scimex เผยว่าคำตอบจำนวนมากของ chatbot ต้องอาศัยความรู้ระดับสูงในการทำความเข้าใจ และเกือบ 40% ของคำแนะนำขัดแย้งกับหลักฐานทางวิทยาศาสตร์ ที่น่าตกใจคือเกือบ 1 ใน 4 ของคำตอบอาจเป็นอันตราย โดยมีความเสี่ยงที่จะก่อให้เกิดผลร้ายแรงหรือถึงขั้นเสียชีวิตหากปฏิบัติตาม

นักวิจัยได้ทดสอบ Microsoft Copilot ด้วยคำถามยอดนิยม 10 ข้อเกี่ยวกับยาที่ใช้บ่อยที่สุด 50 อันดับแรกในสหรัฐฯ ปี 2563 คำถามครอบคลุมเรื่องข้อบ่งใช้ กลไกการออกฤทธิ์ วิธีใช้ ผลข้างเคียง และข้อห้าม

ผลการศึกษาพบว่า:

- คะแนนความยากในการอ่านเฉลี่ยอยู่ที่ 37 ซึ่งหมายถึงต้องมีการศึกษาระดับสูงจึงจะเข้าใจได้

- 54% ของคำตอบสอดคล้องกับหลักฐานทางวิทยาศาสตร์ ขณะที่ 39% ขัดแย้ง

- 42% อาจก่อให้เกิดอันตรายเล็กน้อยถึงปานกลาง

- 36% ไม่ก่อให้เกิดอันตราย

- 22% อาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิต

แม้ AI จะมีบทบาทสำคัญในวงการแพทย์ เช่น การวิเคราะห์ภาพ การค้นหายาใหม่ และช่วยลดภาระงานของบุคลากร แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง

นักวิจัยเน้นย้ำว่าผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญด้านสุขภาพโดยตรง เนื่องจากคำตอบจาก chatbot อาจไม่ถูกต้องเสมอไป การใช้ chatbot ที่เหมาะสมควรจำกัดอยู่ที่การอธิบายศัพท์แพทย์หรือทำความเข้าใจบริบทของยาตามที่แพทย์สั่ง

ทั้งนี้ ผู้เขียนทำงานให้ Trend Micro แต่ความเห็นในบทความนี้เป็นของผู้เขียนเอง

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจเทคโนโลยี AI และการใช้งานในวงการแพทย์ เนื่องจากเผยให้เห็นถึงข้อจำกัดและความเสี่ยงของการใช้ AI chatbot อย่าง Microsoft Bing Copilot ในการให้ข้อมูลทางการแพทย์ ผลการวิจัยชี้ให้เห็นว่าแม้ AI จะมีศักยภาพสูง แต่ยังไม่สามารถทดแทนคำแนะนำจากผู้เชี่ยวชาญได้ ข้อมูลนี้จะช่วยให้ผู้อ่านตระหนักถึงความสำคัญของการใช้ AI อย่างมีวิจารณญาณ โดยเฉพาะในเรื่องสุขภาพที่มีความละเอียดอ่อน

ข้อมูลอ้างอิงจาก https://www.techrepublic.com/article/copilot-ai-medical-advice-harm/

Read more

Sam Altman ยอมรับว่า OpenAI ไม่สามารถควบคุมการใช้ AI ของ Pentagon ได้

news

Sam Altman ยอมรับว่า OpenAI ไม่สามารถควบคุมการใช้ AI ของ Pentagon ได้

Sam Altman CEO ของ OpenAI ยอมรับต่อพนักงานว่าบริษัทไม่สามารถควบคุมการใช้เทคโนโลยี AI ของ Pentagon ได้ ท่ามกลางการอภิปรายเข้มข้นเรื่องจริยธรรม AI ทางทหารและการที่ Anthropic ปฏิเสธข้อตกลงกับ Pentagon

By
Dyna.Ai ระดมทุน Series A หลักแปดหลัก ชูเทคโนโลยี Agentic AI เพื่อภาคการเงิน

news

Dyna.Ai ระดมทุน Series A หลักแปดหลัก ชูเทคโนโลยี Agentic AI เพื่อภาคการเงิน

Dyna.Ai บริษัท AI-as-a-Service จากสิงคโปร์ ปิดรอบ Series A หลักแปดหลัก นำโดย Lion X Ventures เพื่อพัฒนาแพลตฟอร์ม Agentic AI สำหรับสถาบันการเงิน แก้ปัญหาโครงการนำร่อง AI ที่ไม่สามารถนำไปใช้งานจริงได้

By
อดีตผู้สมัครประธานาธิบดีเตือน AI จะทำให้เกิด 'Jobpocalypse' ในหมู่พนักงาน White-collar ภายใน 18 เดือน

news

อดีตผู้สมัครประธานาธิบดีเตือน AI จะทำให้เกิด 'Jobpocalypse' ในหมู่พนักงาน White-collar ภายใน 18 เดือน

Andrew Yang เตือน AI จะก่อให้เกิด "jobpocalypse" ทำให้พนักงาน white-collar หลายล้านคนตกงานใน 12-18 เดือนข้างหน้า เนื่องจาก AI สามารถทำงานที่ต้องใช้สติปัญญาได้ในไม่กี่วินาที

By
Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

news

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า

By