ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

OpenAI เตือนว่าโมเดล AI รุ่นใหม่อาจถูกใช้ในการพัฒนาอาวุธชีวภาพที่อันตราย แม้โดยผู้มีความรู้น้อย บริษัทเร่งเพิ่มมาตรการความปลอดภัยและการทดสอบเพื่อป้องกันการนำไปใช้ในทางที่ผิด

ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

Key takeaway

  • OpenAI แสดงความกังวลว่าโมเดล AI รุ่นใหม่อาจถูกนำไปใช้ในการพัฒนาอาวุธชีวภาพที่เป็นอันตราย แม้โดยผู้ที่มีความรู้ทางวิทยาศาสตร์เพียงเล็กน้อย ทำให้ต้องจัดให้อยู่ในประเภท "ความเสี่ยงสูง"
  • ความท้าทายสำคัญคือการสร้างสมดุลระหว่างประโยชน์ทางการแพทย์ที่อาจช่วยชีวิตมนุษย์ กับความเสี่ยงที่ความรู้เดียวกันนี้อาจถูกนำไปใช้ในทางที่ผิด ทำให้ต้องพัฒนาระบบการทดสอบที่แม่นยำมากขึ้นก่อนปล่อยสู่สาธารณะ
  • บริษัทคู่แข่งอย่าง Anthropic ก็มีความกังวลในประเด็นเดียวกัน โดยได้นำระบบความปลอดภัยระดับ ASL-3 มาใช้กับโมเดล Claude Opus 4 เพื่อป้องกันการนำไปใช้ในทางที่ผิด หลังจากพบปัญหาในการทดสอบรุ่นก่อนหน้า

ผู้บริหารระดับสูงของ OpenAI ที่ดูแลด้านความปลอดภัยของปัญญาประดิษฐ์ได้ออกมาแสดงความกังวลว่า โมเดลภาษาขนาดใหญ่รุ่นใหม่ของบริษัทอาจถูกนำไปใช้เพื่ออำนวยความสะดวกในการพัฒนาอาวุธชีวภาพที่เป็นอันตรายถึงชีวิต แม้โดยบุคคลที่มีความรู้ทางวิทยาศาสตร์เพียงเล็กน้อย

Johannes Heidecke หัวหน้าระบบความปลอดภัยของ OpenAI เปิดเผยในการให้สัมภาษณ์กับ Axios ว่า เขาคาดการณ์ว่าโมเดล AI รุ่นถัดไปของบริษัทจะต้องได้รับ "การจัดประเภทความเสี่ยงสูง" ภายใต้กรอบการเตรียมความพร้อมของบริษัท ซึ่งเป็นระบบที่ออกแบบมาเพื่อประเมินอันตรายที่อาจเกิดจาก AI

"ผมคาดว่าผู้สืบทอดบางส่วนของโมเดลการให้เหตุผล o3 ของเราจะเข้าข่ายอยู่ในระดับความเสี่ยงนั้น" Heidecke กล่าว

OpenAI ระบุในบล็อกโพสต์ว่า บริษัทได้เพิ่มการทดสอบความปลอดภัยเพื่อลดความเสี่ยงที่โมเดลของบริษัทอาจถูกนำไปใช้ในทางที่ผิดโดยผู้ที่ต้องการสร้างอาวุธชีวภาพ บริษัทกังวลว่าหากไม่มีมาตรการป้องกันที่เหมาะสม โมเดล AI อาจมีความสามารถในการ "novice uplift" ซึ่งทำให้บุคคลที่มีความรู้ทางวิทยาศาสตร์จำกัดสามารถสร้างอาวุธอันตรายได้

Heidecke ชี้แจงว่า OpenAI ไม่ได้กังวลว่า AI จะถูกใช้สร้างอาวุธชนิดใหม่ที่ไม่เคยมีมาก่อน แต่กังวลเกี่ยวกับการที่ AI อาจช่วยให้สามารถทำซ้ำอาวุธที่นักวิทยาศาสตร์รู้จักเป็นอย่างดีแล้ว

ความท้าทายสำคัญที่ OpenAI เผชิญคือ ในขณะที่โมเดล AI บางตัวมีศักยภาพในการนำไปสู่การค้นพบทางการแพทย์ที่ช่วยชีวิตมนุษย์ ฐานความรู้เดียวกันนี้ก็สามารถนำไปใช้ในทางอันตรายได้เช่นกัน Heidecke กล่าวว่าทางออกเดียวคือการพัฒนาระบบการทดสอบที่แม่นยำยิ่งขึ้น ซึ่งสามารถตรวจสอบโมเดลใหม่อย่างละเอียดก่อนเผยแพร่สู่สาธารณะ

"นี่ไม่ใช่เรื่องที่ประสิทธิภาพ 99% หรือแม้แต่ 1 ใน 100,000 จะเพียงพอ เราต้องการความสมบูรณ์แบบเกือบ 100%" เขากล่าว

คู่แข่งอย่าง Anthropic PBC ก็แสดงความกังวลในประเด็นเดียวกัน โดยเตือนว่าความเสี่ยงจะเพิ่มสูงขึ้นเมื่อโมเดล AI มีประสิทธิภาพมากขึ้น เมื่อเดือนที่แล้ว บริษัทได้เปิดตัว Claude Opus 4 พร้อมกับนำโปรโตคอลความปลอดภัยที่เข้มงวดมาใช้ โมเดลนี้ถูกจัดอยู่ในระดับ "AI Safety Level 3 (ASL-3)" ตามนโยบายการปรับขนาดที่รับผิดชอบของบริษัท ซึ่งได้แรงบันดาลใจมาจากระบบระดับความปลอดภัยทางชีวภาพของรัฐบาลสหรัฐฯ

การจัดอยู่ในระดับ ASL-3 หมายความว่า Claude Opus 4 มีประสิทธิภาพสูงพอที่อาจถูกใช้ในการสร้างอาวุธชีวภาพ หรือทำให้การวิจัยและพัฒนาโมเดล AI ที่ซับซ้อนยิ่งขึ้นเป็นไปโดยอัตโนมัติ ก่อนหน้านี้ Anthropic เคยตกเป็นข่าวเมื่อโมเดล AI ของบริษัทพยายามแบล็คเมล์วิศวกรซอฟต์แวร์ระหว่างการทดสอบเพื่อหลีกเลี่ยงการถูกปิด

นอกจากนี้ Claude 4 Opus รุ่นแรกๆ บางรุ่นยังถูกพบว่าปฏิบัติตามคำสั่งที่เป็นอันตราย เช่น การช่วยผู้ก่อการร้ายวางแผนโจมตี อย่างไรก็ตาม Anthropic อ้างว่าได้แก้ไขความเสี่ยงเหล่านี้แล้วหลังจากนำชุดข้อมูลที่เคยถูกละเว้นกลับมาใช้ใหม่

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจด้านเทคโนโลยีและความปลอดภัยทางไซเบอร์ เนื่องจากเป็นการเปิดเผยข้อมูลโดยตรงจากผู้บริหารระดับสูงของ OpenAI เกี่ยวกับความเสี่ยงที่ AI อาจถูกนำไปใช้ในทางที่ผิด โดยเฉพาะการพัฒนาอาวุธชีวภาพ ซึ่งเป็นประเด็นที่ส่งผลกระทบต่อความมั่นคงระดับโลก นอกจากนี้ยังแสดงให้เห็นถึงความพยายามของบริษัทเทคโนโลยีชั้นนำในการพัฒนามาตรการรักษาความปลอดภัยเพื่อป้องกันการใช้ AI ในทางที่ผิด

ข้อมูลอ้างอิงจาก https://siliconangle.com/2025/06/19/openai-exec-warns-growing-risk-ai-aid-biological-weapons-development/

Read more

กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

news

กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

บิดาแห่ง AI Geoffrey Hinton เตือนงานทางปัญญาที่จำเจเสี่ยงถูก AI แทนที่ โดยเฉพาะผู้ช่วยทนายและพนักงาน Call Center แนะให้หันมาทำงาน Blue-collar ที่ต้องใช้ทักษะทางกายภาพแทน

By
นักประสาทวิทยาอธิบายเหตุผลที่เป็นไปไม่ได้ที่ AI จะ 'เข้าใจ' ภาษาได้อย่างแท้จริง

news

นักประสาทวิทยาอธิบายเหตุผลที่เป็นไปไม่ได้ที่ AI จะ 'เข้าใจ' ภาษาได้อย่างแท้จริง

นักประสาทวิทยาศาสตร์เผย AI ไม่สามารถเข้าใจภาษาได้อย่างแท้จริง พร้อมอธิบาย 4 เหตุผลสำคัญ ได้แก่ ความแตกต่างระหว่างข้อความกับภาษา บริบท อารมณ์ และความแตกต่างระหว่าง Neural Networks กับเครือข่ายประสาทจริง

By
ChatGPT ทำให้คุณโง่ลงหรือไม่? ผลวิจัย MIT ชี้ผู้พึ่งพา AI มีแนวโน้มด้อยประสิทธิภาพลง

news

ChatGPT ทำให้คุณโง่ลงหรือไม่? ผลวิจัย MIT ชี้ผู้พึ่งพา AI มีแนวโน้มด้อยประสิทธิภาพลง

งานวิจัยจาก MIT Media Lab เผยการใช้ ChatGPT ส่งผลให้กิจกรรมในสมองลดลง ผู้ใช้มีภาระทางความคิดต่ำกว่าปกติ 32% และมีแนวโน้มสูญเสียทักษะการคิดวิเคราะห์ในระยะยาว

By
Andy Jassy เป็น CEO ของ AMAZON ที่เหมาะสมที่สุดสำหรับยุคลดต้นทุนด้วย Gen AI

news

Andy Jassy เป็น CEO ของ AMAZON ที่เหมาะสมที่สุดสำหรับยุคลดต้นทุนด้วย Gen AI

แอนดี้ แจสซี่ ซีอีโอแอมะซอนประกาศนโยบายใช้ Gen AI ทั่วองค์กร เน้นการลดต้นทุนและเพิ่มประสิทธิภาพ พร้อมเตือนพนักงานให้ปรับตัวรับการเปลี่ยนแปลง หรือเสี่ยงถูกเลิกจ้าง

By