ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

OpenAI เตือนว่าโมเดล AI รุ่นใหม่อาจถูกใช้ในการพัฒนาอาวุธชีวภาพที่อันตราย แม้โดยผู้มีความรู้น้อย บริษัทเร่งเพิ่มมาตรการความปลอดภัยและการทดสอบเพื่อป้องกันการนำไปใช้ในทางที่ผิด

ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

Key takeaway

  • OpenAI แสดงความกังวลว่าโมเดล AI รุ่นใหม่อาจถูกนำไปใช้ในการพัฒนาอาวุธชีวภาพที่เป็นอันตราย แม้โดยผู้ที่มีความรู้ทางวิทยาศาสตร์เพียงเล็กน้อย ทำให้ต้องจัดให้อยู่ในประเภท "ความเสี่ยงสูง"
  • ความท้าทายสำคัญคือการสร้างสมดุลระหว่างประโยชน์ทางการแพทย์ที่อาจช่วยชีวิตมนุษย์ กับความเสี่ยงที่ความรู้เดียวกันนี้อาจถูกนำไปใช้ในทางที่ผิด ทำให้ต้องพัฒนาระบบการทดสอบที่แม่นยำมากขึ้นก่อนปล่อยสู่สาธารณะ
  • บริษัทคู่แข่งอย่าง Anthropic ก็มีความกังวลในประเด็นเดียวกัน โดยได้นำระบบความปลอดภัยระดับ ASL-3 มาใช้กับโมเดล Claude Opus 4 เพื่อป้องกันการนำไปใช้ในทางที่ผิด หลังจากพบปัญหาในการทดสอบรุ่นก่อนหน้า

ผู้บริหารระดับสูงของ OpenAI ที่ดูแลด้านความปลอดภัยของปัญญาประดิษฐ์ได้ออกมาแสดงความกังวลว่า โมเดลภาษาขนาดใหญ่รุ่นใหม่ของบริษัทอาจถูกนำไปใช้เพื่ออำนวยความสะดวกในการพัฒนาอาวุธชีวภาพที่เป็นอันตรายถึงชีวิต แม้โดยบุคคลที่มีความรู้ทางวิทยาศาสตร์เพียงเล็กน้อย

Johannes Heidecke หัวหน้าระบบความปลอดภัยของ OpenAI เปิดเผยในการให้สัมภาษณ์กับ Axios ว่า เขาคาดการณ์ว่าโมเดล AI รุ่นถัดไปของบริษัทจะต้องได้รับ "การจัดประเภทความเสี่ยงสูง" ภายใต้กรอบการเตรียมความพร้อมของบริษัท ซึ่งเป็นระบบที่ออกแบบมาเพื่อประเมินอันตรายที่อาจเกิดจาก AI

"ผมคาดว่าผู้สืบทอดบางส่วนของโมเดลการให้เหตุผล o3 ของเราจะเข้าข่ายอยู่ในระดับความเสี่ยงนั้น" Heidecke กล่าว

OpenAI ระบุในบล็อกโพสต์ว่า บริษัทได้เพิ่มการทดสอบความปลอดภัยเพื่อลดความเสี่ยงที่โมเดลของบริษัทอาจถูกนำไปใช้ในทางที่ผิดโดยผู้ที่ต้องการสร้างอาวุธชีวภาพ บริษัทกังวลว่าหากไม่มีมาตรการป้องกันที่เหมาะสม โมเดล AI อาจมีความสามารถในการ "novice uplift" ซึ่งทำให้บุคคลที่มีความรู้ทางวิทยาศาสตร์จำกัดสามารถสร้างอาวุธอันตรายได้

Heidecke ชี้แจงว่า OpenAI ไม่ได้กังวลว่า AI จะถูกใช้สร้างอาวุธชนิดใหม่ที่ไม่เคยมีมาก่อน แต่กังวลเกี่ยวกับการที่ AI อาจช่วยให้สามารถทำซ้ำอาวุธที่นักวิทยาศาสตร์รู้จักเป็นอย่างดีแล้ว

ความท้าทายสำคัญที่ OpenAI เผชิญคือ ในขณะที่โมเดล AI บางตัวมีศักยภาพในการนำไปสู่การค้นพบทางการแพทย์ที่ช่วยชีวิตมนุษย์ ฐานความรู้เดียวกันนี้ก็สามารถนำไปใช้ในทางอันตรายได้เช่นกัน Heidecke กล่าวว่าทางออกเดียวคือการพัฒนาระบบการทดสอบที่แม่นยำยิ่งขึ้น ซึ่งสามารถตรวจสอบโมเดลใหม่อย่างละเอียดก่อนเผยแพร่สู่สาธารณะ

"นี่ไม่ใช่เรื่องที่ประสิทธิภาพ 99% หรือแม้แต่ 1 ใน 100,000 จะเพียงพอ เราต้องการความสมบูรณ์แบบเกือบ 100%" เขากล่าว

คู่แข่งอย่าง Anthropic PBC ก็แสดงความกังวลในประเด็นเดียวกัน โดยเตือนว่าความเสี่ยงจะเพิ่มสูงขึ้นเมื่อโมเดล AI มีประสิทธิภาพมากขึ้น เมื่อเดือนที่แล้ว บริษัทได้เปิดตัว Claude Opus 4 พร้อมกับนำโปรโตคอลความปลอดภัยที่เข้มงวดมาใช้ โมเดลนี้ถูกจัดอยู่ในระดับ "AI Safety Level 3 (ASL-3)" ตามนโยบายการปรับขนาดที่รับผิดชอบของบริษัท ซึ่งได้แรงบันดาลใจมาจากระบบระดับความปลอดภัยทางชีวภาพของรัฐบาลสหรัฐฯ

การจัดอยู่ในระดับ ASL-3 หมายความว่า Claude Opus 4 มีประสิทธิภาพสูงพอที่อาจถูกใช้ในการสร้างอาวุธชีวภาพ หรือทำให้การวิจัยและพัฒนาโมเดล AI ที่ซับซ้อนยิ่งขึ้นเป็นไปโดยอัตโนมัติ ก่อนหน้านี้ Anthropic เคยตกเป็นข่าวเมื่อโมเดล AI ของบริษัทพยายามแบล็คเมล์วิศวกรซอฟต์แวร์ระหว่างการทดสอบเพื่อหลีกเลี่ยงการถูกปิด

นอกจากนี้ Claude 4 Opus รุ่นแรกๆ บางรุ่นยังถูกพบว่าปฏิบัติตามคำสั่งที่เป็นอันตราย เช่น การช่วยผู้ก่อการร้ายวางแผนโจมตี อย่างไรก็ตาม Anthropic อ้างว่าได้แก้ไขความเสี่ยงเหล่านี้แล้วหลังจากนำชุดข้อมูลที่เคยถูกละเว้นกลับมาใช้ใหม่

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจด้านเทคโนโลยีและความปลอดภัยทางไซเบอร์ เนื่องจากเป็นการเปิดเผยข้อมูลโดยตรงจากผู้บริหารระดับสูงของ OpenAI เกี่ยวกับความเสี่ยงที่ AI อาจถูกนำไปใช้ในทางที่ผิด โดยเฉพาะการพัฒนาอาวุธชีวภาพ ซึ่งเป็นประเด็นที่ส่งผลกระทบต่อความมั่นคงระดับโลก นอกจากนี้ยังแสดงให้เห็นถึงความพยายามของบริษัทเทคโนโลยีชั้นนำในการพัฒนามาตรการรักษาความปลอดภัยเพื่อป้องกันการใช้ AI ในทางที่ผิด

ข้อมูลอ้างอิงจาก https://siliconangle.com/2025/06/19/openai-exec-warns-growing-risk-ai-aid-biological-weapons-development/

Read more

Claude เพิ่ม Integration กับ Uber, Spotify และอีก 13 แอปดัง ลดช่องว่างการแข่งขันกับ Gemini และ ChatGPT

news

Claude เพิ่ม Integration กับ Uber, Spotify และอีก 13 แอปดัง ลดช่องว่างการแข่งขันกับ Gemini และ ChatGPT

Anthropic เพิ่มฟีเจอร์ App Connectors ให้ Claude เชื่อมต่อกับ 15 แอปยอดนิยม เช่น Uber, Spotify และ Booking.com สั่งงานได้จริงในแชทเดียว พร้อมระบบยืนยันทุก Transaction เพื่อความปลอดภัยของผู้ใช้

By
Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่ หลังประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ

news

Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่ หลังประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ

Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่หลัง CEO Marcus Lemonis ประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ กระทบแผนก Supply Chain, IT และ Marketing ขณะผลประกอบการ Q1 พุ่ง 7% ดีที่สุดในรอบ 19 ไตรมาส

By
ChatGPT บน CarPlay: เปิดตัวแล้ว แต่ยังคง Hallucinate อยู่ดี

news

ChatGPT บน CarPlay: เปิดตัวแล้ว แต่ยังคง Hallucinate อยู่ดี

OpenAI เปิดตัว ChatGPT บน CarPlay สำหรับ iOS 26.4 ใช้งานผ่าน Voice Mode ขณะขับขี่ แต่พบปัญหา Hallucination ให้ข้อมูลผิดพลาด ซึ่งอันตรายกว่าปกติเพราะผู้ใช้ไม่สามารถตรวจสอบข้อมูลได้ระหว่างขับรถ

By