OpenAI ยอมรับความเสี่ยง AI สร้างอาวุธชีวภาพ

OpenAI ยอมรับว่าโมเดล AI ใหม่ "o1" มีความเสี่ยงในการสร้างอาวุธชีวภาพ บริษัทระบุว่าเทคโนโลยีได้พัฒนาขึ้นอย่างมีนัยสำคัญ และกำลังระมัดระวังเป็นพิเศษในการเปิดตัวสู่สาธารณะ ผู้เชี่ยวชาญเรียกร้องให้มีการออกกฎหมายควบคุม

OpenAI ยอมรับความเสี่ยง AI สร้างอาวุธชีวภาพ

Key takeaway

  • OpenAI ยอมรับว่าโมเดล AI รุ่นใหม่ "o1" มีความเสี่ยงระดับกลางในการถูกนำไปใช้สร้างอาวุธชีวภาพ ซึ่งเป็นระดับความเสี่ยงสูงสุดที่บริษัทเคยกำหนด
  • บริษัทกำลังใช้ความระมัดระวังเป็นพิเศษในการเปิดตัว o1 สู่สาธารณะ โดยได้ผ่านการทดสอบจากผู้เชี่ยวชาญหลายสาขา แม้จะมีความสามารถสูงขึ้น แต่ก็มีความปลอดภัยโดยรวมดีกว่ารุ่นก่อน
  • ความก้าวหน้าของ AI ที่เพิ่มขึ้นอย่างรวดเร็วนี้ ทำให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยและจริยธรรม ซึ่งจำเป็นต้องได้รับการพิจารณาอย่างรอบคอบจากทั้งภาคอุตสาหกรรมและภาครัฐ

OpenAI บริษัทผู้พัฒนา ChatGPT ได้ออกมายอมรับว่าโมเดล AI รุ่นล่าสุดที่มีชื่อว่า "o1" อาจมีความเสี่ยงที่จะถูกนำไปใช้ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพ

เมื่อสัปดาห์ที่ผ่านมา OpenAI ได้เปิดตัวโมเดล AI ใหม่ที่มีความสามารถในการให้เหตุผลและแก้ปัญหาที่เหนือกว่ารุ่นก่อนหน้า ในการประเมินความเสี่ยง บริษัทได้จัดอันดับให้โมเดลนี้มี "ความเสี่ยงระดับกลาง" สำหรับปัญหาที่เกี่ยวข้องกับอาวุธ CBRN (Chemical, Biological, Radiological, and Nuclear) ซึ่งถือเป็นระดับความเสี่ยงสูงสุดที่บริษัทเคยกำหนดให้กับโมเดลของตน

ตามรายงานของ Financial Times บริษัทระบุว่าสิ่งนี้แสดงให้เห็นว่าเทคโนโลยีได้ "พัฒนาขึ้นอย่างมีนัยสำคัญ" ในด้านความสามารถที่ผู้เชี่ยวชาญอาจนำไปใช้ในการสร้างอาวุธชีวภาพ

Mira Murati CTO ของ OpenAI กล่าวว่าบริษัทกำลัง "ระมัดระวังเป็นพิเศษ" ในการเปิดตัว o1 สู่สาธารณะ เนื่องจากความสามารถขั้นสูงของมัน โมเดลนี้ได้ผ่านการทดสอบจาก red teamers และผู้เชี่ยวชาญในสาขาวิทยาศาสตร์ต่างๆ ที่พยายามทดสอบขีดจำกัดของโมเดล อย่างไรก็ตาม Murati ยืนยันว่าโมเดลปัจจุบันมีประสิทธิภาพดีกว่าโมเดลรุ่นก่อนหน้าในแง่ของความปลอดภัยโดยรวม

ผู้เชี่ยวชาญหลายท่านได้แสดงความกังวลเกี่ยวกับความเสี่ยงที่เพิ่มขึ้นของการนำ AI ที่มีความสามารถสูงไปใช้ในทางที่ผิด Yoshua Bengio นักวิทยาศาสตร์ AI ชั้นนำ ได้เน้นย้ำถึงความจำเป็นเร่งด่วนในการออกกฎหมายควบคุม เช่น ร่างกฎหมาย SB 1047 ของแคลิฟอร์เนีย ที่จะกำหนดให้ผู้พัฒนาโมเดล AI ต้องลดความเสี่ยงในการนำโมเดลไปใช้พัฒนาอาวุธชีวภาพ

ในขณะเดียวกัน การศึกษาเมื่อต้นปีนี้ได้แสดงให้เห็นถึงข้อจำกัดในการใช้งาน GPT-4 สำหรับการพัฒนาอาวุธชีวภาพ ซึ่งเป็นการตอบสนองต่อความกังวลเกี่ยวกับการนำ AI ไปใช้ในทางที่ผิด นอกจากนี้ ยังมีรายงานก่อนหน้านี้ว่า OpenAI ได้ร่วมมือกับ Los Alamos National Laboratory เพื่อศึกษาศักยภาพและความเสี่ยงของ AI ในการวิจัยทางวิทยาศาสตร์

ความก้าวหน้าของเทคโนโลยี AI ที่เพิ่มขึ้นอย่างรวดเร็วนี้ ทำให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยและจริยธรรมในการพัฒนาและใช้งาน AI ซึ่งจำเป็นต้องได้รับการพิจารณาอย่างรอบคอบจากทั้งภาคอุตสาหกรรมและภาครัฐ

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจในวงการเทคโนโลยี AI เนื่องจากเผยให้เห็นถึงความก้าวหน้าอย่างรวดเร็วของ AI และความท้าทายด้านความปลอดภัยที่ตามมา การที่ OpenAI ยอมรับความเสี่ยงนี้แสดงให้เห็นถึงความโปร่งใสและความรับผิดชอบของบริษัท ซึ่งเป็นประเด็นสำคัญในการพัฒนา AI อย่างมีจริยธรรม นอกจากนี้ ยังชี้ให้เห็นถึงความจำเป็นในการมีกฎระเบียบและการกำกับดูแลที่เหมาะสมสำหรับเทคโนโลยี AI ที่มีศักยภาพสูง

ข้อมูลอ้างอิงจาก https://www.benzinga.com/news/24/09/40870931/chatgpt-creator-openai-says-its-latest-models-pose-bioweapons-creation-risk-ai-giant-particularly-ca

Read more

AI Workflow Builders กำลังปฏิวัติการเรียนรู้และพัฒนาในปี 2025

news

AI Workflow Builders กำลังปฏิวัติการเรียนรู้และพัฒนาในปี 2025

ระบบ AI Workflow Builders กำลังปฏิวัติวงการ L&D ด้วยแพลตฟอร์ม no-code ที่ผสานเทคโนโลยี ML, NLP และ Data Analytics สร้างประสบการณ์การเรียนรู้แบบไดนามิกและเฉพาะบุคคล พร้อมระบบวิเคราะห์แบบเรียลไทม์

By
Perplexity ได้รับคำค้นหา 780 ล้านครั้งในเดือนที่แล้ว CEO กล่าว

news

Perplexity ได้รับคำค้นหา 780 ล้านครั้งในเดือนที่แล้ว CEO กล่าว

Perplexity เผยสถิติยอดค้นหาพุ่ง 780 ล้านครั้งในเดือนพฤษภาคม เติบโต 20% ต่อเดือน พร้อมเปิดตัวเบราว์เซอร์ Comet ที่จะปฏิวัติการใช้งาน AI ให้เป็นผู้ช่วยส่วนตัวในชีวิตประจำวัน

By
ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

news

ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

ซาอุดิอาระเบียทุ่มงบกว่า 4 หมื่นล้านดอลลาร์พัฒนา AI ผ่านบริษัท Humain และร่วมมือกับยักษ์ใหญ่อย่าง NVIDIA แต่นักวิเคราะห์กังวลว่าอาจถูกใช้เป็นเครื่องมือละเมิดสิทธิมนุษยชน

By
ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

news

ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

ซาอุดิอาระเบียทุ่มงบกว่า 4 หมื่นล้านดอลลาร์พัฒนา AI ผ่านบริษัท Humain และร่วมมือกับยักษ์ใหญ่อย่าง NVIDIA แต่นักวิเคราะห์กังวลว่าอาจถูกใช้เป็นเครื่องมือละเมิดสิทธิมนุษยชน

By