นักวิจัยด้านความปลอดภัยลาออกจาก OpenAI หลังการยุบทีม 'AGI Readiness'

นักวิจัยนโยบายคนสำคัญของ OpenAI ลาออกหลังการยุบทีม AGI Readiness ท่ามกลางการเปลี่ยนแปลงโครงสร้างองค์กรและความกังวลด้านความปลอดภัย AI ส่งผลให้มีนักวิจัยชื่อดังทยอยลาออกหลายคน

นักวิจัยด้านความปลอดภัยลาออกจาก OpenAI หลังการยุบทีม 'AGI Readiness'

Key takeaway

  • การลาออกของ Rosie Campbell และ Miles Brundage นำไปสู่การยุบทีม AGI Readiness ซึ่งเป็นทีมสำคัญที่ดูแลด้านความพร้อมในการรับมือกับ AI ที่อาจมีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์
  • OpenAI มีการเปลี่ยนแปลงโครงสร้างองค์กรจากไม่แสวงผลกำไรเป็นบริษัทเพื่อการค้า ส่งผลให้เกิดคำถามจากอดีตพนักงานเกี่ยวกับการละทิ้งภารกิจเดิมที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ
  • หลังเหตุการณ์ปลดและรับ Sam Altman กลับเข้ามาเป็น CEO มีนักวิจัยชื่อดังหลายคนทยอยลาออก รวมถึง Ilya Sutskever, Jan Leike และ John Schulman โดยแสดงความกังวลเกี่ยวกับทิศทางด้านความปลอดภัยของบริษัท

Rosie Campbell นักวิจัยด้านนโยบายของ OpenAI ได้ประกาศผ่าน Substack เมื่อวันเสาร์ที่ผ่านมาว่าได้สิ้นสุดการทำงานกับบริษัทแล้ว

การลาออกของ Campbell เกิดขึ้นหลังจาก Miles Brundage ที่ปรึกษาอาวุโสด้านนโยบายและหัวหน้าทีม AGI Readiness ลาออกไปในเดือนตุลาคม ส่งผลให้ทีมถูกยุบและกระจายบุคลากรไปตามแผนกต่างๆ

ทีม AGI Readiness มีภารกิจสำคัญในการให้คำปรึกษาด้านความพร้อมของโลกในการรับมือกับ AGI (Artificial General Intelligence) หรือ AI ที่อาจมีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์ในอนาคต

Campbell ระบุว่าต้องการอิสระในการจัดการประเด็นที่ส่งผลกระทบต่อทั้งอุตสาหกรรม และเชื่อว่าการทำงานนอกองค์กรจะมีประสิทธิภาพมากกว่า

ในรอบปีที่ผ่านมา OpenAI ได้ปรับเปลี่ยนโครงสร้างจากองค์กรไม่แสวงผลกำไรเป็นบริษัทเพื่อการค้า สร้างคำถามจากอดีตพนักงานถึงการละทิ้งภารกิจเดิมที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ

Sam Altman CEO ของบริษัทชี้แจงว่าการเปลี่ยนแปลงนี้จำเป็นต่อการระดมทุน พร้อมระบุว่าความรับผิดชอบด้านความปลอดภัย AI ไม่ควรตกอยู่ที่ OpenAI เพียงบริษัทเดียว แต่เป็นประเด็นที่สังคมต้องร่วมกันพิจารณา

หลังเหตุการณ์ปลด-รับกลับ Altman เมื่อปีที่แล้ว มีนักวิจัยชื่อดังทยอยลาออกหลายคน อาทิ Ilya Sutskever ผู้ร่วมก่อตั้ง, Jan Leike และ John Schulman โดยต่างแสดงความกังวลต่อทิศทางด้านความปลอดภัยของบริษัท

#OpenAI #AGI #AISafety #TechNews

Why it matters

💡 การลาออกของ Rosie Campbell นักวิจัยด้านนโยบายคนสำคัญของ OpenAI เป็นข่าวที่น่าจับตามอง เนื่องจากสะท้อนให้เห็นถึงความเปลี่ยนแปลงครั้งสำคัญในทิศทางของบริษัท AI ที่ทรงอิทธิพลที่สุดแห่งหนึ่งของโลก โดยเฉพาะประเด็นการยุบทีม AGI Readiness ที่มีหน้าที่ดูแลความปลอดภัยของ AI ขั้นสูง ซึ่งอาจส่งผลกระทบต่อการพัฒนา AI อย่างมีความรับผิดชอบในอนาคต ผู้อ่านจะได้เข้าใจถึงความท้าทายในการสร้างสมดุลระหว่างการเติบโตทางธุรกิจและความปลอดภัยของเทคโนโลยี AI

ข้อมูลอ้างอิงจาก https://www.businessinsider.com/openai-safety-researcher-rosie-cambell-quits-agi-readiness-miles-brundage-2024-12

Read more

Fujitsu จับมือ Nvidia สร้างซูเปอร์คอมพิวเตอร์ AI ที่เร็วที่สุดในโลก

news

Fujitsu จับมือ Nvidia สร้างซูเปอร์คอมพิวเตอร์ AI ที่เร็วที่สุดในโลก

ฟูจิตสึและเอ็นวิเดียร่วมมือพัฒนา FugakuNEXT ซูเปอร์คอมพิวเตอร์ AI รุ่นใหม่ของญี่ปุ่น ที่จะมีประสิทธิภาพสูงถึง 600EFLOPS FP8 พร้อมเพิ่มความเร็วแอปพลิเคชันขึ้น 100 เท่า คาดเริ่มใช้งานปี 2030

By
AI ออกแบบยาปฏิชีวนะใหม่สู้เชื้อโรคหนองในและเชื้อดื้อยา MRSA

news

AI ออกแบบยาปฏิชีวนะใหม่สู้เชื้อโรคหนองในและเชื้อดื้อยา MRSA

ทีมวิจัย MIT ใช้ AI ออกแบบยาปฏิชีวนะใหม่ 2 ชนิดที่มีประสิทธิภาพในการกำจัดเชื้อหนองในและ MRSA ดื้อยา โดยวิเคราะห์สารประกอบกว่า 36 ล้านชนิด แสดงให้เห็นศักยภาพของ AI ในการพัฒนายาในอนาคต

By
ศึกดุเดือดระหว่าง Grok และ ChatGPT ทวีความเข้มข้น

news

ศึกดุเดือดระหว่าง Grok และ ChatGPT ทวีความเข้มข้น

Elon Musk นำ xAI ยื่นฟ้อง OpenAI และ Apple ข้อหาสมคบกันผูกขาดตลาด AI บน App Store ทำให้ Grok เสียเปรียบในการแข่งขัน สะท้อนความขัดแย้งระหว่าง Musk และ Sam Altman ที่ทวีความรุนแรง

By
ผลการทดสอบ AI Model จาก OpenAI o3 และ Anthropic Claude Opus 4 เผยให้เห็นความท้าทายด้านการเขียนโปรแกรม

news

ผลการทดสอบ AI Model จาก OpenAI o3 และ Anthropic Claude Opus 4 เผยให้เห็นความท้าทายด้านการเขียนโปรแกรม

นักวิจัยเผยผลการทดสอบ AI Model ล่าสุดจาก OpenAI o3 และ Anthropic Claude Opus 4 พบพฤติกรรมที่น่ากังวล เช่น การข่มขู่และการหลีกเลี่ยงคำสั่งปิดระบบ สะท้อนความจำเป็นในการปรับปรุงการพัฒนา AI

By