Sam Altman ยอมรับว่า OpenAI ไม่สามารถควบคุมการใช้ AI ของ Pentagon ได้
Sam Altman CEO ของ OpenAI ยอมรับต่อพนักงานว่าบริษัทไม่สามารถควบคุมการใช้เทคโนโลยี AI ของ Pentagon ได้ ท่ามกลางการอภิปรายเข้มข้นเรื่องจริยธรรม AI ทางทหารและการที่ Anthropic ปฏิเสธข้อตกลงกับ Pentagon
Key takeaway
- Sam Altman ยอมรับว่า OpenAI ไม่สามารถควบคุมการใช้เทคโนโลยี AI ของตนโดย Pentagon ได้ และไม่มีสิทธิ์แสดงความคิดเห็นในการตัดสินใจเชิงปฏิบัติการทางทหาร
- Anthropic ปฏิเสธข้อตกลงกับ Pentagon เนื่องจากความกังวลด้านจริยธรรม ส่งผลให้ถูกจัดประเภทเป็น "supply-chain risk" ขณะที่ OpenAI เข้าทำข้อตกลงทดแทนในช่วงเวลาเดียวกัน
- CEO ของ Anthropic วิจารณ์ OpenAI อย่างรุนแรงว่าสมรู้ร่วมคิดสร้าง "safety theater" และกล่าวหาว่าการบริจาคเงินให้ Trump เป็นปัจจัยสำคัญในการได้รับข้อตกลงกับรัฐบาล
CEO ของ OpenAI คือ Sam Altman ได้เปิดเผยต่อพนักงานในวันอังคารที่ผ่านมาว่า บริษัทไม่สามารถควบคุมวิธีการที่ Pentagon นำเทคโนโลยี artificial intelligence ของพวกเขาไปใช้ในภารกิจทางทหารได้ คำแถลงของ Altman เรื่องการขาดอำนาจควบคุมของ OpenAI เกิดขึ้นท่ามกลางการตรวจสอบอย่างใกล้ชิดในการนำ AI ไปใช้ในการสงครามของกองทัพ และความกังวลด้านจริยธรรมจากผู้เชี่ยวชาญ AI ต่อการนำเทคโนโลジีของตนไปใช้
"คุณไม่มีสิทธิในการตัดสินใจเชิงปฏิบัติการ" Altman กล่าวกับพนักงาน ตามรายงานของ Bloomberg และ CNBC
"ดังนั้น แม้คุณจะคิดว่าการโจมตี Iran เป็นสิ่งที่ควรทำ และการรุกราน Venezuela เป็นสิ่งที่ไม่ควรทำ คุณก็ไม่มีสิทธิ์แสดงความคิดเห็นในเรื่องนั้น" Altman กล่าวตามรายงาน
อุตสาหกรรม AI ได้ตกอยู่ในการอภิปรายอย่างเข้มข้นและการเจรจาที่ขัดแย้งกันในสัปดาห์ที่ผ่านมา หลังจากที่ Pentagon เรียกร้องให้บริษัท AI ลบ safety guardrails ออกจาก models ของตน เพื่อให้สามารถใช้งานทางทหารได้อย่างหลากหลายมากยิ่งขึ้น ระบบที่ขับเคลื่อนด้วย AI มีรายงานว่าถูกใช้แล้วในภารกิจของกองทัพสหรัฐฯ เพื่อจับกุมผู้นำ Venezuela อย่าง Nicolás Maduro และในการเลือกเป้าหมายในการสู้รบกับ Iran
Anthropic ซึ่งเป็นคู่แข่งของ OpenAI และผู้พัฒนา Claude chatbot ได้ปฏิเสธข้อตกลงกับ Pentagon เมื่อสัปดาห์ที่แล้ว เนื่องจากความกังวลว่า model ของตนอาจถูกนำไปใช้สำหรับการเฝ้าระวังประชาชนภายในประเทศหรือสร้างอาวุธอัตโนมัติเต็มรูปแบบ Pete Hegseth รัฐมนตรีกลาโหมสหรัฐฯ ได้ประกาศว่าบริษัทดังกล่าวเป็น "supply-chain risk" ซึ่งเป็นการจัดประเภทที่ไม่เคยใช้กับบริษัทสหรัฐฯ มาก่อน และอาจส่งผลเสียหายทางการเงินอย่างมหาศาลหากถูกบังคับใช้อย่างเป็นทางการ
ในวันเดียวกับที่ Hegseth ประกาศมาตรการลงโทษต่อ Anthropic, Pentagon ยังได้ประกาศข้อตกลงกับ OpenAI ที่ดูเหมือนจะมุ่งหวังทดแทนการใช้ Claude ในงานทางทหาร จังหวะเวลาของข้อตกลงและความกังวลที่ว่า OpenAI ได้ตกลงข้ามขีดจำกัดทางจริยธรรมที่ Anthropic ปฏิเสธ ได้นำไปสู่การต่อต้านทั้งจากสาธารณชนและพนักงานภายในต่อ OpenAI
Altman และ OpenAI พยายามยืนยันว่าเทคโนโลยีของตนจะถูกใช้อย่างถูกกฎหมายและมีการควบคุมความเสียหาย โดย Altman ยอมรับว่าข้อตกลงดังกล่าวถูกเร่งรีบประกาศและทำให้บริษัทดู "opportunistic และ sloppy"
CEO ของ Anthropic อย่าง Dario Amodei ได้วิพากษ์วิจารณ์ Altman อย่างรุนแรงว่าเป็น "mendacious" ในบันทึกถึงพนักงานเมื่อวันพุธ และกล่าวหาว่า Altman แสดง "การยกย่องแบบเผด็จการต่อ Trump" ตามรายงานของ the Information "เราได้ยึดมั่นใน red lines ของเราด้วยความซื่อสัตย์ แทนที่จะสมรู้ร่วมคิดกับพวกเขาเพื่อสร้าง 'safety theater' เพื่อประโยชน์ของพนักงาน (ซึ่งฉันสาบานได้เลยว่านั่นคือสิ่งที่ทุกคนที่ [Pentagon], Palantir, ที่ปรึกษาการเมืองของเรา ฯลฯ คิดว่าเป็นปัญหาที่เราควรแก้ไข)" Amodei เขียนตามรายงาน
Why it matters
💡 ข่าวนี้เป็นจุดเปลี่ยนสำคัญของอุตสาหกรรม AI ที่ผู้เชี่ยวชาญเทคโนโลยีต้องติดตาม เมื่อ Sam Altman ยอมรับว่า OpenAI ไม่สามารถควบคุมการใช้งาน AI ของ Pentagon ได้ ซึ่งเปิดประเด็นจริยธรรมและความรับผิดชอบของบริษัทเทคโนโลยี การแข่งขันระหว่าง OpenAI และ Anthropic ในตลาด AI ทางทหาร รวมถึงผลกระทบต่อการพัฒนา AI ในอนาคต ข่าวนี้จะช่วยให้เข้าใจทิศทางใหม่ของอุตสาหกรรมและความท้าทายด้านจริยธรรมที่กำลังเกิดขึ้น
ข้อมูลอ้างอิงจาก https://www.theguardian.com/technology/2026/mar/04/sam-altman-openai-pentagon