OpenAI และ Anthropic ร่วมประเมินความปลอดภัยระบบ AI ของกันและกัน

OpenAI และ Anthropic ร่วมมือประเมินความปลอดภัยของระบบ AI ซึ่งกันและกัน ครอบคลุมการทดสอบหลายด้าน เช่น การใช้งานผิดวัตถุประสงค์ การให้ข้อมูลเท็จ และความปลอดภัยของผู้ใช้ พร้อมเปิดเผยผลการวิเคราะห์

OpenAI และ Anthropic ร่วมประเมินความปลอดภัยระบบ AI ของกันและกัน

Key takeaway

  • การร่วมมือครั้งประวัติศาสตร์ระหว่าง OpenAI และ Anthropic ในการประเมินความปลอดภัยของระบบ AI ซึ่งกันและกัน แสดงให้เห็นถึงความสำคัญของการพัฒนา AI อย่างมีความรับผิดชอบ แม้จะเป็นบริษัทคู่แข่งกันก็ตาม
  • ผลการทดสอบพบจุดอ่อนที่สำคัญในระบบ AI ของทั้งสองบริษัท โดยเฉพาะปัญหา sycophancy ในโมเดลส่วนใหญ่ และความเสี่ยงในการใช้งานในทางที่ผิดของโมเดล GPT-4o และ GPT-4.1 ในขณะที่โมเดล Claude ของ Anthropic แสดงผลลัพธ์ที่ดีในด้านการจัดการคำสั่งและการหลีกเลี่ยงการให้ข้อมูลที่ไม่แน่นอน
  • ความร่วมมือนี้เกิดขึ้นในช่วงเวลาที่มีความท้าทายด้านความปลอดภัยของ AI มากขึ้น โดยเฉพาะหลังจากกรณีการฟ้องร้อง OpenAI เกี่ยวกับการเสียชีวิตของวัยรุ่น ซึ่งสะท้อนให้เห็นความจำเป็นในการพัฒนามาตรการป้องกันผู้ใช้งานที่เข้มงวดมากขึ้น

OpenAI และ Anthropic ได้ทำการประเมินความปลอดภัยของระบบ AI ของกันและกัน ในความร่วมมือที่หาได้ยากระหว่างบริษัทคู่แข่งในวงการเทคโนโลยี AI

โดยทั่วไปแล้ว บริษัท AI มักแข่งขันกันเพื่อชิงความเป็นผู้นำในตลาด แต่ล่าสุด OpenAI และ Anthropic ได้เปิดเผยถึงข้อตกลงในการประเมิน alignment ของระบบที่ให้บริการสาธารณะของแต่ละฝ่าย พร้อมแบ่งปันผลการวิเคราะห์ร่วมกัน รายงานฉบับเต็มมีรายละเอียดทางเทคนิคที่น่าสนใจสำหรับผู้ติดตามการพัฒนา AI โดยผลสรุปพบข้อบกพร่องบางประการในผลิตภัณฑ์ของทั้งสองบริษัท และเผยให้เห็นแนวทางการปรับปรุงการทดสอบความปลอดภัยในอนาคต

Anthropic ระบุว่าได้ประเมินโมเดลของ OpenAI ในหลายด้าน ได้แก่ "sycophancy, whistleblowing, self-preservation และการสนับสนุนการใช้งานในทางที่ผิดโดยมนุษย์ รวมถึงความสามารถที่เกี่ยวข้องกับการบ่อนทำลายการประเมินความปลอดภัยของ AI และการกำกับดูแล" ผลการทดสอบพบว่าโมเดล o3 และ o4-mini ของ OpenAI มีผลลัพธ์สอดคล้องกับโมเดลของ Anthropic เอง แต่มีความกังวลเกี่ยวกับการใช้งานในทางที่ผิดที่อาจเกิดขึ้นกับโมเดล GPT-4o และ GPT-4.1 นอกจากนี้ยังพบว่า sycophancy เป็นปัญหาในระดับหนึ่งกับทุกโมเดลที่ทดสอบ ยกเว้น o3

การทดสอบของ Anthropic ไม่รวมถึง GPT-5 ซึ่งเป็นโมเดลล่าสุดของ OpenAI ที่มีฟีเจอร์ Safe Completions ออกแบบมาเพื่อปกป้องผู้ใช้จากคำถามที่อาจเป็นอันตราย ทั้งนี้ OpenAI เพิ่งเผชิญกับคดีฟ้องร้องครั้งแรกเกี่ยวกับการเสียชีวิต หลังจากเหตุการณ์สลดที่วัยรุ่นรายหนึ่งสนทนาเรื่องความพยายามและแผนการฆ่าตัวตายกับ ChatGPT เป็นเวลาหลายเดือนก่อนที่จะฆ่าตัวตาย

ในส่วนของ OpenAI ได้ทดสอบโมเดลของ Anthropic ในด้าน instruction hierarchy, jailbreaking, hallucinations และ scheming โดยโมเดล Claude โดยทั่วไปทำผลงานได้ดีในการทดสอบ instruction hierarchy และมีอัตราการปฏิเสธสูงในการทดสอบ hallucination ซึ่งแสดงว่ามีแนวโน้มน้อยที่จะให้คำตอบในกรณีที่มีความไม่แน่นอนซึ่งอาจนำไปสู่ข้อมูลที่ผิดพลาด

ความร่วมมือนี้เกิดขึ้นในช่วงเวลาที่น่าสนใจ โดยเฉพาะเมื่อไม่นานมานี้ OpenAI ถูกกล่าวหาว่าละเมิดข้อกำหนดการใช้งานของ Anthropic ด้วยการให้โปรแกรมเมอร์ใช้ Claude ในกระบวนการพัฒนาโมเดล GPT ใหม่ ซึ่งส่งผลให้ Anthropic ระงับการเข้าถึงเครื่องมือของ OpenAI เมื่อต้นเดือนนี้ อย่างไรก็ตาม ความปลอดภัยของเครื่องมือ AI กำลังกลายเป็นประเด็นสำคัญมากขึ้น เมื่อนักวิจารณ์และผู้เชี่ยวชาญด้านกฎหมายเรียกร้องแนวทางการปกป้องผู้ใช้ โดยเฉพาะเยาวชน

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจพัฒนาการของเทคโนโลยี AI เพราะเป็นครั้งแรกที่บริษัทยักษ์ใหญ่อย่าง OpenAI และ Anthropic ร่วมมือกันประเมินความปลอดภัยของระบบ AI ซึ่งกันและกัน การเปิดเผยผลการทดสอบนี้ไม่เพียงแสดงให้เห็นถึงความโปร่งใสในการพัฒนา AI แต่ยังช่วยให้เราเข้าใจถึงจุดแข็งและจุดอ่อนของระบบ AI ที่ใช้งานอยู่ในปัจจุบัน รวมถึงแนวทางการพัฒนาความปลอดภัยในอนาคต

ข้อมูลอ้างอิงจาก https://www.engadget.com/ai/openai-and-anthropic-conducted-safety-evaluations-of-each-others-ai-systems-223637433.html

Read more

Amazon ติดอาวุธ Alexa ด้วย Generative AI พร้อมบุกตลาดสหราชอาณาจักรอย่างเต็มรูปแบบ

news

Amazon ติดอาวุธ Alexa ด้วย Generative AI พร้อมบุกตลาดสหราชอาณาจักรอย่างเต็มรูปแบบ

Amazon เปิดตัว Alexa+ อย่างเป็นทางการในสหราชอาณาจักร พร้อมเทคโนโลยี Generative AI และ Agentic AI รองรับอุปกรณ์เดิมย้อนหลัง 8 ปี ราคา £19.99/เดือน หรือรวมกับ Prime Subscription

By
การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

news

การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

งานวิจัยจากมหาวิทยาลัยฝั่งตะวันตกของสหรัฐฯ พบว่าผู้ที่ใช้ AI เขียนงานหนักมีแนวโน้มผลิตงานที่เป็นกลางมากกว่าถึง 69% พร้อมสูญเสีย Voice และความเป็นตัวตนของผู้เขียนไปอย่างมีนัยสำคัญ

By
Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

news

Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

Manulife ประกาศนำ AI Agents เข้าสู่กระบวนการทางการเงินหลักขององค์กร ในฐานะส่วนหนึ่งของกลยุทธ์ AI-First เพื่อยกระดับประสิทธิภาพและลด Manual Processes สะท้อนทิศทาง AI Infrastructure ของภาคการเงินโลก

By
Visa เตรียมระบบชำระเงินรองรับธุรกรรมที่ริเริ่มโดย AI Agent

news

Visa เตรียมระบบชำระเงินรองรับธุรกรรมที่ริเริ่มโดย AI Agent

Visa เปิดตัวโปรแกรม Agentic Ready ทดสอบระบบชำระเงินที่ AI Agent สามารถริเริ่มธุรกรรมแทนมนุษย์ได้โดยอัตโนมัติ ร่วมกับธนาคารชั้นนำในยุโรป พร้อมพัฒนา Infrastructure รองรับยุค AI Payment

By