Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Anthropic ผู้พัฒนา Claude ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ เพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์ขีดความสามารถและมาตรการป้องกันเพิ่มเติม หวังเป็นแบบอย่างให้อุตสาหกรรม AI

Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Key takeaway

  • Anthropic ปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (RSP) โดยกำหนด "เกณฑ์ขีดความสามารถ" เพื่อระบุจุดที่ต้องมีมาตรการป้องกันเพิ่มเติมสำหรับโมเดล AI ที่มีความสามารถสูง
  • นโยบายใหม่นี้นำระบบระดับความปลอดภัย AI (ASLs) มาใช้ โดยจำลองจากมาตรฐานความปลอดภัยทางชีวภาพ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ความเสี่ยงต่ำไปจนถึงสูง
  • Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น

Anthropic ประกาศอัปเดตนโยบายการขยายขีดความสามารถ AI

บริษัท Anthropic ผู้พัฒนา chatbot ชื่อดังอย่าง Claude ได้ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (Responsible Scaling Policy - RSP) ครั้งใหญ่ในวันนี้ โดยมีเป้าหมายเพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง

นโยบายนี้เริ่มใช้ครั้งแรกในปี 2566 และได้รับการพัฒนาเพิ่มเติมด้วยแนวทางใหม่ๆ เพื่อให้มั่นใจว่าโมเดล AI จะได้รับการพัฒนาและนำไปใช้อย่างปลอดภัยเมื่อมีขีดความสามารถเพิ่มขึ้น

นโยบายฉบับปรับปรุงนี้กำหนด "เกณฑ์ขีดความสามารถ" (Capability Thresholds) เฉพาะ ซึ่งเป็นตัวชี้วัดว่าเมื่อใดที่ความสามารถของโมเดล AI ถึงจุดที่จำเป็นต้องมีมาตรการป้องกันเพิ่มเติม

เกณฑ์เหล่านี้ครอบคลุมพื้นที่ที่มีความเสี่ยงสูง เช่น การสร้างอาวุธชีวภาพและการวิจัย AI แบบอัตโนมัติ สะท้อนให้เห็นถึงความมุ่งมั่นของ Anthropic ในการป้องกันการใช้เทคโนโลยีในทางที่ผิด นอกจากนี้ยังมีการนำมาตรการกำกับดูแลภายในใหม่ๆ มาใช้ รวมถึงการแต่งตั้งเจ้าหน้าที่ดูแลการขยายขีดความสามารถอย่างรับผิดชอบ (Responsible Scaling Officer) เพื่อดูแลการปฏิบัติตามนโยบาย

แนวทางเชิงรุกของ Anthropic แสดงให้เห็นถึงความตระหนักที่เพิ่มขึ้นในอุตสาหกรรม AI ว่าจำเป็นต้องสร้างสมดุลระหว่างนวัตกรรมที่รวดเร็วกับมาตรฐานความปลอดภัยที่เข้มแข็ง ในขณะที่ความสามารถของ AI เพิ่มขึ้นอย่างรวดเร็ว ความเสี่ยงก็สูงขึ้นกว่าที่เคยเป็นมา

นโยบายนี้ยังกำหนดระดับความปลอดภัย AI (AI Safety Levels - ASLs) โดยจำลองมาจากมาตรฐานความปลอดภัยทางชีวภาพของรัฐบาลสหรัฐฯ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ ASL-1 ที่มีความเสี่ยงต่ำไปจนถึง ASL-3 ที่มีความเสี่ยงสูง และคาดการณ์ถึงระดับ ASL-4+ สำหรับโมเดลในอนาคตที่อาจมีอันตรายมากขึ้น

Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น โดยนำเสนอกรอบการทำงานที่ชัดเจนว่าเมื่อใดที่ระบบ AI ควรอยู่ภายใต้การควบคุมที่เข้มงวดขึ้น

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจในการพัฒนา AI อย่างรับผิดชอบ Anthropic ได้นำเสนอแนวทางใหม่ในการจัดการความเสี่ยงที่เกิดจาก AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์และมาตรการที่ชัดเจน นโยบายนี้อาจกลายเป็นแบบอย่างสำหรับอุตสาหกรรม AI ทั้งหมด ส่งผลกระทบต่อการพัฒนาและการกำกับดูแล AI ในอนาคต ผู้อ่านจะได้เข้าใจถึงความท้าทายและแนวทางในการสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยในยุค AI

ข้อมูลอ้างอิงจาก https://venturebeat.com/ai/anthropic-just-made-it-harder-for-ai-to-go-rogue-with-its-updated-safety-policy/

Read more

ความคาดหวังต่อ AI Agent พุ่งสูง แต่ผลิตภาพยังไม่เป็นไปตามที่หวัง

news

ความคาดหวังต่อ AI Agent พุ่งสูง แต่ผลิตภาพยังไม่เป็นไปตามที่หวัง

องค์กรทั่วโลกลงทุน AI Agent อย่างหนักหวังเพิ่มผลิตภาพ แต่ผลลัพธ์จริงยังไม่ตอบสนองความคาดหวัง เผชิญความท้าทายการผสานระบบเดิม ความปลอดภัยข้อมูล และการปรับวัฒนธรรมองค์กร

By
OpenAI ขยายพันธมิตรด้านการให้คำปรึกษา เร่งขับเคลื่อนธุรกิจองค์กร

news

OpenAI ขยายพันธมิตรด้านการให้คำปรึกษา เร่งขับเคลื่อนธุรกิจองค์กร

OpenAI ประกาศความร่วมมือกับบริษัทที่ปรึกษาชั้นนำ 4 แห่ง ได้แก่ Accenture, BCG, Capgemini และ McKinsey เพื่อขยายฐานลูกค้าสู่ภาคธุรกิจ ท่ามกลางความท้าทายที่ consultants ยังขาดความเชี่ยวชาญ AI

By
ตัวแทน OpenAI ผู้สร้าง ChatGPT ถูกเรียกตัวไปแคนาดาหลังเหตุกราดยิงในโรงเรียน

news

ตัวแทน OpenAI ผู้สร้าง ChatGPT ถูกเรียกตัวไปแคนาดาหลังเหตุกราดยิงในโรงเรียน

OpenAI ถูกเรียกตัวไปแคนาดาหลังเปิดเผยว่าไม่ได้แจ้งตำรวจเรื่อง Jesse Van Rootselaar ผู้ใช้ ChatGPT ที่ส่งเสริมกิจกรรมรุนแรง ก่อนเกิดเหตุกราดยิงโรงเรียนใน British Columbia ที่มีผู้เสียชีวิต 8 คน

By
นโยบายจำกัดการเข้าเมืองของทรัมป์จะทำให้แรงงาน 2.4 ล้านคนหายไป แต่เขาเชื่อว่า AI จะช่วยทดแทนได้

news

นโยบายจำกัดการเข้าเมืองของทรัมป์จะทำให้แรงงาน 2.4 ล้านคนหายไป แต่เขาเชื่อว่า AI จะช่วยทดแทนได้

นโยบายจำกัดการเข้าเมืองของทรัมป์จะทำให้แรงงานสหรัฐฯ ลดลง 2.4 ล้านคนภายในปี 2035 ขณะที่รัฐบาลหวังพึ่ง AI ช่วยรักษาผลิตภาพ แต่นักวิเคราะห์เตือนว่าเทคโนโลยีอาจไม่สามารถชดเชยการขาดแคลนแรงงานและการสูญเสียรายได้ภาษีได้ทั้งหมด

By