Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Anthropic ผู้พัฒนา Claude ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ เพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์ขีดความสามารถและมาตรการป้องกันเพิ่มเติม หวังเป็นแบบอย่างให้อุตสาหกรรม AI

Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Key takeaway

  • Anthropic ปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (RSP) โดยกำหนด "เกณฑ์ขีดความสามารถ" เพื่อระบุจุดที่ต้องมีมาตรการป้องกันเพิ่มเติมสำหรับโมเดล AI ที่มีความสามารถสูง
  • นโยบายใหม่นี้นำระบบระดับความปลอดภัย AI (ASLs) มาใช้ โดยจำลองจากมาตรฐานความปลอดภัยทางชีวภาพ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ความเสี่ยงต่ำไปจนถึงสูง
  • Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น

Anthropic ประกาศอัปเดตนโยบายการขยายขีดความสามารถ AI

บริษัท Anthropic ผู้พัฒนา chatbot ชื่อดังอย่าง Claude ได้ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (Responsible Scaling Policy - RSP) ครั้งใหญ่ในวันนี้ โดยมีเป้าหมายเพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง

นโยบายนี้เริ่มใช้ครั้งแรกในปี 2566 และได้รับการพัฒนาเพิ่มเติมด้วยแนวทางใหม่ๆ เพื่อให้มั่นใจว่าโมเดล AI จะได้รับการพัฒนาและนำไปใช้อย่างปลอดภัยเมื่อมีขีดความสามารถเพิ่มขึ้น

นโยบายฉบับปรับปรุงนี้กำหนด "เกณฑ์ขีดความสามารถ" (Capability Thresholds) เฉพาะ ซึ่งเป็นตัวชี้วัดว่าเมื่อใดที่ความสามารถของโมเดล AI ถึงจุดที่จำเป็นต้องมีมาตรการป้องกันเพิ่มเติม

เกณฑ์เหล่านี้ครอบคลุมพื้นที่ที่มีความเสี่ยงสูง เช่น การสร้างอาวุธชีวภาพและการวิจัย AI แบบอัตโนมัติ สะท้อนให้เห็นถึงความมุ่งมั่นของ Anthropic ในการป้องกันการใช้เทคโนโลยีในทางที่ผิด นอกจากนี้ยังมีการนำมาตรการกำกับดูแลภายในใหม่ๆ มาใช้ รวมถึงการแต่งตั้งเจ้าหน้าที่ดูแลการขยายขีดความสามารถอย่างรับผิดชอบ (Responsible Scaling Officer) เพื่อดูแลการปฏิบัติตามนโยบาย

แนวทางเชิงรุกของ Anthropic แสดงให้เห็นถึงความตระหนักที่เพิ่มขึ้นในอุตสาหกรรม AI ว่าจำเป็นต้องสร้างสมดุลระหว่างนวัตกรรมที่รวดเร็วกับมาตรฐานความปลอดภัยที่เข้มแข็ง ในขณะที่ความสามารถของ AI เพิ่มขึ้นอย่างรวดเร็ว ความเสี่ยงก็สูงขึ้นกว่าที่เคยเป็นมา

นโยบายนี้ยังกำหนดระดับความปลอดภัย AI (AI Safety Levels - ASLs) โดยจำลองมาจากมาตรฐานความปลอดภัยทางชีวภาพของรัฐบาลสหรัฐฯ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ ASL-1 ที่มีความเสี่ยงต่ำไปจนถึง ASL-3 ที่มีความเสี่ยงสูง และคาดการณ์ถึงระดับ ASL-4+ สำหรับโมเดลในอนาคตที่อาจมีอันตรายมากขึ้น

Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น โดยนำเสนอกรอบการทำงานที่ชัดเจนว่าเมื่อใดที่ระบบ AI ควรอยู่ภายใต้การควบคุมที่เข้มงวดขึ้น

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจในการพัฒนา AI อย่างรับผิดชอบ Anthropic ได้นำเสนอแนวทางใหม่ในการจัดการความเสี่ยงที่เกิดจาก AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์และมาตรการที่ชัดเจน นโยบายนี้อาจกลายเป็นแบบอย่างสำหรับอุตสาหกรรม AI ทั้งหมด ส่งผลกระทบต่อการพัฒนาและการกำกับดูแล AI ในอนาคต ผู้อ่านจะได้เข้าใจถึงความท้าทายและแนวทางในการสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยในยุค AI

ข้อมูลอ้างอิงจาก https://venturebeat.com/ai/anthropic-just-made-it-harder-for-ai-to-go-rogue-with-its-updated-safety-policy/

Read more

สหภาพยุโรปห้ามใช้ AI Assistants ในการประชุมออนไลน์

news

สหภาพยุโรปห้ามใช้ AI Assistants ในการประชุมออนไลน์

สหภาพยุโรปประกาศห้ามใช้ผู้ช่วย AI ในการประชุมออนไลน์ ท่ามกลางความกังวลด้านความปลอดภัยและความเป็นส่วนตัว แม้เทคโนโลยี AI agents กำลังเติบโตอย่างรวดเร็วในตลาดโลก

By
Perplexity CEO เปิดเผยว่าเบราว์เซอร์ใหม่จะติดตามกิจกรรมออนไลน์ทั้งหมดของผู้ใช้

news

Perplexity CEO เปิดเผยว่าเบราว์เซอร์ใหม่จะติดตามกิจกรรมออนไลน์ทั้งหมดของผู้ใช้

Perplexity เตรียมเปิดตัวเบราว์เซอร์ Comet ที่จะติดตามกิจกรรมออนไลน์ทั้งหมดของผู้ใช้ เพื่อสร้างโปรไฟล์สำหรับโฆษณาแบบไฮเปอร์เพอร์โซนัลไลซ์ พร้อมขยายสู่แพลตฟอร์มมือถือผ่านความร่วมมือกับ Motorola

By
Google เปิดตัว Veo 2 นำเวทมนตร์ฮอลลีวู้ดมาสู่ทุกคน

news

Google เปิดตัว Veo 2 นำเวทมนตร์ฮอลลีวู้ดมาสู่ทุกคน

Google เปิดตัว Veo 2 เทคโนโลยีสร้างวิดีโอด้วย AI ที่เปลี่ยนข้อความให้เป็นคลิปวิดีโอสมจริง พร้อมฟีเจอร์ Whisk Animate สำหรับภาพเคลื่อนไหว มาพร้อมระบบความปลอดภัย SynthID และการจำกัดโควต้าการใช้งานรายเดือน

By
Wikipedia มอบข้อมูลให้ผู้พัฒนา AI เพื่อป้องกันบอทคัดลอกข้อมูล

news

Wikipedia มอบข้อมูลให้ผู้พัฒนา AI เพื่อป้องกันบอทคัดลอกข้อมูล

วิกิพีเดียจับมือ Kaggle เปิดตัวชุดข้อมูลภาษาอังกฤษและฝรั่งเศสสำหรับพัฒนา AI โดยเฉพาะ เพื่อป้องกันการสแกรปข้อมูลที่สร้างภาระให้เซิร์ฟเวอร์ ช่วยให้นักพัฒนาเข้าถึงข้อมูลได้สะดวกขึ้น

By