Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Anthropic ผู้พัฒนา Claude ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ เพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์ขีดความสามารถและมาตรการป้องกันเพิ่มเติม หวังเป็นแบบอย่างให้อุตสาหกรรม AI

Anthropic ปรับนโยบาย AI เพื่อความปลอดภัย

Key takeaway

  • Anthropic ปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (RSP) โดยกำหนด "เกณฑ์ขีดความสามารถ" เพื่อระบุจุดที่ต้องมีมาตรการป้องกันเพิ่มเติมสำหรับโมเดล AI ที่มีความสามารถสูง
  • นโยบายใหม่นี้นำระบบระดับความปลอดภัย AI (ASLs) มาใช้ โดยจำลองจากมาตรฐานความปลอดภัยทางชีวภาพ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ความเสี่ยงต่ำไปจนถึงสูง
  • Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น

Anthropic ประกาศอัปเดตนโยบายการขยายขีดความสามารถ AI

บริษัท Anthropic ผู้พัฒนา chatbot ชื่อดังอย่าง Claude ได้ประกาศปรับปรุงนโยบายการขยายขีดความสามารถ AI อย่างรับผิดชอบ (Responsible Scaling Policy - RSP) ครั้งใหญ่ในวันนี้ โดยมีเป้าหมายเพื่อลดความเสี่ยงจากระบบ AI ที่มีความสามารถสูง

นโยบายนี้เริ่มใช้ครั้งแรกในปี 2566 และได้รับการพัฒนาเพิ่มเติมด้วยแนวทางใหม่ๆ เพื่อให้มั่นใจว่าโมเดล AI จะได้รับการพัฒนาและนำไปใช้อย่างปลอดภัยเมื่อมีขีดความสามารถเพิ่มขึ้น

นโยบายฉบับปรับปรุงนี้กำหนด "เกณฑ์ขีดความสามารถ" (Capability Thresholds) เฉพาะ ซึ่งเป็นตัวชี้วัดว่าเมื่อใดที่ความสามารถของโมเดล AI ถึงจุดที่จำเป็นต้องมีมาตรการป้องกันเพิ่มเติม

เกณฑ์เหล่านี้ครอบคลุมพื้นที่ที่มีความเสี่ยงสูง เช่น การสร้างอาวุธชีวภาพและการวิจัย AI แบบอัตโนมัติ สะท้อนให้เห็นถึงความมุ่งมั่นของ Anthropic ในการป้องกันการใช้เทคโนโลยีในทางที่ผิด นอกจากนี้ยังมีการนำมาตรการกำกับดูแลภายในใหม่ๆ มาใช้ รวมถึงการแต่งตั้งเจ้าหน้าที่ดูแลการขยายขีดความสามารถอย่างรับผิดชอบ (Responsible Scaling Officer) เพื่อดูแลการปฏิบัติตามนโยบาย

แนวทางเชิงรุกของ Anthropic แสดงให้เห็นถึงความตระหนักที่เพิ่มขึ้นในอุตสาหกรรม AI ว่าจำเป็นต้องสร้างสมดุลระหว่างนวัตกรรมที่รวดเร็วกับมาตรฐานความปลอดภัยที่เข้มแข็ง ในขณะที่ความสามารถของ AI เพิ่มขึ้นอย่างรวดเร็ว ความเสี่ยงก็สูงขึ้นกว่าที่เคยเป็นมา

นโยบายนี้ยังกำหนดระดับความปลอดภัย AI (AI Safety Levels - ASLs) โดยจำลองมาจากมาตรฐานความปลอดภัยทางชีวภาพของรัฐบาลสหรัฐฯ เพื่อจัดระดับความเสี่ยงของโมเดล AI ตั้งแต่ ASL-1 ที่มีความเสี่ยงต่ำไปจนถึง ASL-3 ที่มีความเสี่ยงสูง และคาดการณ์ถึงระดับ ASL-4+ สำหรับโมเดลในอนาคตที่อาจมีอันตรายมากขึ้น

Anthropic หวังว่านโยบายนี้จะเป็นแบบอย่างให้บริษัท AI อื่นๆ นำไปปรับใช้ เพื่อสร้างมาตรฐานความปลอดภัยด้าน AI ทั่วทั้งอุตสาหกรรม และตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลที่เพิ่มขึ้น โดยนำเสนอกรอบการทำงานที่ชัดเจนว่าเมื่อใดที่ระบบ AI ควรอยู่ภายใต้การควบคุมที่เข้มงวดขึ้น

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจในการพัฒนา AI อย่างรับผิดชอบ Anthropic ได้นำเสนอแนวทางใหม่ในการจัดการความเสี่ยงที่เกิดจาก AI ที่มีความสามารถสูง โดยกำหนดเกณฑ์และมาตรการที่ชัดเจน นโยบายนี้อาจกลายเป็นแบบอย่างสำหรับอุตสาหกรรม AI ทั้งหมด ส่งผลกระทบต่อการพัฒนาและการกำกับดูแล AI ในอนาคต ผู้อ่านจะได้เข้าใจถึงความท้าทายและแนวทางในการสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยในยุค AI

ข้อมูลอ้างอิงจาก https://venturebeat.com/ai/anthropic-just-made-it-harder-for-ai-to-go-rogue-with-its-updated-safety-policy/

Read more

Sam Altman's World เปิดตัวอุปกรณ์ตรวจสอบความเป็นมนุษย์แบบพกพา

news

Sam Altman's World เปิดตัวอุปกรณ์ตรวจสอบความเป็นมนุษย์แบบพกพา

Tools for Humanity บริษัทของ Sam Altman เปิดตัว Orb Mini อุปกรณ์พกพารูปทรงคล้ายสมาร์ทโฟนสำหรับสแกนดวงตาเพื่อยืนยันความเป็นมนุษย์ พร้อมประกาศขยายบริการในสหรัฐอเมริกา หวังเพิ่มฐานผู้ใช้งานทั่วโลก

By
Perplexity เปิดตัวผู้ช่วยเสียงบน iOS ท่ามกลางความล่าช้าของ Apple AI

news

Perplexity เปิดตัวผู้ช่วยเสียงบน iOS ท่ามกลางความล่าช้าของ Apple AI

Perplexity เปิดตัวผู้ช่วยเสียงอัจฉริยะบน iOS ที่สามารถตอบคำถาม เขียนอีเมล และจัดการงานต่างๆ ได้ ในขณะที่ Apple ยังประสบปัญหาความล่าช้าในการพัฒนา AI สำหรับ Siri

By
Nvidia เปิดตัว AI Blueprint ใหม่ เชื่อมโยง Blender กับการสร้างภาพด้วย AI

news

Nvidia เปิดตัว AI Blueprint ใหม่ เชื่อมโยง Blender กับการสร้างภาพด้วย AI

Nvidia เปิดตัว AI Blueprint ใหม่ เชื่อมต่อ Blender กับการสร้างภาพด้วย AI ช่วยให้ผู้ใช้สามารถควบคุมการสร้างภาพได้แม่นยำยิ่งขึ้น ผ่านการสร้างฉาก 3D ก่อนส่งต่อไปยังเครื่องมือ Flux.1

By
Claude ได้อัปเกรดระบบค้นหาข้อมูล สามารถใช้เวลาค้นหาคำตอบได้นานถึง 45 นาที

news

Claude ได้อัปเกรดระบบค้นหาข้อมูล สามารถใช้เวลาค้นหาคำตอบได้นานถึง 45 นาที

Anthropic ประกาศปรับปรุง Claude AI ให้ใช้เวลาค้นคว้าได้นานถึง 45 นาที สำหรับผู้ใช้แพ็กเกจแบบชำระเงิน พร้อมเพิ่มการเชื่อมต่อกับแอพยอดนิยมอย่าง PayPal, Cloudflare และอื่นๆ

By