Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่
Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า
Key takeaway
- Anthropic ยกเลิกนโยบายเดิมที่สัญญาจะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากขึ้นเพื่อรักษาความสามารถในการแข่งขันในตลาด AI ที่พัฒนาอย่างรวดเร็ว
- บริษัทเปิดตัว Responsible Scaling Policy ฉบับใหม่ที่มุ่งเน้นการเผยแพร่ "Frontier Safety Roadmaps" และ "Risk Reports" ประจำ พร้อมสัญญาว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง แต่จะไม่หยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า
- การเปลี่ยนแปลงนี้สะท้อนถึงการปรับทิศทางของอุตสาหกรรม AI ที่เน้นการแข่งขันมากกว่าการยับยั้งตนเอง โดยผู้เชี่ยวชาญชี้ให้เห็นความสำคัญของการตรวจสอบอิสระและการกำกับดูแลแบบเรียลไทม์มากกว่าการพึ่งพาคำมั่นสัญญาแบบสมัครใจ
บริษัท Anthropic ผู้พัฒนา AI assistant Claude ได้ตัดสินใจยกเลิกคำมั่นสัญญาสำคัญที่จะไม่พัฒนาหรือเปิดตัวระบบ AI ขั้นสูงจนกว่าจะมั่นใจได้ว่าสามารถรับประกันความปลอดภัยที่เพียงพอได้ล่วงหน้า ซึ่งเป็นการยุตินโยบายที่เคยทำให้บริษัทแตกต่างจากนักพัฒนา AI รายอื่น ๆ
การเปลี่ยนแปลงครั้งนี้ได้รับการยืนยันในการสัมภาษณ์กับ Time Magazine โดย Responsible Scaling Policy ฉบับใหม่จะมุ่งเน้นการรักษาความสามารถในการแข่งขันของบริษัทในตลาด AI ที่มีการพัฒนาอย่างรวดเร็ว
นโยบายเดิมสร้างความแตกต่าง
ในช่วงหลายปีที่ผ่านมา Anthropic ใช้คำมั่นสัญญานี้เป็นหลักฐานแสดงให้เห็นว่าจะต่อต้านแรงกดดันทางการค้าที่ผลักดันคู่แข่งให้เปิดตัวระบบที่มีพลังมากขึ้นเรื่อย ๆ โดยนโยบายดังกล่าวห้ามไม่ให้บริษัทก้าวไปข้างหน้าเกินระดับหนึ่งจนกว่าจะมีมาตรการความปลอดภัยที่กำหนดไว้ล่วงหน้าแล้ว
ปัจจุบัน Anthropic เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากกว่าการหยุดพักอย่างเด็ดขาด โดยผู้บริหารอธิบายว่าการเปลี่ยนแปลงนี้สะท้อนความเป็นจริงมากกว่าอุดมการณ์ พวกเขาโต้แย้งว่าการยับยั้งตนเองแบบฝ่ายเดียวไม่สมเหตุสมผลอีกต่อไปในตลาดที่ขับเคลื่อนด้วยการพัฒนาอย่างรวดเร็วและความเร่งด่วนทางภูมิรัฐศาสตร์
มาตรการความปลอดภัยใหม่
ภายใต้ Responsible Scaling Policy ฉบับใหม่ Anthropic สัญญาว่าจะเผยแพร่ "Frontier Safety Roadmaps" ที่ละเอียด ซึ่งระบุเป้าหมายความปลอดภัยที่วางแผนไว้ พร้อมกับ "Risk Reports" ประจำที่ประเมินความสามารถของโมเดลและภัยคุกคามที่อาจเกิดขึ้น
บริษัทยังกล่าวว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง และจะชะลอการพัฒนาหากเชื่อว่าตนเองนำหน้าในสาขานี้และพบความเสี่ยงร้ายแรงที่สำคัญ อย่างไรก็ตาม สิ่งที่จะไม่ทำอีกต่อไปคือการสัญญาว่าจะหยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า
ผลกระทบต่ออุตสาหกรรม
แม้ผู้ใช้ทั่วไปอาจไม่สังเกตเห็นการเปลี่ยนแปลงใดๆ เมื่อพวกเขาโต้ตอบกับ Claude หรือเครื่องมือ AI อื่น ๆ แต่มาตรการป้องกันที่ควบคุมวิธีการฝึกสอนระบบเหล่านั้นมีอิทธิพลต่อทุกอย่างตั้งแต่ความแม่นยำไปจนถึงการใช้งานผิดวัตถุประสงค์
เมื่อบริษัทที่เคยกำหนดตัวตนด้วยเงื่อนไขที่เข้มงวดตัดสินใจว่าเงื่อนไขเหล่านั้นไม่สามารถใช้งานได้อีกต่อไป มันส่งสัญญาณถึงการปรับเทียบใหม่ที่กว้างขึ้นภายในอุตสาหกรรม
ความท้าทายของการควบคุมตนเอง
เมื่อ Anthropic แนะนำนโยบายเดิมในปี 2023 ผู้บริหารบางคนหวังว่ามันอาจเป็นแรงบันดาลใจให้คู่แข่งหรือแม้แต่ข้อกำหนดทางกฎหมายในที่สุด อย่างไรก็ตาม แรงผลักดันด้านการกำกับดูแลไม่เคยเกิดขึ้นอย่างเต็มที่ กฎหมาย AI ระดับรัฐบาลกลางยังคงติดขัด และบรรยากาศทางการเมืองที่กว้างขึ้นได้เอียงไปจากการพัฒนากรอบการทำงานใด ๆ
Nik Kairinos ซึ่งเป็น CEO และผู้ร่วมก่อตั้ง RAIDS AI องค์กรที่มุ่งเน้นการตรวจสอบอิสระและการตรวจจับความเสี่ยงใน AI กล่าวว่า "นโยบายใหม่ยังคงรวมมาตรการป้องกันบางอย่าง แต่คำสัญญาหลักที่ว่า Anthropic จะไม่เปิดตัวโมเดลจนกว่าจะสามารถรับประกันมาตรการความปลอดภัยที่เพียงพอล่วงหน้าได้นั้นหายไปแล้ว"
เขายังเสริมว่า "นี่คือเหตุผลที่การตรวจสอบอย่างต่อเนื่องและเป็นอิสระของระบบ AI มีความสำคัญ คำมั่นสัญญาแบบสมัครใจสามารถเขียนใหม่ได้ การกำกับดูแลที่สนับสนุนด้วยการดูแลแบบเรียลไทม์ทำไม่ได้"
ความขัดแย้งในนโยบาย
Kairinos ยังสังเกตเห็นความขัดแย้งใน Anthropic ที่บริจาค 20 ล้านดอลลาร์เมื่อสองสัปดาห์ที่แล้วให้ Public First Action กลุ่มที่สนับสนุนผู้สมัครรัฐสภาที่สัญญาว่าจะผลักดันกฎหมายความปลอดภัย AI การบริจาคนั้นเน้นย้ำถึงความซับซ้อนของช่วงเวลาปัจจุบัน ที่บริษัทต่าง ๆ อาจสนับสนุนการกำกับดูแลที่แข็งแกร่งขึ้นในขณะเดียวกันก็ปรับเทียบข้อจำกัดภายในของตนเองใหม่
อนาคตของความปลอดภัย AI
คำถามที่กว้างขึ้นที่อุตสาหกรรมเผชิญคือ บรรทัดฐานแบบสมัครใจสามารถกำหนดรูปร่างของเส้นทางของเทคโนโลยีที่เปลี่ยนโลกได้อย่างมีความหมายหรือไม่ Anthropic เคยพยายามยึดตนเองเป็นแบบอย่างของการยับยั้ง นโยบายที่ปรับปรุงใหม่ต้องการให้มันชดเชยการแข่งขัน
นั่นไม่ได้หมายความว่าความปลอดภัยถูกทิ้งไป แต่หมายความว่าลำดับของการดำเนินงานได้เปลี่ยนไป Anthropic โต้แย้งว่าการวิจัยความปลอดภัยที่มีความหมายต้องการการอยู่ที่แนวหน้า ไม่ใช่การถอยห่างจากมัน
แม้ว่าคนทั่วไปอาจไม่อ่าน Responsible Scaling Policies หรือ Risk Reports แต่พวกเขาอยู่กับผลกระทบที่ตามมาจากการตัดสินใจเหล่านั้น การเปลี่ยนแปลงครั้งนี้จึงเป็นสัญญาณสำคัญของการปรับทิศทางในอุตสาหกรรม AI ที่อาจส่งผลต่อการพัฒนาเทคโนโลยีนี้ในอนาคต
Why it matters
💡 การเปลี่ยนแปลงนโยบายความปลอดภัย AI ของ Anthropic ครั้งนี้เป็นข่าวสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ที่สนใจ AI ควรติดตาม เนื่องจากสะท้อนการปรับทิศทางครั้งใหญ่ของอุตสาหกรรม AI จากการยับยั้งตนเองมาสู่การแข่งขันเชิงรุก การตัดสินใจยกเลิกคำมั่นสัญญาเดิมที่จะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ ส่งสัญญาณถึงความท้าทายในการควบคุมตนเองของบริษัทเทคโนโลยี และอาจเป็นจุดเปลี่ยนที่ส่งผลต่อการพัฒนา AI ในอนาคต
ข้อมูลอ้างอิงจาก https://www.techradar.com/ai-platforms-assistants/anthropic-drops-its-signature-safety-promise-and-rewrites-ai-guardrails