Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Key takeaway

  • Anthropic ยกเลิกนโยบายเดิมที่สัญญาจะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากขึ้นเพื่อรักษาความสามารถในการแข่งขันในตลาด AI ที่พัฒนาอย่างรวดเร็ว
  • บริษัทเปิดตัว Responsible Scaling Policy ฉบับใหม่ที่มุ่งเน้นการเผยแพร่ "Frontier Safety Roadmaps" และ "Risk Reports" ประจำ พร้อมสัญญาว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง แต่จะไม่หยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า
  • การเปลี่ยนแปลงนี้สะท้อนถึงการปรับทิศทางของอุตสาหกรรม AI ที่เน้นการแข่งขันมากกว่าการยับยั้งตนเอง โดยผู้เชี่ยวชาญชี้ให้เห็นความสำคัญของการตรวจสอบอิสระและการกำกับดูแลแบบเรียลไทม์มากกว่าการพึ่งพาคำมั่นสัญญาแบบสมัครใจ

บริษัท Anthropic ผู้พัฒนา AI assistant Claude ได้ตัดสินใจยกเลิกคำมั่นสัญญาสำคัญที่จะไม่พัฒนาหรือเปิดตัวระบบ AI ขั้นสูงจนกว่าจะมั่นใจได้ว่าสามารถรับประกันความปลอดภัยที่เพียงพอได้ล่วงหน้า ซึ่งเป็นการยุตินโยบายที่เคยทำให้บริษัทแตกต่างจากนักพัฒนา AI รายอื่น ๆ

การเปลี่ยนแปลงครั้งนี้ได้รับการยืนยันในการสัมภาษณ์กับ Time Magazine โดย Responsible Scaling Policy ฉบับใหม่จะมุ่งเน้นการรักษาความสามารถในการแข่งขันของบริษัทในตลาด AI ที่มีการพัฒนาอย่างรวดเร็ว

นโยบายเดิมสร้างความแตกต่าง

ในช่วงหลายปีที่ผ่านมา Anthropic ใช้คำมั่นสัญญานี้เป็นหลักฐานแสดงให้เห็นว่าจะต่อต้านแรงกดดันทางการค้าที่ผลักดันคู่แข่งให้เปิดตัวระบบที่มีพลังมากขึ้นเรื่อย ๆ โดยนโยบายดังกล่าวห้ามไม่ให้บริษัทก้าวไปข้างหน้าเกินระดับหนึ่งจนกว่าจะมีมาตรการความปลอดภัยที่กำหนดไว้ล่วงหน้าแล้ว

ปัจจุบัน Anthropic เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากกว่าการหยุดพักอย่างเด็ดขาด โดยผู้บริหารอธิบายว่าการเปลี่ยนแปลงนี้สะท้อนความเป็นจริงมากกว่าอุดมการณ์ พวกเขาโต้แย้งว่าการยับยั้งตนเองแบบฝ่ายเดียวไม่สมเหตุสมผลอีกต่อไปในตลาดที่ขับเคลื่อนด้วยการพัฒนาอย่างรวดเร็วและความเร่งด่วนทางภูมิรัฐศาสตร์

มาตรการความปลอดภัยใหม่

ภายใต้ Responsible Scaling Policy ฉบับใหม่ Anthropic สัญญาว่าจะเผยแพร่ "Frontier Safety Roadmaps" ที่ละเอียด ซึ่งระบุเป้าหมายความปลอดภัยที่วางแผนไว้ พร้อมกับ "Risk Reports" ประจำที่ประเมินความสามารถของโมเดลและภัยคุกคามที่อาจเกิดขึ้น

บริษัทยังกล่าวว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง และจะชะลอการพัฒนาหากเชื่อว่าตนเองนำหน้าในสาขานี้และพบความเสี่ยงร้ายแรงที่สำคัญ อย่างไรก็ตาม สิ่งที่จะไม่ทำอีกต่อไปคือการสัญญาว่าจะหยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า

ผลกระทบต่ออุตสาหกรรม

แม้ผู้ใช้ทั่วไปอาจไม่สังเกตเห็นการเปลี่ยนแปลงใดๆ เมื่อพวกเขาโต้ตอบกับ Claude หรือเครื่องมือ AI อื่น ๆ แต่มาตรการป้องกันที่ควบคุมวิธีการฝึกสอนระบบเหล่านั้นมีอิทธิพลต่อทุกอย่างตั้งแต่ความแม่นยำไปจนถึงการใช้งานผิดวัตถุประสงค์

เมื่อบริษัทที่เคยกำหนดตัวตนด้วยเงื่อนไขที่เข้มงวดตัดสินใจว่าเงื่อนไขเหล่านั้นไม่สามารถใช้งานได้อีกต่อไป มันส่งสัญญาณถึงการปรับเทียบใหม่ที่กว้างขึ้นภายในอุตสาหกรรม

ความท้าทายของการควบคุมตนเอง

เมื่อ Anthropic แนะนำนโยบายเดิมในปี 2023 ผู้บริหารบางคนหวังว่ามันอาจเป็นแรงบันดาลใจให้คู่แข่งหรือแม้แต่ข้อกำหนดทางกฎหมายในที่สุด อย่างไรก็ตาม แรงผลักดันด้านการกำกับดูแลไม่เคยเกิดขึ้นอย่างเต็มที่ กฎหมาย AI ระดับรัฐบาลกลางยังคงติดขัด และบรรยากาศทางการเมืองที่กว้างขึ้นได้เอียงไปจากการพัฒนากรอบการทำงานใด ๆ

Nik Kairinos ซึ่งเป็น CEO และผู้ร่วมก่อตั้ง RAIDS AI องค์กรที่มุ่งเน้นการตรวจสอบอิสระและการตรวจจับความเสี่ยงใน AI กล่าวว่า "นโยบายใหม่ยังคงรวมมาตรการป้องกันบางอย่าง แต่คำสัญญาหลักที่ว่า Anthropic จะไม่เปิดตัวโมเดลจนกว่าจะสามารถรับประกันมาตรการความปลอดภัยที่เพียงพอล่วงหน้าได้นั้นหายไปแล้ว"

เขายังเสริมว่า "นี่คือเหตุผลที่การตรวจสอบอย่างต่อเนื่องและเป็นอิสระของระบบ AI มีความสำคัญ คำมั่นสัญญาแบบสมัครใจสามารถเขียนใหม่ได้ การกำกับดูแลที่สนับสนุนด้วยการดูแลแบบเรียลไทม์ทำไม่ได้"

ความขัดแย้งในนโยบาย

Kairinos ยังสังเกตเห็นความขัดแย้งใน Anthropic ที่บริจาค 20 ล้านดอลลาร์เมื่อสองสัปดาห์ที่แล้วให้ Public First Action กลุ่มที่สนับสนุนผู้สมัครรัฐสภาที่สัญญาว่าจะผลักดันกฎหมายความปลอดภัย AI การบริจาคนั้นเน้นย้ำถึงความซับซ้อนของช่วงเวลาปัจจุบัน ที่บริษัทต่าง ๆ อาจสนับสนุนการกำกับดูแลที่แข็งแกร่งขึ้นในขณะเดียวกันก็ปรับเทียบข้อจำกัดภายในของตนเองใหม่

อนาคตของความปลอดภัย AI

คำถามที่กว้างขึ้นที่อุตสาหกรรมเผชิญคือ บรรทัดฐานแบบสมัครใจสามารถกำหนดรูปร่างของเส้นทางของเทคโนโลยีที่เปลี่ยนโลกได้อย่างมีความหมายหรือไม่ Anthropic เคยพยายามยึดตนเองเป็นแบบอย่างของการยับยั้ง นโยบายที่ปรับปรุงใหม่ต้องการให้มันชดเชยการแข่งขัน

นั่นไม่ได้หมายความว่าความปลอดภัยถูกทิ้งไป แต่หมายความว่าลำดับของการดำเนินงานได้เปลี่ยนไป Anthropic โต้แย้งว่าการวิจัยความปลอดภัยที่มีความหมายต้องการการอยู่ที่แนวหน้า ไม่ใช่การถอยห่างจากมัน

แม้ว่าคนทั่วไปอาจไม่อ่าน Responsible Scaling Policies หรือ Risk Reports แต่พวกเขาอยู่กับผลกระทบที่ตามมาจากการตัดสินใจเหล่านั้น การเปลี่ยนแปลงครั้งนี้จึงเป็นสัญญาณสำคัญของการปรับทิศทางในอุตสาหกรรม AI ที่อาจส่งผลต่อการพัฒนาเทคโนโลยีนี้ในอนาคต

Why it matters

💡 การเปลี่ยนแปลงนโยบายความปลอดภัย AI ของ Anthropic ครั้งนี้เป็นข่าวสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ที่สนใจ AI ควรติดตาม เนื่องจากสะท้อนการปรับทิศทางครั้งใหญ่ของอุตสาหกรรม AI จากการยับยั้งตนเองมาสู่การแข่งขันเชิงรุก การตัดสินใจยกเลิกคำมั่นสัญญาเดิมที่จะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ ส่งสัญญาณถึงความท้าทายในการควบคุมตนเองของบริษัทเทคโนโลยี และอาจเป็นจุดเปลี่ยนที่ส่งผลต่อการพัฒนา AI ในอนาคต

ข้อมูลอ้างอิงจาก https://www.techradar.com/ai-platforms-assistants/anthropic-drops-its-signature-safety-promise-and-rewrites-ai-guardrails

Read more

OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อรับมือปัญหาสุขภาพจิต

news

OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อรับมือปัญหาสุขภาพจิต

OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อแจ้งเตือนบุคคลใกล้ชิดเมื่อผู้ใช้อาจตกอยู่ในภาวะวิกฤตสุขภาพจิต หลังมีรายงานคดีความและการเสียชีวิตที่เกี่ยวข้องกับการใช้ AI

By
พนักงานคือความเสี่ยงด้านความปลอดภัยที่ใหญ่ที่สุด เทคโนโลยี AI ทำให้สถานการณ์เลวร้ายขึ้น

news

พนักงานคือความเสี่ยงด้านความปลอดภัยที่ใหญ่ที่สุด เทคโนโลยี AI ทำให้สถานการณ์เลวร้ายขึ้น

รายงานล่าสุดเผยต้นทุนความเสียหายจาก insider risk เพิ่มขึ้น 20% ในสองปี เฉลี่ย 19.5 ล้านดอลลาร์ต่อปี 53% เกิดจากความประมาทของพนักงาน shadow AI เป็นสาเหตุเติบโตเร็วที่สุด

By
Burger King เปิดตัว AI Chatbot เพื่อตรวจสอบมารยาทการบริการของพนักงาน

news

Burger King เปิดตัว AI Chatbot เพื่อตรวจสอบมารยาทการบริการของพนักงาน

Burger King เปิดตัว AI Chatbot "Patty" ขับเคลื่อนโดย OpenAI เพื่อตรวจสอบมารยาทการบริการของพนักงาน โดยฟังการใช้คำว่า "กรุณา" และ "ขอบคุณ" ก่อให้เกิดการวิพากษ์วิจารณ์ว่าเป็นการควบคุมพนักงานมากเกินไป

By