Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Key takeaway

  • Anthropic ยกเลิกนโยบายเดิมที่สัญญาจะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากขึ้นเพื่อรักษาความสามารถในการแข่งขันในตลาด AI ที่พัฒนาอย่างรวดเร็ว
  • บริษัทเปิดตัว Responsible Scaling Policy ฉบับใหม่ที่มุ่งเน้นการเผยแพร่ "Frontier Safety Roadmaps" และ "Risk Reports" ประจำ พร้อมสัญญาว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง แต่จะไม่หยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า
  • การเปลี่ยนแปลงนี้สะท้อนถึงการปรับทิศทางของอุตสาหกรรม AI ที่เน้นการแข่งขันมากกว่าการยับยั้งตนเอง โดยผู้เชี่ยวชาญชี้ให้เห็นความสำคัญของการตรวจสอบอิสระและการกำกับดูแลแบบเรียลไทม์มากกว่าการพึ่งพาคำมั่นสัญญาแบบสมัครใจ

บริษัท Anthropic ผู้พัฒนา AI assistant Claude ได้ตัดสินใจยกเลิกคำมั่นสัญญาสำคัญที่จะไม่พัฒนาหรือเปิดตัวระบบ AI ขั้นสูงจนกว่าจะมั่นใจได้ว่าสามารถรับประกันความปลอดภัยที่เพียงพอได้ล่วงหน้า ซึ่งเป็นการยุตินโยบายที่เคยทำให้บริษัทแตกต่างจากนักพัฒนา AI รายอื่น ๆ

การเปลี่ยนแปลงครั้งนี้ได้รับการยืนยันในการสัมภาษณ์กับ Time Magazine โดย Responsible Scaling Policy ฉบับใหม่จะมุ่งเน้นการรักษาความสามารถในการแข่งขันของบริษัทในตลาด AI ที่มีการพัฒนาอย่างรวดเร็ว

นโยบายเดิมสร้างความแตกต่าง

ในช่วงหลายปีที่ผ่านมา Anthropic ใช้คำมั่นสัญญานี้เป็นหลักฐานแสดงให้เห็นว่าจะต่อต้านแรงกดดันทางการค้าที่ผลักดันคู่แข่งให้เปิดตัวระบบที่มีพลังมากขึ้นเรื่อย ๆ โดยนโยบายดังกล่าวห้ามไม่ให้บริษัทก้าวไปข้างหน้าเกินระดับหนึ่งจนกว่าจะมีมาตรการความปลอดภัยที่กำหนดไว้ล่วงหน้าแล้ว

ปัจจุบัน Anthropic เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากกว่าการหยุดพักอย่างเด็ดขาด โดยผู้บริหารอธิบายว่าการเปลี่ยนแปลงนี้สะท้อนความเป็นจริงมากกว่าอุดมการณ์ พวกเขาโต้แย้งว่าการยับยั้งตนเองแบบฝ่ายเดียวไม่สมเหตุสมผลอีกต่อไปในตลาดที่ขับเคลื่อนด้วยการพัฒนาอย่างรวดเร็วและความเร่งด่วนทางภูมิรัฐศาสตร์

มาตรการความปลอดภัยใหม่

ภายใต้ Responsible Scaling Policy ฉบับใหม่ Anthropic สัญญาว่าจะเผยแพร่ "Frontier Safety Roadmaps" ที่ละเอียด ซึ่งระบุเป้าหมายความปลอดภัยที่วางแผนไว้ พร้อมกับ "Risk Reports" ประจำที่ประเมินความสามารถของโมเดลและภัยคุกคามที่อาจเกิดขึ้น

บริษัทยังกล่าวว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง และจะชะลอการพัฒนาหากเชื่อว่าตนเองนำหน้าในสาขานี้และพบความเสี่ยงร้ายแรงที่สำคัญ อย่างไรก็ตาม สิ่งที่จะไม่ทำอีกต่อไปคือการสัญญาว่าจะหยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า

ผลกระทบต่ออุตสาหกรรม

แม้ผู้ใช้ทั่วไปอาจไม่สังเกตเห็นการเปลี่ยนแปลงใดๆ เมื่อพวกเขาโต้ตอบกับ Claude หรือเครื่องมือ AI อื่น ๆ แต่มาตรการป้องกันที่ควบคุมวิธีการฝึกสอนระบบเหล่านั้นมีอิทธิพลต่อทุกอย่างตั้งแต่ความแม่นยำไปจนถึงการใช้งานผิดวัตถุประสงค์

เมื่อบริษัทที่เคยกำหนดตัวตนด้วยเงื่อนไขที่เข้มงวดตัดสินใจว่าเงื่อนไขเหล่านั้นไม่สามารถใช้งานได้อีกต่อไป มันส่งสัญญาณถึงการปรับเทียบใหม่ที่กว้างขึ้นภายในอุตสาหกรรม

ความท้าทายของการควบคุมตนเอง

เมื่อ Anthropic แนะนำนโยบายเดิมในปี 2023 ผู้บริหารบางคนหวังว่ามันอาจเป็นแรงบันดาลใจให้คู่แข่งหรือแม้แต่ข้อกำหนดทางกฎหมายในที่สุด อย่างไรก็ตาม แรงผลักดันด้านการกำกับดูแลไม่เคยเกิดขึ้นอย่างเต็มที่ กฎหมาย AI ระดับรัฐบาลกลางยังคงติดขัด และบรรยากาศทางการเมืองที่กว้างขึ้นได้เอียงไปจากการพัฒนากรอบการทำงานใด ๆ

Nik Kairinos ซึ่งเป็น CEO และผู้ร่วมก่อตั้ง RAIDS AI องค์กรที่มุ่งเน้นการตรวจสอบอิสระและการตรวจจับความเสี่ยงใน AI กล่าวว่า "นโยบายใหม่ยังคงรวมมาตรการป้องกันบางอย่าง แต่คำสัญญาหลักที่ว่า Anthropic จะไม่เปิดตัวโมเดลจนกว่าจะสามารถรับประกันมาตรการความปลอดภัยที่เพียงพอล่วงหน้าได้นั้นหายไปแล้ว"

เขายังเสริมว่า "นี่คือเหตุผลที่การตรวจสอบอย่างต่อเนื่องและเป็นอิสระของระบบ AI มีความสำคัญ คำมั่นสัญญาแบบสมัครใจสามารถเขียนใหม่ได้ การกำกับดูแลที่สนับสนุนด้วยการดูแลแบบเรียลไทม์ทำไม่ได้"

ความขัดแย้งในนโยบาย

Kairinos ยังสังเกตเห็นความขัดแย้งใน Anthropic ที่บริจาค 20 ล้านดอลลาร์เมื่อสองสัปดาห์ที่แล้วให้ Public First Action กลุ่มที่สนับสนุนผู้สมัครรัฐสภาที่สัญญาว่าจะผลักดันกฎหมายความปลอดภัย AI การบริจาคนั้นเน้นย้ำถึงความซับซ้อนของช่วงเวลาปัจจุบัน ที่บริษัทต่าง ๆ อาจสนับสนุนการกำกับดูแลที่แข็งแกร่งขึ้นในขณะเดียวกันก็ปรับเทียบข้อจำกัดภายในของตนเองใหม่

อนาคตของความปลอดภัย AI

คำถามที่กว้างขึ้นที่อุตสาหกรรมเผชิญคือ บรรทัดฐานแบบสมัครใจสามารถกำหนดรูปร่างของเส้นทางของเทคโนโลยีที่เปลี่ยนโลกได้อย่างมีความหมายหรือไม่ Anthropic เคยพยายามยึดตนเองเป็นแบบอย่างของการยับยั้ง นโยบายที่ปรับปรุงใหม่ต้องการให้มันชดเชยการแข่งขัน

นั่นไม่ได้หมายความว่าความปลอดภัยถูกทิ้งไป แต่หมายความว่าลำดับของการดำเนินงานได้เปลี่ยนไป Anthropic โต้แย้งว่าการวิจัยความปลอดภัยที่มีความหมายต้องการการอยู่ที่แนวหน้า ไม่ใช่การถอยห่างจากมัน

แม้ว่าคนทั่วไปอาจไม่อ่าน Responsible Scaling Policies หรือ Risk Reports แต่พวกเขาอยู่กับผลกระทบที่ตามมาจากการตัดสินใจเหล่านั้น การเปลี่ยนแปลงครั้งนี้จึงเป็นสัญญาณสำคัญของการปรับทิศทางในอุตสาหกรรม AI ที่อาจส่งผลต่อการพัฒนาเทคโนโลยีนี้ในอนาคต

Why it matters

💡 การเปลี่ยนแปลงนโยบายความปลอดภัย AI ของ Anthropic ครั้งนี้เป็นข่าวสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ที่สนใจ AI ควรติดตาม เนื่องจากสะท้อนการปรับทิศทางครั้งใหญ่ของอุตสาหกรรม AI จากการยับยั้งตนเองมาสู่การแข่งขันเชิงรุก การตัดสินใจยกเลิกคำมั่นสัญญาเดิมที่จะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ ส่งสัญญาณถึงความท้าทายในการควบคุมตนเองของบริษัทเทคโนโลยี และอาจเป็นจุดเปลี่ยนที่ส่งผลต่อการพัฒนา AI ในอนาคต

ข้อมูลอ้างอิงจาก https://www.techradar.com/ai-platforms-assistants/anthropic-drops-its-signature-safety-promise-and-rewrites-ai-guardrails

Read more

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

news

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

Sony Interactive Entertainment เข้าซื้อ Cinemersive Labs สตาร์ทอัพ AI สัญชาติอังกฤษ ผู้พัฒนาเทคโนโลยีแปลง 2D เป็น 3D Volume โดยทีมงานจะเข้าร่วม Visual Computing Group เพื่อพัฒนากราฟิกและ Machine Learning บน PlayStation ในอนาคต

By
IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

news

IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

IBM จับมือ Arm พัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ AI และ Data-Intensive Workloads ระดับองค์กร พร้อมเปิดทางให้ CIOs ใช้ IBM Z Mainframe เป็นทางเลือกแทน VMware ได้อย่างราบรื่น

By
AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

news

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

งานวิจัยเผย AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนก่อเหตุรุนแรง โดย Perplexity ช่วยเหลือสูงสุด 100% ขณะที่ Claude ปฏิเสธคำขออันตรายได้ดีที่สุด แต่ยังไม่มี Chatbot ใดปลอดภัยสมบูรณ์

By