Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Key takeaway

  • Anthropic ยกเลิกนโยบายเดิมที่สัญญาจะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากขึ้นเพื่อรักษาความสามารถในการแข่งขันในตลาด AI ที่พัฒนาอย่างรวดเร็ว
  • บริษัทเปิดตัว Responsible Scaling Policy ฉบับใหม่ที่มุ่งเน้นการเผยแพร่ "Frontier Safety Roadmaps" และ "Risk Reports" ประจำ พร้อมสัญญาว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง แต่จะไม่หยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า
  • การเปลี่ยนแปลงนี้สะท้อนถึงการปรับทิศทางของอุตสาหกรรม AI ที่เน้นการแข่งขันมากกว่าการยับยั้งตนเอง โดยผู้เชี่ยวชาญชี้ให้เห็นความสำคัญของการตรวจสอบอิสระและการกำกับดูแลแบบเรียลไทม์มากกว่าการพึ่งพาคำมั่นสัญญาแบบสมัครใจ

บริษัท Anthropic ผู้พัฒนา AI assistant Claude ได้ตัดสินใจยกเลิกคำมั่นสัญญาสำคัญที่จะไม่พัฒนาหรือเปิดตัวระบบ AI ขั้นสูงจนกว่าจะมั่นใจได้ว่าสามารถรับประกันความปลอดภัยที่เพียงพอได้ล่วงหน้า ซึ่งเป็นการยุตินโยบายที่เคยทำให้บริษัทแตกต่างจากนักพัฒนา AI รายอื่น ๆ

การเปลี่ยนแปลงครั้งนี้ได้รับการยืนยันในการสัมภาษณ์กับ Time Magazine โดย Responsible Scaling Policy ฉบับใหม่จะมุ่งเน้นการรักษาความสามารถในการแข่งขันของบริษัทในตลาด AI ที่มีการพัฒนาอย่างรวดเร็ว

นโยบายเดิมสร้างความแตกต่าง

ในช่วงหลายปีที่ผ่านมา Anthropic ใช้คำมั่นสัญญานี้เป็นหลักฐานแสดงให้เห็นว่าจะต่อต้านแรงกดดันทางการค้าที่ผลักดันคู่แข่งให้เปิดตัวระบบที่มีพลังมากขึ้นเรื่อย ๆ โดยนโยบายดังกล่าวห้ามไม่ให้บริษัทก้าวไปข้างหน้าเกินระดับหนึ่งจนกว่าจะมีมาตรการความปลอดภัยที่กำหนดไว้ล่วงหน้าแล้ว

ปัจจุบัน Anthropic เปลี่ยนมาใช้กรอบการทำงานที่ยืดหยุ่นมากกว่าการหยุดพักอย่างเด็ดขาด โดยผู้บริหารอธิบายว่าการเปลี่ยนแปลงนี้สะท้อนความเป็นจริงมากกว่าอุดมการณ์ พวกเขาโต้แย้งว่าการยับยั้งตนเองแบบฝ่ายเดียวไม่สมเหตุสมผลอีกต่อไปในตลาดที่ขับเคลื่อนด้วยการพัฒนาอย่างรวดเร็วและความเร่งด่วนทางภูมิรัฐศาสตร์

มาตรการความปลอดภัยใหม่

ภายใต้ Responsible Scaling Policy ฉบับใหม่ Anthropic สัญญาว่าจะเผยแพร่ "Frontier Safety Roadmaps" ที่ละเอียด ซึ่งระบุเป้าหมายความปลอดภัยที่วางแผนไว้ พร้อมกับ "Risk Reports" ประจำที่ประเมินความสามารถของโมเดลและภัยคุกคามที่อาจเกิดขึ้น

บริษัทยังกล่าวว่าจะเทียบเท่าหรือเหนือกว่าความพยายามด้านความปลอดภัยของคู่แข่ง และจะชะลอการพัฒนาหากเชื่อว่าตนเองนำหน้าในสาขานี้และพบความเสี่ยงร้ายแรงที่สำคัญ อย่างไรก็ตาม สิ่งที่จะไม่ทำอีกต่อไปคือการสัญญาว่าจะหยุดการฝึกสอนจนกว่าจะรับประกันมาตรการป้องกันทั้งหมดล่วงหน้า

ผลกระทบต่ออุตสาหกรรม

แม้ผู้ใช้ทั่วไปอาจไม่สังเกตเห็นการเปลี่ยนแปลงใดๆ เมื่อพวกเขาโต้ตอบกับ Claude หรือเครื่องมือ AI อื่น ๆ แต่มาตรการป้องกันที่ควบคุมวิธีการฝึกสอนระบบเหล่านั้นมีอิทธิพลต่อทุกอย่างตั้งแต่ความแม่นยำไปจนถึงการใช้งานผิดวัตถุประสงค์

เมื่อบริษัทที่เคยกำหนดตัวตนด้วยเงื่อนไขที่เข้มงวดตัดสินใจว่าเงื่อนไขเหล่านั้นไม่สามารถใช้งานได้อีกต่อไป มันส่งสัญญาณถึงการปรับเทียบใหม่ที่กว้างขึ้นภายในอุตสาหกรรม

ความท้าทายของการควบคุมตนเอง

เมื่อ Anthropic แนะนำนโยบายเดิมในปี 2023 ผู้บริหารบางคนหวังว่ามันอาจเป็นแรงบันดาลใจให้คู่แข่งหรือแม้แต่ข้อกำหนดทางกฎหมายในที่สุด อย่างไรก็ตาม แรงผลักดันด้านการกำกับดูแลไม่เคยเกิดขึ้นอย่างเต็มที่ กฎหมาย AI ระดับรัฐบาลกลางยังคงติดขัด และบรรยากาศทางการเมืองที่กว้างขึ้นได้เอียงไปจากการพัฒนากรอบการทำงานใด ๆ

Nik Kairinos ซึ่งเป็น CEO และผู้ร่วมก่อตั้ง RAIDS AI องค์กรที่มุ่งเน้นการตรวจสอบอิสระและการตรวจจับความเสี่ยงใน AI กล่าวว่า "นโยบายใหม่ยังคงรวมมาตรการป้องกันบางอย่าง แต่คำสัญญาหลักที่ว่า Anthropic จะไม่เปิดตัวโมเดลจนกว่าจะสามารถรับประกันมาตรการความปลอดภัยที่เพียงพอล่วงหน้าได้นั้นหายไปแล้ว"

เขายังเสริมว่า "นี่คือเหตุผลที่การตรวจสอบอย่างต่อเนื่องและเป็นอิสระของระบบ AI มีความสำคัญ คำมั่นสัญญาแบบสมัครใจสามารถเขียนใหม่ได้ การกำกับดูแลที่สนับสนุนด้วยการดูแลแบบเรียลไทม์ทำไม่ได้"

ความขัดแย้งในนโยบาย

Kairinos ยังสังเกตเห็นความขัดแย้งใน Anthropic ที่บริจาค 20 ล้านดอลลาร์เมื่อสองสัปดาห์ที่แล้วให้ Public First Action กลุ่มที่สนับสนุนผู้สมัครรัฐสภาที่สัญญาว่าจะผลักดันกฎหมายความปลอดภัย AI การบริจาคนั้นเน้นย้ำถึงความซับซ้อนของช่วงเวลาปัจจุบัน ที่บริษัทต่าง ๆ อาจสนับสนุนการกำกับดูแลที่แข็งแกร่งขึ้นในขณะเดียวกันก็ปรับเทียบข้อจำกัดภายในของตนเองใหม่

อนาคตของความปลอดภัย AI

คำถามที่กว้างขึ้นที่อุตสาหกรรมเผชิญคือ บรรทัดฐานแบบสมัครใจสามารถกำหนดรูปร่างของเส้นทางของเทคโนโลยีที่เปลี่ยนโลกได้อย่างมีความหมายหรือไม่ Anthropic เคยพยายามยึดตนเองเป็นแบบอย่างของการยับยั้ง นโยบายที่ปรับปรุงใหม่ต้องการให้มันชดเชยการแข่งขัน

นั่นไม่ได้หมายความว่าความปลอดภัยถูกทิ้งไป แต่หมายความว่าลำดับของการดำเนินงานได้เปลี่ยนไป Anthropic โต้แย้งว่าการวิจัยความปลอดภัยที่มีความหมายต้องการการอยู่ที่แนวหน้า ไม่ใช่การถอยห่างจากมัน

แม้ว่าคนทั่วไปอาจไม่อ่าน Responsible Scaling Policies หรือ Risk Reports แต่พวกเขาอยู่กับผลกระทบที่ตามมาจากการตัดสินใจเหล่านั้น การเปลี่ยนแปลงครั้งนี้จึงเป็นสัญญาณสำคัญของการปรับทิศทางในอุตสาหกรรม AI ที่อาจส่งผลต่อการพัฒนาเทคโนโลยีนี้ในอนาคต

Why it matters

💡 การเปลี่ยนแปลงนโยบายความปลอดภัย AI ของ Anthropic ครั้งนี้เป็นข่าวสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ที่สนใจ AI ควรติดตาม เนื่องจากสะท้อนการปรับทิศทางครั้งใหญ่ของอุตสาหกรรม AI จากการยับยั้งตนเองมาสู่การแข่งขันเชิงรุก การตัดสินใจยกเลิกคำมั่นสัญญาเดิมที่จะไม่เปิดตัวระบบ AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้าได้ ส่งสัญญาณถึงความท้าทายในการควบคุมตนเองของบริษัทเทคโนโลยี และอาจเป็นจุดเปลี่ยนที่ส่งผลต่อการพัฒนา AI ในอนาคต

ข้อมูลอ้างอิงจาก https://www.techradar.com/ai-platforms-assistants/anthropic-drops-its-signature-safety-promise-and-rewrites-ai-guardrails

Read more

5 วิธีใช้ AI อย่างคุ้มค่าเมื่องบประมาณมีจำกัด

news

5 วิธีใช้ AI อย่างคุ้มค่าเมื่องบประมาณมีจำกัด

ไม่ต้องใช้งบมหาศาลก็สามารถเริ่มต้นกับ AI ได้ ผู้เชี่ยวชาญแนะนำ 5 วิธี ตั้งแต่การใช้ Tool ที่มีอยู่แล้ว Open-Source Cloud Services ไปจนถึงการมุ่งเน้น Outcome และคงความยืดหยุ่นต่อการเปลี่ยนแปลง

By
AI Agents แพร่กระจายทั่วองค์กร 94% ห่วง AI Sprawl เสี่ยงซับซ้อน-ละเมิดความปลอดภัย

news

AI Agents แพร่กระจายทั่วองค์กร 94% ห่วง AI Sprawl เสี่ยงซับซ้อน-ละเมิดความปลอดภัย

OutSystems เผยผลสำรวจ IT Leaders กว่า 1,900 ราย พบ 96% ขององค์กรใช้ AI Agents แล้ว แต่ 94% กังวล AI Sprawl เพิ่มความเสี่ยงด้าน Security มีเพียง 12% ที่มี Centralized Platform รับมือปัญหานี้อย่างจริงจัง

By
Claude, OpenClaw และความเป็นจริงใหม่: ยุค AI Agents มาถึงแล้ว — พร้อมกับความท้าทายที่ต้องเผชิญ

news

Claude, OpenClaw และความเป็นจริงใหม่: ยุค AI Agents มาถึงแล้ว — พร้อมกับความท้าทายที่ต้องเผชิญ

ยุค Agentic AI มาถึงแล้ว! Claude Cowork, OpenClaw และ Google Antigravity กำลังปฏิวัติการทำงาน แต่ก็มาพร้อมความเสี่ยงด้าน Governance และ Responsible AI ที่ทุกภาคส่วนต้องร่วมกันรับมืออย่างจริงจัง

By
Anthropic เปิดตัว Claude Managed Agents เครื่องมือสร้างและ Deploy AI Agents สำหรับธุรกิจ

news

Anthropic เปิดตัว Claude Managed Agents เครื่องมือสร้างและ Deploy AI Agents สำหรับธุรกิจ

Anthropic เปิดตัว Claude Managed Agents เครื่องมือสำหรับธุรกิจในการสร้างและ Deploy AI Agents พร้อม Infrastructure แบบ Out-of-the-Box ลดความซับซ้อนทางเทคนิค ขณะที่ ARR ของบริษัทพุ่งทะลุ 3 หมื่นล้านดอลลาร์

By