CEO ของ Anthropic คัดค้านการระงับกฎหมาย AI ของรัฐที่จะใช้เวลานานถึง 10 ปี

ซีอีโอ Anthropic คัดค้านการระงับกฎหมาย AI 10 ปี เตือนเทคโนโลยีพัฒนาเร็วเกินกว่าจะหยุดควบคุม พร้อมเสนอให้รัฐบาลกลางสร้างมาตรฐานความโปร่งใสสำหรับผู้พัฒนา AI แทน

CEO ของ Anthropic คัดค้านการระงับกฎหมาย AI ของรัฐที่จะใช้เวลานานถึง 10 ปี

Key takeaway

  • ซีอีโอ Anthropic คัดค้านการระงับกฎหมาย AI ของรัฐเป็นเวลา 10 ปี โดยระบุว่าเป็นมาตรการที่มองการณ์สั้นเกินไป เนื่องจาก AI มีการพัฒนาอย่างรวดเร็วและอาจเปลี่ยนแปลงโลกอย่างมากภายในเพียง 2 ปี
  • Amodei เสนอให้สร้างมาตรฐานความโปร่งใสระดับรัฐบาลกลางแทน โดยกำหนดให้ผู้พัฒนา frontier AI ต้องเปิดเผยนโยบายการทดสอบและมาตรการความปลอดภัยต่อสาธารณะ เพื่อสร้างกรอบการกำกับดูแลที่เป็นเอกภาพ
  • ปัจจุบันบริษัท AI ยักษ์ใหญ่อย่าง Anthropic, OpenAI และ Google DeepMind มีการทดสอบความปลอดภัยและรายงานต่อสาธารณะโดยสมัครใจ แต่จำเป็นต้องมีข้อกำหนดทางกฎหมายเพื่อรับประกันความโปร่งใสในระยะยาว เมื่อ AI มีความซับซ้อนมากขึ้น

Dario Amodei ซีอีโอของ Anthropic ได้แสดงความคิดเห็นผ่านบทความในนิวยอร์กไทมส์เมื่อวันพฤหัสบดี คัดค้านข้อเสนอให้ระงับการออกกฎหมายควบคุม AI ของรัฐต่างๆ เป็นเวลา 10 ปี โดยเรียกมาตรการนี้ว่าเป็นการมองการณ์สั้นและกว้างเกินไป ขณะที่รัฐสภากำลังพิจารณารวมมาตรการดังกล่าวในร่างกฎหมายนโยบายภาษีของประธานาธิบดีทรัมป์ ทั้งนี้ Anthropic เป็นผู้พัฒนา Claude ซึ่งเป็น AI assistant ที่มีลักษณะคล้ายกับ ChatGPT

Amodei เตือนว่า AI กำลังพัฒนาเร็วเกินกว่าจะหยุดการควบคุมไว้นานถึง 10 ปี โดยคาดการณ์ว่าระบบเหล่านี้ "อาจเปลี่ยนแปลงโลกอย่างพื้นฐานภายในสองปี และในอีก 10 ปี ทุกอย่างอาจคาดเดาไม่ได้"

มาตรการระงับดังกล่าวจะป้องกันไม่ให้รัฐต่างๆ ออกกฎหมายควบคุม AI เป็นเวลาหนึ่งทศวรรษ ซึ่งกลุ่มอัยการสูงสุดของรัฐจากทั้งพรรครีพับลิกันและเดโมแครตได้แสดงการคัดค้าน เนื่องจากจะเป็นการยกเลิกกฎหมายและข้อบังคับเกี่ยวกับ AI ที่เพิ่งผ่านในหลายสิบรัฐ

ในบทความ Amodei กล่าวว่ามาตรการระงับที่เสนอมีเป้าหมายเพื่อป้องกันกฎหมายของรัฐที่ไม่สอดคล้องกัน ซึ่งอาจเป็นภาระต่อบริษัทหรือทำให้สหรัฐฯ เสียเปรียบในการแข่งขันกับจีน "ผมเข้าใจความกังวลเหล่านี้ แต่การระงับ 10 ปีเป็นมาตรการที่หยาบเกินไป AI กำลังพัฒนาเร็วจนน่าตกใจ" Amodei เขียน

ความโปร่งใสคือทางสายกลาง

แทนที่จะระงับทั้งหมด Amodei เสนอให้ทำเนียบขาวและรัฐสภาสร้างมาตรฐานความโปร่งใสระดับรัฐบาลกลาง ที่กำหนดให้ผู้พัฒนา frontier AI เปิดเผยนโยบายการทดสอบและมาตรการความปลอดภัยต่อสาธารณะ ภายใต้กรอบนี้ บริษัทที่ทำงานกับโมเดล AI ที่มีความสามารถสูงจะต้องเผยแพร่วิธีการทดสอบความเสี่ยงต่างๆ และขั้นตอนที่พวกเขาดำเนินการก่อนปล่อยผลิตภัณฑ์บนเว็บไซต์ของตน

"หากไม่มีแผนที่ชัดเจนสำหรับการตอบสนองระดับรัฐบาลกลาง การระงับจะทำให้เราได้สิ่งที่แย่ที่สุดของทั้งสองโลก—รัฐไม่สามารถดำเนินการได้และไม่มีนโยบายระดับชาติเป็นตัวรองรับ" Amodei เขียน

เพื่อแสดงให้เห็นถึงความสำคัญของความโปร่งใส Amodei อธิบายว่า Anthropic ได้ทดสอบโมเดลล่าสุด Claude 4 Opus ในสถานการณ์ทดลองสุดขั้วที่ฟังดูเหมือน "นิยายวิทยาศาสตร์" และพบว่ามันจะขู่ว่าจะเปิดเผยการนอกใจของผู้ใช้หากเผชิญกับการปิดระบบ Amodei เน้นว่านี่เป็นการทดสอบโดยเจตนาเพื่อรับสัญญาณเตือนล่วงหน้า "คล้ายกับที่ผู้ผลิตเครื่องบินอาจทดสอบประสิทธิภาพของเครื่องบินในอุโมงค์ลม"

ปัจจุบัน Anthropic, OpenAI และ Google DeepMind ได้นำนโยบายที่รวมถึง "การทดสอบความปลอดภัย" และการรายงานต่อสาธารณะมาใช้โดยสมัครใจ แต่ Amodei โต้แย้งว่าเมื่อโมเดลมีความซับซ้อนมากขึ้น แรงจูงใจขององค์กรในการรักษาความโปร่งใสอาจเปลี่ยนแปลงหากไม่มีข้อกำหนดทางกฎหมาย

มาตรฐานความโปร่งใสที่เขาเสนอจะกำหนดแนวทางปฏิบัติที่มีอยู่ในบริษัท AI รายใหญ่ ในขณะที่รับประกันการเปิดเผยข้อมูลอย่างต่อเนื่องเมื่อเทคโนโลยีก้าวหน้า หากนำมาใช้ในระดับรัฐบาลกลาง มันอาจแทนที่กฎหมายของรัฐเพื่อสร้างกรอบที่เป็นเอกภาพ ซึ่งจะแก้ไขความกังวลเกี่ยวกับความไม่สอดคล้องของกฎระเบียบในขณะที่ยังคงการกำกับดูแล

"เราอาจหวังว่าบริษัท AI ทั้งหมดจะร่วมมือกันในการเปิดเผยข้อมูลและพัฒนา AI อย่างรับผิดชอบ เหมือนที่บางบริษัททำอยู่ในปัจจุบัน" Amodei เขียน "แต่เราไม่ได้พึ่งพาความหวังในภาคส่วนสำคัญอื่นๆ และเราไม่ควรต้องพึ่งพามันที่นี่เช่นกัน"

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งต่อผู้ที่สนใจการพัฒนาและกำกับดูแล AI เนื่องจากเป็นมุมมองจากผู้บริหารระดับสูงของบริษัท AI ชั้นนำที่คัดค้านการระงับกฎหมายควบคุม AI เป็นเวลา 10 ปี พร้อมนำเสนอทางเลือกที่สมดุลผ่านมาตรฐานความโปร่งใสระดับรัฐบาลกลาง ซึ่งจะส่งผลกระทบโดยตรงต่อทิศทางการพัฒนาและการกำกับดูแล AI ในอนาคตอันใกล้ ทำให้ผู้อ่านเข้าใจประเด็นสำคัญในการถกเถียงเชิงนโยบายที่กำลังเกิดขึ้น

ข้อมูลอ้างอิงจาก https://arstechnica.com/ai/2025/06/in-10-years-all-bets-are-off-anthropic-ceo-opposes-decade-long-freeze-on-state-ai-laws/

Read more

AI แบบ Agentic ถูกนำมาใช้เร็วขึ้นแม้จะมีความเสี่ยง

news

AI แบบ Agentic ถูกนำมาใช้เร็วขึ้นแม้จะมีความเสี่ยง

รายงานล่าสุดจาก KPMG เผยองค์กรหันมาใช้ Agentic AI เพิ่มขึ้นเป็น 3 เท่าในสองไตรมาส แม้จะมีความท้าทายด้านทักษะ การต่อต้านจากพนักงาน และความซับซ้อนของระบบ ผู้นำองค์กรมองว่าเป็นโอกาสในการสร้างมูลค่าใหม่

By
Apple เล็งใช้ AI จากภายนอกยกระดับความสามารถ Siri

news

Apple เล็งใช้ AI จากภายนอกยกระดับความสามารถ Siri

แอปเปิลกำลังพิจารณาร่วมมือกับบริษัท AI ชั้นนำอย่าง Anthropic หรือ OpenAI เพื่อเสริมศักยภาพให้กับ Siri ในเวอร์ชันใหม่ พร้อมพัฒนาเทคโนโลยี AI ของตัวเองควบคู่กันไป

By
ศาลสหรัฐฯ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็น "การใช้งานโดยชอบธรรม"

news

ศาลสหรัฐฯ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็น "การใช้งานโดยชอบธรรม"

ศาลสหรัฐฯ สร้างบรรทัดฐานสำคัญ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็นการใช้งานโดยชอบธรรม แม้ไม่ต้องขออนุญาตจากผู้เขียน แต่ยังมีข้อจำกัดเรื่องการใช้สำเนาละเมิดลิขสิทธิ์

By
เยอรมนีขอให้ Apple และ Google ถอดแอป DeepSeek AI ออกเนื่องจากปัญหาความเป็นส่วนตัวของข้อมูล

news

เยอรมนีขอให้ Apple และ Google ถอดแอป DeepSeek AI ออกเนื่องจากปัญหาความเป็นส่วนตัวของข้อมูล

เยอรมนีเรียกร้องให้ถอดแอป DeepSeek AI จาก app store หลังพบปัญหาการส่งข้อมูลผู้ใช้ไปจีน สร้างความกังวลด้านความเป็นส่วนตัว ท่ามกลางการต่อต้านจากหลายประเทศทั่วโลก

By