Anthropic CEO ตั้งเป้าเปิดเผยการทำงานภายในของโมเดล AI ภายในปี 2027

Dario Amodei CEO Anthropic ประกาศเป้าหมายทำความเข้าใจการทำงานภายในของ AI ภายในปี 2027 พร้อมพัฒนาเทคโนโลยีตรวจสอบโมเดล AI เสมือนการทำ MRI เพื่อความปลอดภัยในการใช้งาน

Anthropic CEO ตั้งเป้าเปิดเผยการทำงานภายในของโมเดล AI ภายในปี 2027

Key takeaway

  • Anthropic ตั้งเป้าที่จะเข้าใจการทำงานภายในของโมเดล AI (Mechanistic Interpretability) ให้ได้ภายในปี 2027 โดยมุ่งเน้นการพัฒนาเทคโนโลยีที่เปรียบเสมือนการทำ "brain scans" หรือ "MRIs" เพื่อตรวจสอบการทำงานของ AI
  • บริษัทได้ค้นพบวิธีการติดตามเส้นทางความคิดของ AI ผ่าน "circuits" แต่ยังพบเพียงไม่กี่ชิ้นจากที่มีอยู่หลายล้านภายในโมเดล และกำลังผลักดันให้เกิดความร่วมมือในอุตสาหกรรมเพื่อพัฒนาความเข้าใจเกี่ยวกับ AI
  • Anthropic มีจุดยืนที่แตกต่างจากบริษัทเทคโนโลยีอื่นๆ โดยให้ความสำคัญกับความปลอดภัยของ AI เป็นหลัก และสนับสนุนการออกกฎหมายควบคุมความปลอดภัย AI รวมถึงการควบคุมการส่งออกชิปไปยังประเทศจีน

Dario Amodei CEO ของ Anthropic ได้เผยแพร่บทความเมื่อวันพฤหัสบดีที่ผ่านมา โดยเน้นย้ำถึงความจำเป็นเร่งด่วนในการทำความเข้าใจการทำงานภายในของโมเดล AI ชั้นนำของโลก ในบทความ "The Urgency of Interpretability" Amodei ได้ตั้งเป้าหมายท้าทายให้ Anthropic สามารถตรวจจับปัญหาของโมเดล AI ส่วนใหญ่ได้อย่างน่าเชื่อถือภายในปี 2027

"ผมกังวลมากเกี่ยวกับการนำระบบเหล่านี้ไปใช้โดยที่เรายังไม่เข้าใจความสามารถในการตีความได้ดีพอ" Amodei เขียน "ระบบเหล่านี้จะเป็นศูนย์กลางของเศรษฐกิจ เทคโนโลยี และความมั่นคงของประเทศ และจะมีความสามารถในการทำงานโดยอัตโนมัติมากจนผมคิดว่ามันเป็นสิ่งที่ยอมรับไม่ได้ที่มนุษยชาติจะไม่รู้เลยว่าพวกมันทำงานอย่างไร"

Anthropic เป็นผู้บุกเบิกด้าน mechanistic interpretability ซึ่งเป็นสาขาที่มุ่งเปิดกล่องดำของโมเดล AI เพื่อทำความเข้าใจกระบวนการตัดสินใจของระบบเหล่านี้ แม้ว่าประสิทธิภาพของโมเดล AI จะพัฒนาอย่างรวดเร็ว แต่เรายังคงเข้าใจน้อยมากว่าระบบเหล่านี้มาถึงคำตอบได้อย่างไร

ตัวอย่างเช่น เมื่อไม่นานมานี้ OpenAI เปิดตัวโมเดล AI ด้านการให้เหตุผลใหม่ o3 และ o4-mini ซึ่งแม้จะมีประสิทธิภาพดีกว่าในบางงาน แต่กลับสร้างข้อมูลที่ไม่เป็นความจริง (hallucinate) มากกว่าโมเดลอื่นๆ โดยที่บริษัทเองก็ไม่ทราบสาเหตุ

Amodei อ้างถึง Chris Olah ผู้ร่วมก่อตั้ง Anthropic ที่กล่าวว่าโมเดล AI "เติบโตมากกว่าถูกสร้าง" นั่นคือนักวิจัย AI ได้พบวิธีปรับปรุงความฉลาดของโมเดล แต่ไม่ค่อยเข้าใจว่าทำไมจึงได้ผลเช่นนั้น

Amodei เตือนว่าอาจเป็นอันตรายที่จะบรรลุ AGI (Artificial General Intelligence) หรือที่เขาเรียกว่า "ประเทศของอัจฉริยะในศูนย์ข้อมูล" โดยไม่เข้าใจว่าโมเดลเหล่านี้ทำงานอย่างไร โดยในบทความก่อนหน้านี้ เขาคาดการณ์ว่าอุตสาหกรรมเทคโนโลยีอาจบรรลุเป้าหมายดังกล่าวภายในปี 2026 หรือ 2027

ในระยะยาว Anthropic ต้องการพัฒนาเทคโนโลยีที่เปรียบเสมือนการทำ "brain scans" หรือ "MRIs" ของโมเดล AI สมัยใหม่ การตรวจสอบเหล่านี้จะช่วยระบุปัญหาต่างๆ ในโมเดล AI รวมถึงแนวโน้มที่จะโกหกหรือแสวงหาอำนาจ แม้ว่าอาจต้องใช้เวลา 5-10 ปีในการพัฒนา แต่มาตรการเหล่านี้จะมีความสำคัญต่อการทดสอบและนำโมเดล AI ในอนาคตไปใช้อย่างปลอดภัย

Anthropic ได้มีความก้าวหน้าในการวิจัยที่ช่วยให้เข้าใจการทำงานของโมเดล AI ได้ดีขึ้น บริษัทค้นพบวิธีติดตามเส้นทางความคิดของโมเดล AI ผ่านสิ่งที่เรียกว่า "circuits" เช่น การระบุ circuit ที่ช่วยให้โมเดล AI เข้าใจว่าเมืองใดในสหรัฐฯ ตั้งอยู่ในรัฐใด อย่างไรก็ตาม บริษัทพบ circuits เพียงไม่กี่ชิ้น จากที่ประมาณการว่ามีอยู่หลายล้านภายในโมเดล AI

นอกจากการลงทุนวิจัยด้วยตนเองแล้ว Anthropic ยังได้ลงทุนในสตาร์ทอัพที่ทำงานด้านการตีความ โดย Amodei เชื่อว่าในอนาคต ความสามารถในการอธิบายว่าโมเดล AI มาถึงคำตอบได้อย่างไรอาจกลายเป็นข้อได้เปรียบทางการค้า

ในบทความดังกล่าว Amodei ยังเรียกร้องให้ OpenAI และ Google DeepMind เพิ่มความพยายามในการวิจัยด้านนี้ พร้อมทั้งขอให้รัฐบาลกำหนดกฎระเบียบ "light-touch" เพื่อส่งเสริมการวิจัยด้านการตีความ เช่น การกำหนดให้บริษัทเปิดเผยแนวทางปฏิบัติด้านความปลอดภัยและความมั่นคง นอกจากนี้ เขายังสนับสนุนให้สหรัฐฯ ควบคุมการส่งออกชิปไปยังจีน เพื่อจำกัดโอกาสที่จะเกิดการแข่งขัน AI ที่ควบคุมไม่ได้ในระดับโลก

Anthropic มักโดดเด่นจากบริษัทเทคโนโลยีอื่นๆ ด้วยการเน้นเรื่องความปลอดภัย ขณะที่บริษัทอื่นต่อต้านร่างกฎหมายความปลอดภัย AI แคลิฟอร์เนีย SB 1047 Anthropic กลับออกมาสนับสนุน โดยร่างกฎหมายนี้จะกำหนดมาตรฐานการรายงานความปลอดภัยสำหรับผู้พัฒนาโมเดล AI ระดับสูง

ด้วยแนวทางนี้ Anthropic กำลังผลักดันให้เกิดความร่วมมือทั่วทั้งอุตสาหกรรมเพื่อทำความเข้าใจโมเดล AI ให้ดีขึ้น ไม่ใช่เพียงแค่เพิ่มขีดความสามารถของเทคโนโลยีเท่านั้น

Why it matters

💡 บทความนี้นำเสนอมุมมองที่สำคัญเกี่ยวกับความท้าทายด้านความปลอดภัยของ AI จาก CEO ของ Anthropic ซึ่งเป็นหนึ่งในบริษัทชั้นนำด้าน AI ของโลก โดยเฉพาะประเด็นการทำความเข้าใจการทำงานภายในของ AI ที่ยังเป็น "กล่องดำ" ผู้อ่านจะได้เรียนรู้ถึงแนวทางการแก้ปัญหานี้ผ่านการวิจัยด้าน mechanistic interpretability และวิสัยทัศน์ของผู้นำในวงการ AI ที่มุ่งเน้นการพัฒนาเทคโนโลยีอย่างรับผิดชอบและปลอดภัย ซึ่งจะส่งผลกระทบต่ออนาคตของเทคโนโลยี AI โดยตรง

ข้อมูลอ้างอิงจาก https://techcrunch.com/2025/04/24/anthropic-ceo-wants-to-open-the-black-box-of-ai-models-by-2027/

Read more

นักวิจัยเผยผลกระทบเมื่อองค์กรนำ AI มาใช้อย่างจริงจัง ผลลัพธ์อาจทำให้คุณกังวล

news

นักวิจัยเผยผลกระทบเมื่อองค์กรนำ AI มาใช้อย่างจริงจัง ผลลัพธ์อาจทำให้คุณกังวล

นักวิจัยจาก UC Berkeley พบว่าการนำ AI มาใช้ในองค์กรไม่ได้ช่วยลดภาระงานตามที่คาดหวัง แต่กลับเพิ่มความเข้มข้นของงาน ก่อให้เกิดปรากฏการณ์ "workload creep" ที่นำไปสู่ความเหนื่อยล้า ภาวะหมดไฟ และคุณภาพงานที่ลดลง

By
ศึกโฆษณา AI ในงาน Super Bowl เผยวิสัยทัศน์ที่แตกต่างของบริษัทเทคยักษ์ใหญ่

news

ศึกโฆษณา AI ในงาน Super Bowl เผยวิสัยทัศน์ที่แตกต่างของบริษัทเทคยักษ์ใหญ่

ศึกโฆษณา AI ในงาน Super Bowl เผยให้เห็นความขัดแย้งระหว่าง OpenAI และ Anthropic พร้อมวิสัยทัศน์ที่แตกต่าง โดย OpenAI มุ่งเข้าถึงผู้ใช้มวลชน Anthropic เน้นลูกค้าองค์กร และ Google พยายามผสาน Gemini เข้ากับระบบนิเวศผลิตภัณฑ์ทั้งหมด

By
พนักงานกังวลเสียงานจาก AI ท่ามกลางการนำเทคโนโลยีมาใช้ในองค์กร

news

พนักงานกังวลเสียงานจาก AI ท่ามกลางการนำเทคโนโลยีมาใช้ในองค์กร

พนักงานกว่า 2 ใน 3 กังวลผลกระทบเชิงลบจาก AI โดยเฉพาะการแทนที่ตำแหน่งงาน ขณะที่ผู้บริหารกว่าครึ่งเชื่อว่าองค์กรพร้อมบูรณาการ AI แล้ว ผู้เชี่ยวชาญแนะนำให้ชะลอการนำ AI มาใช้และเน้นการสื่อสารสองทางเพื่อสร้างความไว้วางใจ

By
การโจมตีอัตโนมัติพาอาชญากรรมไซเบอร์เข้าสู่ยุค AI ในปี 2025

news

การโจมตีอัตโนมัติพาอาชญากรรมไซเบอร์เข้าสู่ยุค AI ในปี 2025

รายงานล่าสุดจาก Malwarebytes เผยว่าอาชญากรรมไซเบอร์กำลังเปลี่ยนผ่านสู่ยุค AI ในปี 2025 ด้วยการใช้ deepfakes, การค้นพบช่องโหว่อัตโนมัติ และ ransomware ที่ทำงานโดย AI ส่งผลให้การโจมตีมีความรวดเร็วและประสิทธิภาพสูงขึ้นอย่างน่ากังวล

By