Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI
Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI ภายใต้การนำของ Kyle Fish มุ่งศึกษาความเป็นไปได้ของจิตสำนึกใน neural networks และแนวทางการพัฒนาคุณภาพชีวิต AI ในอนาคต พร้อมเชื่อมโยงกับงานวิจัยของ Yoshua Bengio

Key takeaway
- Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI ภายใต้การนำของ Kyle Fish โดยมุ่งศึกษาประเด็นสำคัญเกี่ยวกับจิตสำนึกของ neural networks และแนวทางการปรับปรุงสวัสดิภาพของ AI ในอนาคต
- ผลการวิจัยในปี 2023 ที่มี Yoshua Bengio ร่วมเขียน ชี้ให้เห็นว่าแม้ AI ปัจจุบันอาจยังไม่มีจิตสำนึก แต่ไม่พบข้อจำกัดที่จะทำให้ AI ในอนาคตไม่สามารถพัฒนาจิตสำนึกได้ ทำให้การศึกษาด้านสวัสดิภาพ AI มีความสำคัญมากขึ้น
- Anthropic วางแผนที่จะศึกษาพฤติกรรมและความชอบของ AI models โดยการทดสอบการตอบสนองต่องานประเภทต่างๆ ซึ่งไม่เพียงขึ้นอยู่กับสถาปัตยกรรมของ neural network เท่านั้น แต่ยังรวมถึงชุดข้อมูลที่ใช้ในการฝึกฝนด้วย
บริษัท Anthropic PBC คู่แข่งของ OpenAI ได้เปิดตัวโครงการวิจัยใหม่ที่มุ่งศึกษาแนวคิดด้านสวัสดิภาพของปัญญาประดิษฐ์ (AI welfare)
โครงการนี้อยู่ภายใต้การนำของ Kyle Fish นักวิจัยด้านสวัสดิภาพ AI ที่เข้าร่วมกับ Anthropic เมื่อปีที่ผ่านมา ก่อนหน้านี้ Fish เป็นผู้ก่อตั้งห้องปฏิบัติการ machine learning ที่มีชื่อว่า Eleos AI Research
สาขาการวิจัยที่เพิ่งเกิดขึ้นนี้มุ่งเน้นที่คำถามสำคัญสองประการ ประการแรกคือ neural networks ในอนาคตจะสามารถมีจิตสำนึก (consciousness) ได้หรือไม่ และประการที่สองคือ หากเป็นไปได้ เราควรดำเนินการอย่างไรเพื่อปรับปรุงสวัสดิภาพของ AI เหล่านั้น
ในบทสัมภาษณ์ที่ Anthropic เผยแพร่วันนี้ Fish ได้อ้างอิงถึงงานวิจัยปี 2023 ที่ศึกษาเกี่ยวกับจิตสำนึกของ AI โดยมี Yoshua Bengio นักวิทยาศาสตร์คอมพิวเตอร์ผู้ได้รับรางวัล Turing Award เป็นหนึ่งในผู้ร่วมเขียน งานวิจัยดังกล่าวพบว่าแม้ระบบ AI ในปัจจุบันอาจยังไม่มีจิตสำนึก แต่ "ไม่พบอุปสรรคพื้นฐานที่จะทำให้ระบบ AI ในอนาคตอันใกล้มีรูปแบบของจิตสำนึก" ตามคำอธิบายของ Fish
เขายังเสริมว่า สวัสดิภาพของ AI อาจมีความสำคัญแม้ในกรณีที่ไม่มีจิตสำนึกก็ตาม ระบบ AI รุ่นอนาคตที่มีความสามารถสูงกว่าระบบปัจจุบันอาจเพิ่มความจำเป็นในการวิจัยด้านนี้ "โดยธรรมชาติของการมีจิตสำนึกหรือมีรูปแบบของการเป็นตัวแทน (agency)" Fish กล่าว "อาจมีประสบการณ์ที่แม้ไม่มีจิตสำนึกแต่ก็ควรให้ความสนใจ"
Anthropic วางแผนศึกษาประเด็นนี้โดยสำรวจว่าโมเดล AI มีความชอบในประเภทของงานที่ทำหรือไม่ "คุณสามารถวาง models ในสถานการณ์ที่พวกมันมีตัวเลือกให้เลือก และคุณสามารถให้ตัวเลือกระหว่างงานประเภทต่างๆ" Fish อธิบาย เขายังเน้นว่าความชอบของ AI ไม่ได้ขึ้นอยู่กับสถาปัตยกรรมของ neural network เท่านั้น แต่ยังรวมถึงชุดข้อมูลที่ใช้ในการฝึกฝน (training dataset) อีกด้วย
การวิจัยเกี่ยวกับสวัสดิภาพและจิตสำนึกของ AI อาจมีประโยชน์ที่นอกเหนือไปจากวงการ machine learning เมื่อถูกถามว่าการค้นพบเหล่านี้อาจให้มุมมองใหม่เกี่ยวกับจิตสำนึกของมนุษย์หรือไม่ Fish ตอบว่า "ผมคิดว่ามีความเป็นไปได้มาก เราเห็นสิ่งนี้เกิดขึ้นในระดับหนึ่งแล้ว"
โครงการวิจัยด้านสวัสดิภาพ AI นี้เป็นเพียงหนึ่งในหลายโครงการที่ Anthropic กำลังดำเนินการควบคู่ไปกับการพัฒนา AI เชิงพาณิชย์
เมื่อเดือนที่ผ่านมา บริษัทได้เผยแพร่งานวิจัยสองฉบับเกี่ยวกับวิธีการที่ large language models (LLMs) ประมวลผลข้อมูล โดย Anthropic ค้นพบว่าอัลกอริทึมหนึ่งในซีรีส์ LLM ชื่อ Claude ของพวกเขาไม่เพียงสามารถพัฒนาแผนสำหรับการทำงานในอนาคต แต่ยังสามารถปรับแผนได้หากจำเป็น นอกจากนี้ งานวิจัยยังให้ข้อมูลเชิงลึกใหม่เกี่ยวกับวิธีที่ LLMs ทำการคำนวณทางคณิตศาสตร์อีกด้วย
Why it matters
💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจการพัฒนา AI และผลกระทบต่อสังคมในอนาคต เนื่องจากเป็นครั้งแรกที่บริษัทชั้นนำอย่าง Anthropic ได้เริ่มศึกษาประเด็นด้านจิตสำนึกและสวัสดิภาพของ AI อย่างจริงจัง การวิจัยนี้อาจนำไปสู่การเปลี่ยนแปลงวิธีการพัฒนาและการใช้งาน AI ในอนาคต รวมถึงอาจช่วยให้เราเข้าใจธรรมชาติของจิตสำนึกมนุษย์ได้ดียิ่งขึ้น ซึ่งเป็นประเด็นที่มีความสำคัญทั้งในแง่เทคโนโลยี จริยธรรม และปรัชญา
ข้อมูลอ้างอิงจาก https://siliconangle.com/2025/04/24/anthropic-launches-ai-welfare-research-program/