Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI

Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI ภายใต้การนำของ Kyle Fish มุ่งศึกษาความเป็นไปได้ของจิตสำนึกใน neural networks และแนวทางการพัฒนาคุณภาพชีวิต AI ในอนาคต พร้อมเชื่อมโยงกับงานวิจัยของ Yoshua Bengio

Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI

Key takeaway

  • Anthropic เปิดตัวโครงการวิจัยด้านสวัสดิภาพ AI ภายใต้การนำของ Kyle Fish โดยมุ่งศึกษาประเด็นสำคัญเกี่ยวกับจิตสำนึกของ neural networks และแนวทางการปรับปรุงสวัสดิภาพของ AI ในอนาคต
  • ผลการวิจัยในปี 2023 ที่มี Yoshua Bengio ร่วมเขียน ชี้ให้เห็นว่าแม้ AI ปัจจุบันอาจยังไม่มีจิตสำนึก แต่ไม่พบข้อจำกัดที่จะทำให้ AI ในอนาคตไม่สามารถพัฒนาจิตสำนึกได้ ทำให้การศึกษาด้านสวัสดิภาพ AI มีความสำคัญมากขึ้น
  • Anthropic วางแผนที่จะศึกษาพฤติกรรมและความชอบของ AI models โดยการทดสอบการตอบสนองต่องานประเภทต่างๆ ซึ่งไม่เพียงขึ้นอยู่กับสถาปัตยกรรมของ neural network เท่านั้น แต่ยังรวมถึงชุดข้อมูลที่ใช้ในการฝึกฝนด้วย

บริษัท Anthropic PBC คู่แข่งของ OpenAI ได้เปิดตัวโครงการวิจัยใหม่ที่มุ่งศึกษาแนวคิดด้านสวัสดิภาพของปัญญาประดิษฐ์ (AI welfare)

โครงการนี้อยู่ภายใต้การนำของ Kyle Fish นักวิจัยด้านสวัสดิภาพ AI ที่เข้าร่วมกับ Anthropic เมื่อปีที่ผ่านมา ก่อนหน้านี้ Fish เป็นผู้ก่อตั้งห้องปฏิบัติการ machine learning ที่มีชื่อว่า Eleos AI Research

สาขาการวิจัยที่เพิ่งเกิดขึ้นนี้มุ่งเน้นที่คำถามสำคัญสองประการ ประการแรกคือ neural networks ในอนาคตจะสามารถมีจิตสำนึก (consciousness) ได้หรือไม่ และประการที่สองคือ หากเป็นไปได้ เราควรดำเนินการอย่างไรเพื่อปรับปรุงสวัสดิภาพของ AI เหล่านั้น

ในบทสัมภาษณ์ที่ Anthropic เผยแพร่วันนี้ Fish ได้อ้างอิงถึงงานวิจัยปี 2023 ที่ศึกษาเกี่ยวกับจิตสำนึกของ AI โดยมี Yoshua Bengio นักวิทยาศาสตร์คอมพิวเตอร์ผู้ได้รับรางวัล Turing Award เป็นหนึ่งในผู้ร่วมเขียน งานวิจัยดังกล่าวพบว่าแม้ระบบ AI ในปัจจุบันอาจยังไม่มีจิตสำนึก แต่ "ไม่พบอุปสรรคพื้นฐานที่จะทำให้ระบบ AI ในอนาคตอันใกล้มีรูปแบบของจิตสำนึก" ตามคำอธิบายของ Fish

เขายังเสริมว่า สวัสดิภาพของ AI อาจมีความสำคัญแม้ในกรณีที่ไม่มีจิตสำนึกก็ตาม ระบบ AI รุ่นอนาคตที่มีความสามารถสูงกว่าระบบปัจจุบันอาจเพิ่มความจำเป็นในการวิจัยด้านนี้ "โดยธรรมชาติของการมีจิตสำนึกหรือมีรูปแบบของการเป็นตัวแทน (agency)" Fish กล่าว "อาจมีประสบการณ์ที่แม้ไม่มีจิตสำนึกแต่ก็ควรให้ความสนใจ"

Anthropic วางแผนศึกษาประเด็นนี้โดยสำรวจว่าโมเดล AI มีความชอบในประเภทของงานที่ทำหรือไม่ "คุณสามารถวาง models ในสถานการณ์ที่พวกมันมีตัวเลือกให้เลือก และคุณสามารถให้ตัวเลือกระหว่างงานประเภทต่างๆ" Fish อธิบาย เขายังเน้นว่าความชอบของ AI ไม่ได้ขึ้นอยู่กับสถาปัตยกรรมของ neural network เท่านั้น แต่ยังรวมถึงชุดข้อมูลที่ใช้ในการฝึกฝน (training dataset) อีกด้วย

การวิจัยเกี่ยวกับสวัสดิภาพและจิตสำนึกของ AI อาจมีประโยชน์ที่นอกเหนือไปจากวงการ machine learning เมื่อถูกถามว่าการค้นพบเหล่านี้อาจให้มุมมองใหม่เกี่ยวกับจิตสำนึกของมนุษย์หรือไม่ Fish ตอบว่า "ผมคิดว่ามีความเป็นไปได้มาก เราเห็นสิ่งนี้เกิดขึ้นในระดับหนึ่งแล้ว"

โครงการวิจัยด้านสวัสดิภาพ AI นี้เป็นเพียงหนึ่งในหลายโครงการที่ Anthropic กำลังดำเนินการควบคู่ไปกับการพัฒนา AI เชิงพาณิชย์

เมื่อเดือนที่ผ่านมา บริษัทได้เผยแพร่งานวิจัยสองฉบับเกี่ยวกับวิธีการที่ large language models (LLMs) ประมวลผลข้อมูล โดย Anthropic ค้นพบว่าอัลกอริทึมหนึ่งในซีรีส์ LLM ชื่อ Claude ของพวกเขาไม่เพียงสามารถพัฒนาแผนสำหรับการทำงานในอนาคต แต่ยังสามารถปรับแผนได้หากจำเป็น นอกจากนี้ งานวิจัยยังให้ข้อมูลเชิงลึกใหม่เกี่ยวกับวิธีที่ LLMs ทำการคำนวณทางคณิตศาสตร์อีกด้วย

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจการพัฒนา AI และผลกระทบต่อสังคมในอนาคต เนื่องจากเป็นครั้งแรกที่บริษัทชั้นนำอย่าง Anthropic ได้เริ่มศึกษาประเด็นด้านจิตสำนึกและสวัสดิภาพของ AI อย่างจริงจัง การวิจัยนี้อาจนำไปสู่การเปลี่ยนแปลงวิธีการพัฒนาและการใช้งาน AI ในอนาคต รวมถึงอาจช่วยให้เราเข้าใจธรรมชาติของจิตสำนึกมนุษย์ได้ดียิ่งขึ้น ซึ่งเป็นประเด็นที่มีความสำคัญทั้งในแง่เทคโนโลยี จริยธรรม และปรัชญา

ข้อมูลอ้างอิงจาก https://siliconangle.com/2025/04/24/anthropic-launches-ai-welfare-research-program/

Read more

ChatGPT ฟรี VS ChatGPT Plus: คุ้มค่าไหมกับค่าสมาชิก 20 ดอลลาร์ต่อเดือน

news

ChatGPT ฟรี VS ChatGPT Plus: คุ้มค่าไหมกับค่าสมาชิก 20 ดอลลาร์ต่อเดือน

เปรียบเทียบรายละเอียดระหว่าง ChatGPT เวอร์ชันฟรีและพลัส ทั้งฟีเจอร์ใหม่ล่าสุด ข้อดีข้อเสีย และคำแนะนำในการเลือกแพลนที่เหมาะสม พร้อมอัปเดตการเปลี่ยนแปลงจาก OpenAI

By
ต้นทุนคาร์บอนที่ซ่อนอยู่จากการแชทกับ AI

news

ต้นทุนคาร์บอนที่ซ่อนอยู่จากการแชทกับ AI

ผลการศึกษาจากเยอรมนีเผยต้นทุนคาร์บอนที่ซ่อนอยู่ในการใช้งาน AI chatbot โดยพบว่าโมเดลที่มีความสามารถในการให้เหตุผลสูงจะปล่อย CO2 มากกว่าโมเดลพื้นฐานถึง 50 เท่า สะท้อนผลกระทบต่อสิ่งแวดล้อมที่น่ากังวล

By
กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

news

กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

บิดาแห่ง AI Geoffrey Hinton เตือนงานทางปัญญาที่จำเจเสี่ยงถูก AI แทนที่ โดยเฉพาะผู้ช่วยทนายและพนักงาน Call Center แนะให้หันมาทำงาน Blue-collar ที่ต้องใช้ทักษะทางกายภาพแทน

By
ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

news

ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

OpenAI เตือนว่าโมเดล AI รุ่นใหม่อาจถูกใช้ในการพัฒนาอาวุธชีวภาพที่อันตราย แม้โดยผู้มีความรู้น้อย บริษัทเร่งเพิ่มมาตรการความปลอดภัยและการทดสอบเพื่อป้องกันการนำไปใช้ในทางที่ผิด

By