ผู้เชี่ยวชาญด้าน AI เตือนถึงอันตรายจากปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์
ผู้เชี่ยวชาญด้าน AI หรือ "AI Doomers" แสดงความกังวลต่อการพัฒนาปัญญาประดิษฐ์ที่อาจเหนือกว่ามนุษย์ ชี้ให้เห็นความเสี่ยงและเรียกร้องให้ชะลอการพัฒนา พร้อมอธิบายแนวคิด p(doom)

Key takeaway
- ผู้เชี่ยวชาญกลุ่ม "AI Doomers" แสดงความกังวลเกี่ยวกับการพัฒนา AI ที่รวดเร็วเกินไป โดยเฉพาะประเด็นการควบคุม AI ให้ทำงานสอดคล้องกับผลประโยชน์ของมนุษย์ (AI alignment) ที่กำลังเป็นความท้าทายมากขึ้น
- นักวิจัยด้านความปลอดภัยของ AI มีการพูดถึงแนวคิด "p(doom)" หรือความน่าจะเป็นที่ superintelligence อาจนำไปสู่หายนะของมนุษยชาติ ซึ่งกำลังเป็นประเด็นถกเถียงอย่างกว้างขวางใน Silicon Valley
- ผลการวิจัยล่าสุดจาก METR ระบุว่า ความกังวลเรื่อง AI ที่จะพัฒนาตัวเองให้ฉลาดขึ้นอย่างรวดเร็วอาจยังไม่ใช่ปัญหาเร่งด่วนในปัจจุบัน และยังมีข้อถกเถียงจากผู้เชี่ยวชาญเกี่ยวกับความเป็นไปได้ที่จะมี AI ที่ฉลาดเหนือกว่ามนุษย์ในระยะเวลาอันใกล้
ผู้เชี่ยวชาญด้าน AI เตือนถึงอันตรายจากปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์
ท่ามกลางความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI กลุ่มที่เรียกตัวเองว่า "AI Doomers" กำลังเรียกร้องให้ชะลอการพัฒนาปัญญาประดิษฐ์ พวกเขาชี้ให้เห็นว่า การปฏิวัติด้าน machine learning ที่นำไปสู่การใช้ AI ในชีวิตประจำวันอย่าง ChatGPT ส่งผลให้การ "align" หรือการทำให้ปัญญาประดิษฐ์ทำงานสอดคล้องกับผลประโยชน์ของมนุษย์กลายเป็นความท้าทายที่ยากยิ่งขึ้น และนั่นหมายถึงความเสี่ยงที่เพิ่มสูงขึ้นเมื่อ AI มีความสามารถทางปัญญาที่เหนือกว่ามนุษย์
นักวิจัยด้านความปลอดภัยของ AI ได้แสดงความกังวลว่ามีความเป็นไปได้ที่ superintelligence อาจนำไปสู่การกำจัดมนุษยชาติอย่างรวดเร็ว โดยพวกเขาใช้คำว่า "p(doom)" ซึ่ง "p" ย่อมาจาก "probability" หรือความน่าจะเป็นของหายนะดังกล่าว
Martin Kaste ผู้สื่อข่าวจาก NPR ได้รายงานถึงบรรยากาศความตึงเครียดใน Silicon Valley เกี่ยวกับประเด็นความปลอดภัยของ AI ที่กำลังเป็นที่ถกเถียงอย่างกว้างขวาง
ผู้ที่สนใจรับฟังการอภิปรายโดยละเอียดเกี่ยวกับข้อโต้แย้งทั้งฝ่ายที่สนับสนุนและคัดค้านทฤษฎี AI doom สามารถติดตามได้จากตอนพิเศษของรายการ NPR Explains
Why it matters
💡 บทความนี้นำเสนอประเด็นร้อนที่กำลังเป็นที่ถกเถียงในวงการเทคโนโลยีเกี่ยวกับความเสี่ยงของ AI ที่อาจเหนือกว่ามนุษย์ ผู้อ่านจะได้เข้าใจมุมมองของผู้เชี่ยวชาญที่เรียกตัวเองว่า "AI Doomers" รวมถึงข้อมูลเชิงลึกจากนักวิจัยและนักวิชาการชั้นนำ พร้อมการวิเคราะห์ผลกระทบที่อาจเกิดขึ้นต่อมนุษยชาติ เหมาะสำหรับผู้ที่ต้องการติดตามพัฒนาการของ AI และผลกระทบในอนาคต
ข้อมูลอ้างอิงจาก https://www.npr.org/2025/09/24/nx-s1-5501544/ai-doomers-superintelligence-apocalypse