ผู้เชี่ยวชาญด้าน AI เตือนถึงอันตรายจากปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์

ผู้เชี่ยวชาญด้าน AI หรือ "AI Doomers" แสดงความกังวลต่อการพัฒนาปัญญาประดิษฐ์ที่อาจเหนือกว่ามนุษย์ ชี้ให้เห็นความเสี่ยงและเรียกร้องให้ชะลอการพัฒนา พร้อมอธิบายแนวคิด p(doom)

ผู้เชี่ยวชาญด้าน AI เตือนถึงอันตรายจากปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์

Key takeaway

  • ผู้เชี่ยวชาญกลุ่ม "AI Doomers" แสดงความกังวลเกี่ยวกับการพัฒนา AI ที่รวดเร็วเกินไป โดยเฉพาะประเด็นการควบคุม AI ให้ทำงานสอดคล้องกับผลประโยชน์ของมนุษย์ (AI alignment) ที่กำลังเป็นความท้าทายมากขึ้น
  • นักวิจัยด้านความปลอดภัยของ AI มีการพูดถึงแนวคิด "p(doom)" หรือความน่าจะเป็นที่ superintelligence อาจนำไปสู่หายนะของมนุษยชาติ ซึ่งกำลังเป็นประเด็นถกเถียงอย่างกว้างขวางใน Silicon Valley
  • ผลการวิจัยล่าสุดจาก METR ระบุว่า ความกังวลเรื่อง AI ที่จะพัฒนาตัวเองให้ฉลาดขึ้นอย่างรวดเร็วอาจยังไม่ใช่ปัญหาเร่งด่วนในปัจจุบัน และยังมีข้อถกเถียงจากผู้เชี่ยวชาญเกี่ยวกับความเป็นไปได้ที่จะมี AI ที่ฉลาดเหนือกว่ามนุษย์ในระยะเวลาอันใกล้

ผู้เชี่ยวชาญด้าน AI เตือนถึงอันตรายจากปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์

ท่ามกลางความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI กลุ่มที่เรียกตัวเองว่า "AI Doomers" กำลังเรียกร้องให้ชะลอการพัฒนาปัญญาประดิษฐ์ พวกเขาชี้ให้เห็นว่า การปฏิวัติด้าน machine learning ที่นำไปสู่การใช้ AI ในชีวิตประจำวันอย่าง ChatGPT ส่งผลให้การ "align" หรือการทำให้ปัญญาประดิษฐ์ทำงานสอดคล้องกับผลประโยชน์ของมนุษย์กลายเป็นความท้าทายที่ยากยิ่งขึ้น และนั่นหมายถึงความเสี่ยงที่เพิ่มสูงขึ้นเมื่อ AI มีความสามารถทางปัญญาที่เหนือกว่ามนุษย์

นักวิจัยด้านความปลอดภัยของ AI ได้แสดงความกังวลว่ามีความเป็นไปได้ที่ superintelligence อาจนำไปสู่การกำจัดมนุษยชาติอย่างรวดเร็ว โดยพวกเขาใช้คำว่า "p(doom)" ซึ่ง "p" ย่อมาจาก "probability" หรือความน่าจะเป็นของหายนะดังกล่าว

Martin Kaste ผู้สื่อข่าวจาก NPR ได้รายงานถึงบรรยากาศความตึงเครียดใน Silicon Valley เกี่ยวกับประเด็นความปลอดภัยของ AI ที่กำลังเป็นที่ถกเถียงอย่างกว้างขวาง

ผู้ที่สนใจรับฟังการอภิปรายโดยละเอียดเกี่ยวกับข้อโต้แย้งทั้งฝ่ายที่สนับสนุนและคัดค้านทฤษฎี AI doom สามารถติดตามได้จากตอนพิเศษของรายการ NPR Explains

Why it matters

💡 บทความนี้นำเสนอประเด็นร้อนที่กำลังเป็นที่ถกเถียงในวงการเทคโนโลยีเกี่ยวกับความเสี่ยงของ AI ที่อาจเหนือกว่ามนุษย์ ผู้อ่านจะได้เข้าใจมุมมองของผู้เชี่ยวชาญที่เรียกตัวเองว่า "AI Doomers" รวมถึงข้อมูลเชิงลึกจากนักวิจัยและนักวิชาการชั้นนำ พร้อมการวิเคราะห์ผลกระทบที่อาจเกิดขึ้นต่อมนุษยชาติ เหมาะสำหรับผู้ที่ต้องการติดตามพัฒนาการของ AI และผลกระทบในอนาคต

ข้อมูลอ้างอิงจาก https://www.npr.org/2025/09/24/nx-s1-5501544/ai-doomers-superintelligence-apocalypse

Read more

Bandcamp ประกาศนโยบายแบนเพลงที่สร้างด้วย AI

news

Bandcamp ประกาศนโยบายแบนเพลงที่สร้างด้วย AI

Bandcamp ประกาศนโยบายใหม่แบนเพลงที่สร้างด้วย AI ทั้งหมดหรือส่วนใหญ่ รวมถึงการใช้ AI เลียนแบบศิลปินอื่น เพื่อปกป้องความคิดสร้างสรรค์ของมนุษย์ ขณะที่ค่ายเพลงยักษ์ใหญ่อย่าง UMG และ Warner กลับร่วมมือกับแพลตฟอร์ม AI

By
Apple วางแผนเปลี่ยน Siri ให้เป็นแชทบอท AI เต็มรูปแบบเพื่อแข่งขันกับ ChatGPT และ Gemini

news

Apple วางแผนเปลี่ยน Siri ให้เป็นแชทบอท AI เต็มรูปแบบเพื่อแข่งขันกับ ChatGPT และ Gemini

แอปเปิลกำลังปรับโฉม Siri ครั้งใหญ่ภายใต้โครงการ "Campos" เปลี่ยนเป็นแชทบอท AI เต็มรูปแบบ เพิ่มความสามารถทั้งการค้นหาเว็บ สร้างคอนเทนต์ วิเคราะห์ไฟล์ และเชื่อมโยงกับแอปหลักของ Apple คาดเปิดตัวในงาน WWDC มิถุนายนนี้

By
OpenAI อาจสร้างรายได้จากโฆษณา 25,000 ล้านดอลลาร์ต่อปีภายในปี 2030 สร้างความกังวลให้ Google

news

OpenAI อาจสร้างรายได้จากโฆษณา 25,000 ล้านดอลลาร์ต่อปีภายในปี 2030 สร้างความกังวลให้ Google

นักวิเคราะห์จาก Evercore ISI คาดการณ์ว่า OpenAI จะสร้างรายได้จากโฆษณาถึง 25,000 ล้านดอลลาร์ภายในปี 2030 ท้าทาย Google โดยตรง ด้วยฐานผู้ใช้ ChatGPT เกือบ 1,000 ล้านคนต่อสัปดาห์ และการเริ่มแสดงโฆษณาในอีกไม่กี่สัปดาห์ข้างหน้า

By
สตาร์ทอัพ AI ที่ได้รับการสนับสนุนจาก Alibaba อย่าง Moonshot AI มีมูลค่า 4.8 พันล้านดอลลาร์

news

สตาร์ทอัพ AI ที่ได้รับการสนับสนุนจาก Alibaba อย่าง Moonshot AI มีมูลค่า 4.8 พันล้านดอลลาร์

สตาร์ทอัพ AI จีนที่ได้รับการสนับสนุนจาก Alibaba มีมูลค่าพุ่งสูงถึง 4.8 พันล้านดอลลาร์ แม้จำนวนผู้ใช้ Kimi ลดลงเกือบครึ่ง บริษัทกำลังปรับเปลี่ยนกลยุทธ์จาก Consumer AI สู่บริการ Enterprise ในภาคการเงิน สุขภาพ และกฎหมาย

By