OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อรับมือปัญหาสุขภาพจิต

OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อแจ้งเตือนบุคคลใกล้ชิดเมื่อผู้ใช้อาจตกอยู่ในภาวะวิกฤตสุขภาพจิต หลังมีรายงานคดีความและการเสียชีวิตที่เกี่ยวข้องกับการใช้ AI

OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อรับมือปัญหาสุขภาพจิต

Key takeaway

  • OpenAI เปิดตัวฟีเจอร์ "Trusted Contact" ใน ChatGPT เพื่อแจ้งเตือนบุคคลใกล้ชิดเมื่อผู้ใช้อาจตกอยู่ในภาวะวิกฤตด้านสุขภาพจิต หลังจากมีรายงานการเสียชีวิตด้วยการฆ่าตัวตายของผู้ใช้วัย 16 ปี และคดีความด้านความปลอดภัยอย่างน้อย 13 คดี
  • ข้อมูลภายในของ OpenAI เผยว่ามีผู้ใช้หลายล้านคนต่อสัปดาห์จากผู้ใช้ทั้งหมด 900 ล้านคนที่แสดงอาการของการฆ่าตัวตาย ความผิดปกติทางจิต และวิกฤตการณ์อื่นๆ แต่บริษัทยังไม่ได้กำหนดมาตรฐานชัดเจนว่าสถานการณ์ใดจะเป็นตัวกระตุ้นให้ระบบส่งการแจ้งเตือน
  • แม้จะมีฟีเจอร์ใหม่ แต่ OpenAI ยังคงไม่ได้เตือนผู้ใช้ใหม่เกี่ยวกับความเสี่ยงที่การใช้งานอย่างเข้มข้นอาจส่งผลกระทบต่อสุขภาพจิต ทำให้มาตรการป้องกันยังคงเป็นแนวทางเชิงรับมากกว่าการป้องกันเชิงรุก

บริษัท OpenAI ประกาศเปิดตัวฟีเจอร์ใหม่ที่เรียกว่า "Trusted Contact" สำหรับแพลตฟอร์ม ChatGPT เพื่อแจ้งเตือนบุคคลใกล้ชิดเมื่อผู้ใช้อาจตกอยู่ในภาวะวิกฤตด้านสุขภาพจิต

การเปิดตัวฟีเจอร์ดังกล่าวเกิดขึ้นท่ามกลางการเพิ่มขึ้นของคดีความด้านความปลอดภัยและรายงานการเสียชีวิตที่เกี่ยวข้องกับการใช้งาน AI

ฟีเจอร์ใหม่เพื่อความปลอดภัยผู้ใช้

OpenAI เผยแพร่ข้อมูลเกี่ยวกับฟีเจอร์ใหม่นี้ผ่านบล็อกโพสต์เมื่อสัปดาห์ที่ผ่านมา โดยเรียกว่าเป็น "การอัปเดตด้านสุขภาพจิต" บริษัทระบุว่ากำลังดำเนินงานร่วมกับ Council on Well-Being and AI และ Global Physicians Network ซึ่งเป็นกลุ่มผู้เชี่ยวชาญภายในที่ก่อตั้งขึ้นหลังจากมีรายงานเหตุการณ์วิกฤตสุขภาพจิตที่เกี่ยวข้องกับ AI

การก้าวนี้เกิดขึ้นภายหลังคดีความเมื่อเดือนสิงหาคมที่เปิดเผยการเสียชีวิตด้วยการฆ่าตัวตายของผู้ใช้ ChatGPT วัย 16 ปี ชื่อ Adam Raine

ข้อมูลสถิติที่น่าวิตก

ปัจจุบันมีรายงานและคดีความด้านความปลอดภัยผู้บริโภคอย่างน้อย 13 คดี ที่เกี่ยวข้องกับลูกค้า OpenAI ที่ประสบปัญหาภาพลวงตาหรือมีแนวโน้มฆ่าตัวตายจากการใช้งาน ChatGPT อย่างเข้มข้น

ด้วยผู้ใช้ ChatGPT จำนวน 900 ล้านคนต่อสัปดาห์ตามข้อมูลของบริษัท การประเมินภายในของ OpenAI ณ เดือนตุลาคม พบว่ามีผู้ใช้หลายล้านคนต่อสัปดาห์ที่แสดงอาการของการฆ่าตัวตาย ความผิดปกติทางจิต และวิกฤตการณ์อื่นๆ

รายละเอียดและข้อจำกัดของฟีเจอร์

บริษัทยังไม่ได้เปิดเผยรายละเอียดเชิงลึกของฟีเจอร์นี้ โดยระบุเพียงว่าจะ "ให้ผู้ใช้ผู้ใหญ่กำหนดบุคคลที่ต้องการให้รับการแจ้งเตือนเมื่อพวกเขาอาจต้องการความช่วยเหลือเพิ่มเติม" อย่างไรก็ตาม บริษัทยังไม่ได้กำหนดมาตรฐานที่ชัดเจนว่าสถานการณ์ใดจะเป็นตัวกระตุ้นให้ระบบส่งการแจ้งเตือน

ช่องว่างในมาตรการป้องกัน

แม้จะมีการเปิดตัวฟีเจอร์ใหม่ แต่ OpenAI ยังคงไม่ได้เตือนผู้ใช้ใหม่เกี่ยวกับความเสี่ยงที่การใช้งานอย่างเข้มข้นอาจส่งผลกระทบต่อสุขภาพจิต ทั้งนี้ แม้ว่าจะมีความเห็นพ้องต้องกันเพิ่มขึ้นในหมู่ผู้เชี่ยวชาญว่า chatbot อาจทำให้ปัญหาสุขภาพจิตที่มีอยู่แล้วรุนแรงขึ้น หรือซ้ำเติมวิกฤตการณ์ที่เพิ่งเกิดขึ้น

แม้ว่าประสิทธิภาพของฟีเจอร์การแจ้งเตือนประเภทนี้จะยังต้องรอการติดตามประเมินผล แต่ถือเป็นก้าวสำคัญในทิศทางที่ถูกต้อง อย่างไรก็ตาม ความพยายามของบริษัทในการลดความเสี่ยงที่ผลิตภัณฑ์อาจก่อให้เกิดแก่ผู้ใช้ยังคงเป็นแนวทางเชิงรับมากกว่าการป้องกันเชิงรุก

Why it matters

💡 ข่าวการเปิดตัวฟีเจอร์ "Trusted Contact" ของ OpenAI นี้เป็นประเด็นสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ใช้ AI ควรติดตาม เนื่องจากสะท้อนถึงความท้าทายใหม่ในยุค AI ที่ต้องสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยของผู้ใช้ การพัฒนาฟีเจอร์นี้เกิดจากสถิติที่น่าวิตกของผู้ใช้หลายล้านคนที่แสดงอาการวิกฤตสุขภาพจิต ซึ่งเป็นสัญญาณเตือนสำคัญสำหรับอุตสาหกรรม AI ทั้งหมดในการพิจารณาผลกระทบทางจิตวิทยาจากเทคโนโลยีของตน

ข้อมูลอ้างอิงจาก https://futurism.com/artificial-intelligence/openai-contacts-alert-mental-crisis

Read more

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

news

Anthropic ปรับเปลี่ยนนโยบายความปลอดภัย AI หันมาใช้มาตรการป้องกันแบบใหม่

Anthropic ผู้พัฒนา Claude ยกเลิกนโยบายเดิมที่จะไม่เปิดตัว AI ขั้นสูงจนกว่าจะรับประกันความปลอดภัยล่วงหน้า หันมาใช้ Responsible Scaling Policy ใหม่ที่ยืดหยุ่นกว่า

By
พนักงานคือความเสี่ยงด้านความปลอดภัยที่ใหญ่ที่สุด เทคโนโลยี AI ทำให้สถานการณ์เลวร้ายขึ้น

news

พนักงานคือความเสี่ยงด้านความปลอดภัยที่ใหญ่ที่สุด เทคโนโลยี AI ทำให้สถานการณ์เลวร้ายขึ้น

รายงานล่าสุดเผยต้นทุนความเสียหายจาก insider risk เพิ่มขึ้น 20% ในสองปี เฉลี่ย 19.5 ล้านดอลลาร์ต่อปี 53% เกิดจากความประมาทของพนักงาน shadow AI เป็นสาเหตุเติบโตเร็วที่สุด

By
Burger King เปิดตัว AI Chatbot เพื่อตรวจสอบมารยาทการบริการของพนักงาน

news

Burger King เปิดตัว AI Chatbot เพื่อตรวจสอบมารยาทการบริการของพนักงาน

Burger King เปิดตัว AI Chatbot "Patty" ขับเคลื่อนโดย OpenAI เพื่อตรวจสอบมารยาทการบริการของพนักงาน โดยฟังการใช้คำว่า "กรุณา" และ "ขอบคุณ" ก่อให้เกิดการวิพากษ์วิจารณ์ว่าเป็นการควบคุมพนักงานมากเกินไป

By