xAI เผยสาเหตุที่ Grok หมกมุ่นกับการฆ่าล้างเผ่าพันธุ์คนผิวขาว เกิดจาก 'การดัดแปลงระบบโดยไม่ได้รับอนุญาต'
xAI ยอมรับมีการแก้ไข system prompt ของ Grok โดยไม่ได้รับอนุญาต ทำให้แชทบอทพูดถึงการฆ่าล้างเผ่าพันธุ์คนผิวขาวในแอฟริกาใต้ซ้ำๆ พร้อมประกาศมาตรการป้องกันและเพิ่มความโปร่งใส

Key takeaway
- xAI ยอมรับว่ามีการแก้ไข system prompt ของ Grok โดยไม่ได้รับอนุญาต ส่งผลให้แชทบอทแสดงข้อความเกี่ยวกับ "การฆ่าล้างเผ่าพันธุ์คนผิวขาว" อย่างผิดปกติ ซึ่งเป็นการละเมิดนโยบายภายในของบริษัท
- บริษัทประกาศมาตรการป้องกันหลายอย่าง เช่น การเปิดเผย system prompt บน GitHub การเพิ่มระบบตรวจสอบ และการจัดตั้งทีมเฝ้าระวัง 24/7 เพื่อป้องกันไม่ให้เกิดเหตุการณ์แบบนี้อีก
- xAI มีประวัติด้านความปลอดภัย AI ที่ไม่น่าประทับใจ โดยองค์กร SaferAI จัดอันดับให้บริษัทมีมาตรฐานความปลอดภัยต่ำ และล่าสุดยังพลาดกำหนดการเผยแพร่กรอบความปลอดภัย AI ตามที่เคยประกาศไว้
xAI ได้ออกมายอมรับว่า "การแก้ไขโดยไม่ได้รับอนุญาต" เป็นสาเหตุของความผิดพลาดที่ทำให้แชทบอท AI อย่าง Grok พูดถึง "การฆ่าล้างเผ่าพันธุ์คนผิวขาวในแอฟริกาใต้" ซ้ำๆ เมื่อผู้ใช้เรียกใช้งานในหลากหลายบริบทบนแพลตฟอร์ม X
เหตุการณ์เริ่มขึ้นเมื่อวันพุธที่ผ่านมา เมื่อ Grok เริ่มตอบโพสต์จำนวนมากบน X ด้วยข้อมูลเกี่ยวกับการฆ่าล้างเผ่าพันธุ์คนผิวขาวในแอฟริกาใต้ แม้กระทั่งเมื่อผู้ใช้ถามคำถามที่ไม่เกี่ยวข้องกับประเด็นดังกล่าว พฤติกรรมผิดปกตินี้เกิดขึ้นเมื่อผู้ใช้แท็ก "@grok" ในโพสต์ของตน
ตามคำชี้แจงอย่างเป็นทางการจากบัญชี X ของ xAI เมื่อวันพฤหัสบดี ระบุว่ามีการเปลี่ยนแปลง system prompt ของ Grok เกิดขึ้นเมื่อเช้าวันพุธ โดยมีการสั่งให้บอทแสดง "การตอบสนองเฉพาะ" เกี่ยวกับ "หัวข้อทางการเมือง" ซึ่ง xAI ระบุว่าการกระทำดังกล่าว "ละเมิดนโยบายภายในและค่านิยมหลัก" ของบริษัท และได้ "เริ่มการตรวจสอบอย่างละเอียด" ในเรื่องนี้
นี่ไม่ใช่ครั้งแรกที่ xAI ยอมรับว่ามีการแก้ไขโค้ดของ Grok โดยไม่ได้รับอนุญาต ก่อนหน้านี้ในเดือนกุมภาพันธ์ Grok ได้เซ็นเซอร์การกล่าวถึง Donald Trump และ Elon Musk ในแง่ลบชั่วคราว โดย Igor Babuschkin วิศวกรนำของ xAI เปิดเผยว่ามีพนักงานที่ไม่เชื่อฟังได้สั่งให้ Grok เพิกเฉยต่อแหล่งข้อมูลที่กล่าวถึง Musk หรือ Trump ในทางที่เป็นการเผยแพร่ข้อมูลเท็จ
เพื่อป้องกันไม่ให้เกิดเหตุการณ์ในลักษณะเดียวกันอีก xAI ประกาศมาตรการหลายประการ ได้แก่:
- เผยแพร่ system prompt ของ Grok บน GitHub พร้อมบันทึกการเปลี่ยนแปลงทั้งหมด
- เพิ่มระบบตรวจสอบและมาตรการควบคุมเพื่อให้แน่ใจว่าพนักงานไม่สามารถแก้ไข system prompt โดยปราศจากการตรวจสอบ
- จัดตั้งทีมตรวจสอบและตอบสนองแบบ 24/7 เพื่อจัดการกับคำตอบของ Grok ที่ไม่เหมาะสมซึ่งไม่ถูกตรวจจับโดยระบบอัตโนมัติ
แม้ Elon Musk จะมักกล่าวเตือนถึงอันตรายของ AI ที่ขาดการควบคุม แต่ xAI กลับมีประวัติด้านความปลอดภัย AI ที่ไม่น่าประทับใจ รายงานล่าสุดระบุว่า Grok สามารถถอดเสื้อผ้าในรูปภาพของผู้หญิงเมื่อได้รับคำขอ นอกจากนี้ แชทบอทยังแสดงพฤติกรรมหยาบคายได้มากกว่า AI คู่แข่งอย่าง Google's Gemini และ ChatGPT โดยสามารถใช้คำหยาบคายได้อย่างอิสระ
องค์กรไม่แสวงหากำไรอย่าง SaferAI ได้จัดอันดับให้ xAI มีมาตรฐานความปลอดภัยต่ำเมื่อเทียบกับคู่แข่ง เนื่องจากมีแนวปฏิบัติด้านการจัดการความเสี่ยงที่ "อ่อนแอมาก" ทั้งนี้ เมื่อต้นเดือนที่ผ่านมา xAI ยังพลาดกำหนดการในการเผยแพร่กรอบความปลอดภัย AI ฉบับสมบูรณ์ตามที่บริษัทเคยประกาศไว้อีกด้วย
Why it matters
💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจพัฒนาการของ AI และประเด็นด้านความปลอดภัย เนื่องจากเผยให้เห็นถึงความท้าทายในการควบคุมระบบ AI ขนาดใหญ่ และผลกระทบที่อาจเกิดขึ้นจากการแทรกแซงโดยบุคคลภายใน กรณี Grok นี้สะท้อนให้เห็นถึงความจำเป็นในการพัฒนาระบบรักษาความปลอดภัยที่เข้มงวดและโปร่งใสมากขึ้นในอุตสาหกรรม AI ซึ่งเป็นบทเรียนสำคัญสำหรับทั้งผู้พัฒนาและผู้ใช้งาน AI
ข้อมูลอ้างอิงจาก https://techcrunch.com/2025/05/15/xai-blames-groks-obsession-with-white-genocide-on-an-unauthorized-modification/