นักวิจัยสามารถเอาชนะระบบและแฮ็กเข้าถึง o3-mini ของ OpenAI

นักวิจัยด้านความปลอดภัยจาก CyberArk สามารถหลอก o3-mini ให้สร้าง exploit สำหรับระบบ Windows ได้ แม้ OpenAI จะติดตั้งระบบป้องกันใหม่ "deliberative alignment" เผยให้เห็นช่องโหว่ด้านความปลอดภัยที่ต้องปรับปรุง

นักวิจัยสามารถเอาชนะระบบและแฮ็กเข้าถึง o3-mini ของ OpenAI

Key takeaway

  • ระบบรักษาความปลอดภัยใหม่ "deliberative alignment" ของ OpenAI ที่ใช้ใน o3-mini ถูกเจาะช่องโหว่ได้ภายในเวลาไม่กี่วันหลังเปิดตัว โดย Eran Shimony นักวิจัยด้านความปลอดภัยสามารถหลอกให้ AI สอนวิธีเขียน exploit สำหรับระบบ Windows ได้
  • การทดสอบด้วยเครื่องมือ FuzzyAI แสดงให้เห็นจุดอ่อนที่แตกต่างกันของ LLM แต่ละค่าย โดย OpenAI มีจุดอ่อนด้านการถูกหลอกลวง, Llama อ่อนไหวต่อ ASCII art และ Claude มีช่องโหว่ด้านการเขียนโค้ด
  • แนวทางการแก้ไขที่ถูกเสนอคือการฝึกฝน AI ด้วย prompt ที่เป็นอันตรายมากขึ้น และการพัฒนาระบบตรวจจับ input ที่เป็นภัยให้มีประสิทธิภาพมากขึ้น เพื่อป้องกันการถูกหลอกใช้ในทางที่ผิด

OpenAI ได้เปิดตัวโมเดล o3 และ o3-mini เมื่อวันที่ 20 ธันวาคม พร้อมระบบรักษาความปลอดภัยใหม่ "deliberative alignment" ที่ออกแบบมาเพื่อให้การทำงานสอดคล้องกับนโยบายความปลอดภัยของบริษัทได้แม่นยำยิ่งขึ้น และแก้ไขจุดอ่อนที่เคยถูกโจมตีมาก่อนหน้านี้

แต่ภายในเวลาไม่ถึงสัปดาห์ Eran Shimony นักวิจัยด้านความปลอดภัยจาก CyberArk สามารถหลอกให้ o3-mini สอนวิธีเขียน exploit สำหรับ Local Security Authority Subsystem Service (lsass.exe) ซึ่งเป็นระบบสำคัญด้านความปลอดภัยของ Windows

ระบบป้องกันใหม่ของ o3-mini ใช้เทคนิค chain of thought (CoT) ที่ทำให้ AI วิเคราะห์คำตอบอย่างละเอียดทีละขั้น และได้รับการฝึกฝนด้วยแนวทางความปลอดภัยของ OpenAI โดยตรง

Shimony ใช้เครื่องมือ FuzzyAI ทดสอบความปลอดภัยของ LLM ยอดนิยม พบจุดอ่อนที่แตกต่างกัน:

  • โมเดลของ OpenAI อ่อนไหวต่อการหลอกลวง
  • Llama ของ Meta มีจุดอ่อนเรื่อง ASCII art
  • Claude มีช่องโหว่ด้านการเขียนโค้ด

แม้ o3 จะมีระบบป้องกันที่แข็งแกร่งกว่า GPT-4 แต่ Shimony ก็สามารถหลอกให้สร้าง malware ได้ โดยอ้างว่าเป็นนักประวัติศาสตร์ที่ต้องการข้อมูลเพื่อการศึกษา

OpenAI รับทราบเรื่องนี้ แต่ชี้แจงว่าโค้ดที่ได้เป็นเพียง pseudocode และเป็นข้อมูลที่สามารถหาได้ทั่วไปบนอินเทอร์เน็ต

Shimony เสนอแนวทางปรับปรุง o3 สองวิธี:

  1. ฝึกฝนด้วย prompt ที่เป็นอันตรายมากขึ้น
  2. เพิ่มระบบตรวจจับ input ที่เป็นภัยให้แข็งแกร่งขึ้น

#TechNews #AI #Cybersecurity #OpenAI #LLM

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ทำงานด้านเทคโนโลยีและผู้ที่สนใจพัฒนาการของ AI เพราะเผยให้เห็นถึงช่องโหว่ด้านความปลอดภัยในโมเดล AI รุ่นใหม่ล่าสุดของ OpenAI ที่ถูกเจาะได้ภายในเวลาอันรวดเร็ว แม้จะมีการปรับปรุงระบบป้องกันแล้วก็ตาม สะท้อนให้เห็นความท้าทายในการพัฒนาระบบ AI ที่ทั้งฉลาดและปลอดภัย รวมถึงความจำเป็นในการพัฒนาระบบรักษาความปลอดภัยให้แข็งแกร่งยิ่งขึ้น

ข้อมูลอ้างอิงจาก https://www.darkreading.com/application-security/researcher-jailbreaks-openai-o3-mini

Read more

บริษัทนี้แอบบันทึก Zoom Meeting แล้วแปลงเป็น AI Podcast โดยไม่ได้รับอนุญาต

news

บริษัทนี้แอบบันทึก Zoom Meeting แล้วแปลงเป็น AI Podcast โดยไม่ได้รับอนุญาต

** WebinarTV ถูกเปิดโปงแอบสแกนหาลิงก์ Zoom แล้วบันทึกการประชุมโดยไม่ได้รับอนุญาต ก่อนนำไปแปลงเป็น AI Podcast เพื่อแสวงหากำไร สะท้อนความเสี่ยงด้าน Cybersecurity และ Privacy ในยุค AI

By
Amazon ติดอาวุธ Alexa ด้วย Generative AI พร้อมบุกตลาดสหราชอาณาจักรอย่างเต็มรูปแบบ

news

Amazon ติดอาวุธ Alexa ด้วย Generative AI พร้อมบุกตลาดสหราชอาณาจักรอย่างเต็มรูปแบบ

Amazon เปิดตัว Alexa+ อย่างเป็นทางการในสหราชอาณาจักร พร้อมเทคโนโลยี Generative AI และ Agentic AI รองรับอุปกรณ์เดิมย้อนหลัง 8 ปี ราคา £19.99/เดือน หรือรวมกับ Prime Subscription

By
การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

news

การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

งานวิจัยจากมหาวิทยาลัยฝั่งตะวันตกของสหรัฐฯ พบว่าผู้ที่ใช้ AI เขียนงานหนักมีแนวโน้มผลิตงานที่เป็นกลางมากกว่าถึง 69% พร้อมสูญเสีย Voice และความเป็นตัวตนของผู้เขียนไปอย่างมีนัยสำคัญ

By
Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

news

Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

Manulife ประกาศนำ AI Agents เข้าสู่กระบวนการทางการเงินหลักขององค์กร ในฐานะส่วนหนึ่งของกลยุทธ์ AI-First เพื่อยกระดับประสิทธิภาพและลด Manual Processes สะท้อนทิศทาง AI Infrastructure ของภาคการเงินโลก

By