AI ทำให้อาชญากรไซเบอร์ทำงานมีประสิทธิภาพมากขึ้น ตามรายงานของ OpenAI

OpenAI เปิดเผยรายงานการใช้ AI ในทางที่ผิดของอาชญากรไซเบอร์ พบว่ามีการใช้เพื่อเพิ่มประสิทธิภาพการโจมตี ทั้งการสร้างมัลแวร์ การสอดแนม และการโฆษณาชวนเชื่อ บริษัทได้ระงับเครือข่ายอันตรายไปแล้วกว่า 40 เครือข่าย

AI ทำให้อาชญากรไซเบอร์ทำงานมีประสิทธิภาพมากขึ้น ตามรายงานของ OpenAI

Key takeaway

  • AI กำลังถูกนำไปใช้โดยอาชญากรไซเบอร์เพื่อเพิ่มประสิทธิภาพการทำงาน โดยเฉพาะในการสร้างมัลแวร์ การฟิชชิ่ง และการสอดแนม ซึ่ง OpenAI ได้ทำลายเครือข่ายที่ละเมิดนโยบายไปแล้วกว่า 40 เครือข่าย
  • พบว่ากลุ่มที่ได้รับการสนับสนุนจากรัฐ โดยเฉพาะจากประเทศจีนและรัสเซีย กำลังใช้ AI ในการสร้างเนื้อหาหลอกลวง การเฝ้าระวัง และการโฆษณาชวนเชื่อ รวมถึงการพัฒนาระบบติดตามประชากรบางกลุ่ม
  • แม้ AI จะถูกนำไปใช้ในทางที่ผิด แต่ยังไม่พบหลักฐานว่ามีการใช้ AI ในการพัฒนาการโจมตีรูปแบบใหม่ที่แปลกออกไป ส่วนใหญ่เป็นการนำ AI มาเพิ่มประสิทธิภาพการโจมตีแบบเดิมให้ทำงานได้เร็วขึ้นเท่านั้น

OpenAI เพิ่งเปิดเผยงานวิจัยที่แสดงให้เห็นว่ากลุ่มที่ได้รับการสนับสนุนจากรัฐและกลุ่มอาชญากรไซเบอร์กำลังใช้ปัญญาประดิษฐ์ (AI) ในทางที่ผิดเพื่อแพร่มัลแวร์และทำการสอดแนม

(เปิดเผย: Ziff Davis บริษัทแม่ของ ZDNET ได้ยื่นฟ้อง OpenAI ในเดือนเมษายน 2025 ในข้อหาละเมิดลิขสิทธิ์ของ Ziff Davis ในการฝึกและใช้งานระบบ AI)

AI มีประโยชน์ต่องานด้านความปลอดภัยทางไซเบอร์ เช่น การอัตโนมัติงานที่น่าเบื่อและใช้เวลานาน ช่วยให้ผู้เชี่ยวชาญมนุษย์มุ่งเน้นกับโครงการที่ซับซ้อนและงานวิจัยได้มากขึ้น อย่างไรก็ตาม เหมือนเทคโนโลยีอื่นๆ ไม่ว่าจะเป็นระบบ AI ที่ออกแบบมาเพื่อกรองการแจ้งเตือนภัยไซเบอร์หรือเครื่องมือทดสอบการเจาะระบบ ก็สามารถถูกนำไปใช้ในทางที่เป็นอันตรายได้

ตั้งแต่เดือนกุมภาพันธ์ 2024 OpenAI ได้ออกรายงานภัยคุกคามสาธารณะและติดตามการใช้เครื่องมือ AI โดยผู้ไม่ประสงค์ดีอย่างใกล้ชิด นับตั้งแต่ปีที่แล้ว OpenAI ได้ทำลายเครือข่ายอันตรายกว่า 40 เครือข่ายที่ละเมิดนโยบายการใช้งาน การวิเคราะห์เครือข่ายเหล่านี้ช่วยให้เห็นแนวโน้มปัจจุบันของอาชญากรรมไซเบอร์ที่เกี่ยวข้องกับ AI

รายงานของ OpenAI เรื่อง "การขัดขวางการใช้ AI ในทางที่ผิด: การอัปเดต" (PDF) ที่เผยแพร่เมื่อวันจันทร์ ระบุแนวโน้มสำคัญ 4 ประการ ซึ่งทั้งหมดแสดงให้เห็นว่า AI กำลังถูกใช้เพื่อเปลี่ยนแปลงกลยุทธ์ เทคนิค และขั้นตอน (TTPs) ของผู้ไม่ประสงค์ดีอย่างรวดเร็ว

แนวโน้มสำคัญ

แนวโน้มแรกคือการใช้ AI ในกระบวนการทำงานที่มีอยู่เพิ่มมากขึ้น บัญชีจำนวนมากที่ถูกแบนได้นำ AI มาผสมผสานในเครือข่ายอาชญากรรมไซเบอร์ซ้ำๆ ทีม OpenAI พบหลักฐานการละเมิดนี้จากเครือข่ายที่เชื่อว่าตั้งอยู่ในกัมพูชา ซึ่งเครือข่ายอาชญากรรมที่มีการจัดตั้งพยายามใช้ ChatGPT เพื่อ "ทำให้กระบวนการทำงานมีประสิทธิภาพและลดข้อผิดพลาดมากขึ้น"

บัญชีหลายรายถูกระงับเนื่องจากพยายามสร้าง Remote Access Trojans (RATs), เครื่องมือขโมยข้อมูลส่วนบุคคล, เครื่องมือพรางข้อมูล รวมถึง crypters และโค้ดสร้าง payload

ประเด็นที่น่ากังวลสำคัญประการที่สองคือกลุ่มภัยคุกคามใช้เครื่องมือและโมเดล AI หลากหลายเพื่อวัตถุประสงค์ที่เป็นอันตรายหรือละเมิดที่แตกต่างกัน รวมถึงหน่วยงานที่น่าจะเชื่อมโยงกับรัสเซียที่ใช้เครื่องมือ AI ต่างๆ เพื่อสร้างคำสั่ง prompt วิดีโอและเนื้อหาหลอกลวงที่ออกแบบมาเพื่อเผยแพร่ผ่านโซเชียลมีเดีย วิดีโอสั้นแบบข่าว และโฆษณาชวนเชื่อ

ในอีกกรณีหนึ่ง บัญชีภาษาจีนหลายบัญชีถูกระงับเนื่องจากพยายามใช้ ChatGPT สร้างเนื้อหาฟิชชิ่งและแก้ไขบั๊ก เชื่อว่ากลุ่มนี้อาจเป็นกลุ่มภัยคุกคามที่รู้จักในชื่อ UTA0388 ซึ่งมีประวัติโจมตีอุตสาหกรรมเซมิคอนดักเตอร์ของไต้หวัน think tanks และสถาบันการศึกษาของสหรัฐฯ

OpenAI ยังอธิบายว่าอาชญากรไซเบอร์กำลังใช้ AI เพื่อปรับตัวและพรางร่องรอย เครือข่ายที่คาดว่ามาจากกัมพูชา เมียนมาร์ และไนจีเรีย ตระหนักดีว่าเนื้อหาและโค้ดที่สร้างจาก AI สามารถตรวจจับได้ จึงขอให้โมเดล AI ลบเครื่องหมายต่างๆ เช่น em-dashes จากผลลัพธ์

"เป็นเวลาหลายเดือนที่ em-dashes เป็นประเด็นในการสนทนาออนไลน์ว่าอาจเป็นเครื่องบ่งชี้การใช้ AI: กรณีนี้แสดงให้เห็นว่าผู้ไม่ประสงค์ดีรับรู้ถึงการสนทนานั้น" รายงานระบุ

ที่น่ากังวลแต่ไม่น่าแปลกใจคือ AI กำลังตกอยู่ในมือของกลุ่มที่ได้รับการสนับสนุนจากรัฐ ล่าสุด OpenAI ได้ทำลายเครือข่ายที่คาดว่าเชื่อมโยงกับหน่วยงานรัฐบาลจีนหลายแห่ง โดยพบบัญชีที่ขอให้ ChatGPT สร้างข้อเสนอสำหรับระบบขนาดใหญ่ที่ออกแบบมาเพื่อตรวจสอบเครือข่ายโซเชียลมีเดีย

นอกจากนี้ บางบัญชีขอความช่วยเหลือในการเขียนข้อเสนอสำหรับเครื่องมือที่จะวิเคราะห์การจองการขนส่งและเปรียบเทียบกับบันทึกของตำรวจ ซึ่งเป็นการติดตามการเคลื่อนไหวของชนกลุ่มน้อยชาวอุยกูร์ ขณะที่อีกรายพยายามใช้ ChatGPT เพื่อระบุแหล่งเงินทุนที่เกี่ยวข้องกับบัญชี X ที่วิจารณ์รัฐบาลจีน

ข้อจำกัดของ AI ในอาชญากรรม

แม้ AI จะถูกนำมาใช้เป็นเครื่องมือของอาชญากรรม แต่มีหลักฐานน้อยมากหรือไม่มีเลยที่แสดงว่าโมเดล AI ที่มีอยู่กำลังถูกใช้เพื่อพัฒนาการโจมตีแบบ "แปลกใหม่" ที่ OpenAI กล่าวถึง กล่าวคือ โมเดล AI กำลังปฏิเสธคำขอที่เป็นอันตรายซึ่งจะเพิ่มขีดความสามารถในการโจมตีของผู้ไม่ประสงค์ดีด้วยกลยุทธ์ใหม่ที่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ไม่คุ้นเคย

"เรายังคงเห็นผู้ไม่ประสงค์ดีนำ AI มาเชื่อมต่อกับคู่มือเก่าเพื่อให้ทำงานเร็วขึ้น ไม่ใช่เพื่อให้ได้ความสามารถในการโจมตีแบบใหม่จากโมเดลของเรา" OpenAI กล่าว "เมื่อภูมิทัศน์ของภัยคุกคามพัฒนาขึ้น เราคาดว่าจะเห็นการปรับตัวและนวัตกรรมของฝ่ายตรงข้ามเพิ่มเติม แต่เราจะยังคงสร้างเครื่องมือและโมเดลที่สามารถใช้ให้เป็นประโยชน์ต่อผู้ป้องกัน - ไม่เพียงแต่ภายในห้องปฏิบัติการ AI เท่านั้น แต่ยังรวมถึงทั่วทั้งสังคมด้วย"

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ทำงานด้านไอทีและผู้ที่สนใจด้านความปลอดภัยไซเบอร์ เนื่องจากเป็นรายงานล่าสุดจาก OpenAI ที่เปิดเผยวิธีการที่อาชญากรไซเบอร์กำลังใช้ AI เพื่อเพิ่มประสิทธิภาพการโจมตี รวมถึงการใช้ ChatGPT ในการสอดแนมและเฝ้าระวัง ข้อมูลนี้จะช่วยให้องค์กรและผู้เชี่ยวชาญด้านความปลอดภัยเตรียมพร้อมรับมือกับภัยคุกคามรูปแบบใหม่ที่ใช้ AI เป็นเครื่องมือ และวางแผนกลยุทธ์การป้องกันได้อย่างมีประสิทธิภาพมากขึ้น

ข้อมูลอ้างอิงจาก https://www.zdnet.com/article/ai-is-making-cybercriminal-workflows-more-efficient-too-openai-finds/

Read more

กล้องอัจฉริยะด้วย AI ของ Logitech ปฏิวัติการแสดงผลห้องประชุมขนาดใหญ่ในการประชุมวิดีโอ

news

กล้องอัจฉริยะด้วย AI ของ Logitech ปฏิวัติการแสดงผลห้องประชุมขนาดใหญ่ในการประชุมวิดีโอ

Logitech นำเสนอโซลูชันใหม่ด้วย Rally AI Camera และ Rally AI Camera Pro ที่ใช้เทคโนโลยี AI ช่วยแก้ปัญหาการประชุมในห้องขนาดใหญ่ ด้วยระบบจัดเฟรมอัจฉริยะ RightSight 2 ที่ปรับมุมมองตามสถานการณ์ เพื่อให้การประชุมแบบไฮบริดมีความเท่าเทียมมากขึ้น

By
Resolve AI ระดมทุน $125 ล้านด้วยมูลค่า $1 พันล้าน เพื่อพัฒนาระบบบำรุงรักษาแอปพลิเคชันอัตโนมัติ

news

Resolve AI ระดมทุน $125 ล้านด้วยมูลค่า $1 พันล้าน เพื่อพัฒนาระบบบำรุงรักษาแอปพลิเคชันอัตโนมัติ

Resolve AI สตาร์ทอัพที่พัฒนาแพลตฟอร์มแก้ไขปัญหาแอปพลิเคชันอัตโนมัติ ระดมทุน Series A มูลค่า $125 ล้าน จาก Lightspeed และพันธมิตร ส่งผลให้บริษัทมีมูลค่า $1 พันล้าน เงินทุนจะถูกใช้ขยายทีมและพัฒนาโมเดล AI แบบกำหนดเอง

By
นักวิจัยเผยผู้บุกรุก AWS ได้รับสิทธิ์ admin ภายในเวลาไม่ถึง 10 นาที ด้วยความช่วยเหลือจาก AI

news

นักวิจัยเผยผู้บุกรุก AWS ได้รับสิทธิ์ admin ภายในเวลาไม่ถึง 10 นาที ด้วยความช่วยเหลือจาก AI

ผู้บุกรุกใช้ AI เจาะระบบคลาวด์ AWS ได้สิทธิ์แอดมินภายในเวลาไม่ถึง 10 นาที โดยขโมย credentials จาก S3 buckets สาธารณะ ยกระดับสิทธิ์ผ่าน Lambda function และเข้าถึงทรัพยากร AI ของเหยื่อ กรณีนี้แสดงให้เห็นถึงภัยคุกคามใหม่ที่ใช้ AI ช่วยโจมตี

By
จาก Clawdbot สู่ Moltbot: AI Agent นี้ไวรัลและเปลี่ยนตัวตนใหม่ภายใน 72 ชั่วโมงได้อย่างไร

news

จาก Clawdbot สู่ Moltbot: AI Agent นี้ไวรัลและเปลี่ยนตัวตนใหม่ภายใน 72 ชั่วโมงได้อย่างไร

ติดตามเรื่องราวของ Moltbot ผู้ช่วย AI โอเพนซอร์สที่ต้องเปลี่ยนชื่อจาก Clawdbot หลังปัญหาเครื่องหมายการค้ากับ Anthropic เจ้าของ Claude AI พร้อมเรียนรู้คุณสมบัติเด่นที่ทำให้ผู้ช่วย AI นี้น่าสนใจ ทั้งหน่วยความจำถาวร การแจ้งเตือนเชิงรุก และความสามารถในการทำงานอัตโนมัติ

By