AI ทำให้อาชญากรไซเบอร์ทำงานมีประสิทธิภาพมากขึ้น ตามรายงานของ OpenAI
OpenAI เปิดเผยรายงานการใช้ AI ในทางที่ผิดของอาชญากรไซเบอร์ พบว่ามีการใช้เพื่อเพิ่มประสิทธิภาพการโจมตี ทั้งการสร้างมัลแวร์ การสอดแนม และการโฆษณาชวนเชื่อ บริษัทได้ระงับเครือข่ายอันตรายไปแล้วกว่า 40 เครือข่าย
Key takeaway
- AI กำลังถูกนำไปใช้โดยอาชญากรไซเบอร์เพื่อเพิ่มประสิทธิภาพการทำงาน โดยเฉพาะในการสร้างมัลแวร์ การฟิชชิ่ง และการสอดแนม ซึ่ง OpenAI ได้ทำลายเครือข่ายที่ละเมิดนโยบายไปแล้วกว่า 40 เครือข่าย
- พบว่ากลุ่มที่ได้รับการสนับสนุนจากรัฐ โดยเฉพาะจากประเทศจีนและรัสเซีย กำลังใช้ AI ในการสร้างเนื้อหาหลอกลวง การเฝ้าระวัง และการโฆษณาชวนเชื่อ รวมถึงการพัฒนาระบบติดตามประชากรบางกลุ่ม
- แม้ AI จะถูกนำไปใช้ในทางที่ผิด แต่ยังไม่พบหลักฐานว่ามีการใช้ AI ในการพัฒนาการโจมตีรูปแบบใหม่ที่แปลกออกไป ส่วนใหญ่เป็นการนำ AI มาเพิ่มประสิทธิภาพการโจมตีแบบเดิมให้ทำงานได้เร็วขึ้นเท่านั้น
OpenAI เพิ่งเปิดเผยงานวิจัยที่แสดงให้เห็นว่ากลุ่มที่ได้รับการสนับสนุนจากรัฐและกลุ่มอาชญากรไซเบอร์กำลังใช้ปัญญาประดิษฐ์ (AI) ในทางที่ผิดเพื่อแพร่มัลแวร์และทำการสอดแนม
(เปิดเผย: Ziff Davis บริษัทแม่ของ ZDNET ได้ยื่นฟ้อง OpenAI ในเดือนเมษายน 2025 ในข้อหาละเมิดลิขสิทธิ์ของ Ziff Davis ในการฝึกและใช้งานระบบ AI)
AI มีประโยชน์ต่องานด้านความปลอดภัยทางไซเบอร์ เช่น การอัตโนมัติงานที่น่าเบื่อและใช้เวลานาน ช่วยให้ผู้เชี่ยวชาญมนุษย์มุ่งเน้นกับโครงการที่ซับซ้อนและงานวิจัยได้มากขึ้น อย่างไรก็ตาม เหมือนเทคโนโลยีอื่นๆ ไม่ว่าจะเป็นระบบ AI ที่ออกแบบมาเพื่อกรองการแจ้งเตือนภัยไซเบอร์หรือเครื่องมือทดสอบการเจาะระบบ ก็สามารถถูกนำไปใช้ในทางที่เป็นอันตรายได้
ตั้งแต่เดือนกุมภาพันธ์ 2024 OpenAI ได้ออกรายงานภัยคุกคามสาธารณะและติดตามการใช้เครื่องมือ AI โดยผู้ไม่ประสงค์ดีอย่างใกล้ชิด นับตั้งแต่ปีที่แล้ว OpenAI ได้ทำลายเครือข่ายอันตรายกว่า 40 เครือข่ายที่ละเมิดนโยบายการใช้งาน การวิเคราะห์เครือข่ายเหล่านี้ช่วยให้เห็นแนวโน้มปัจจุบันของอาชญากรรมไซเบอร์ที่เกี่ยวข้องกับ AI
รายงานของ OpenAI เรื่อง "การขัดขวางการใช้ AI ในทางที่ผิด: การอัปเดต" (PDF) ที่เผยแพร่เมื่อวันจันทร์ ระบุแนวโน้มสำคัญ 4 ประการ ซึ่งทั้งหมดแสดงให้เห็นว่า AI กำลังถูกใช้เพื่อเปลี่ยนแปลงกลยุทธ์ เทคนิค และขั้นตอน (TTPs) ของผู้ไม่ประสงค์ดีอย่างรวดเร็ว
แนวโน้มสำคัญ
แนวโน้มแรกคือการใช้ AI ในกระบวนการทำงานที่มีอยู่เพิ่มมากขึ้น บัญชีจำนวนมากที่ถูกแบนได้นำ AI มาผสมผสานในเครือข่ายอาชญากรรมไซเบอร์ซ้ำๆ ทีม OpenAI พบหลักฐานการละเมิดนี้จากเครือข่ายที่เชื่อว่าตั้งอยู่ในกัมพูชา ซึ่งเครือข่ายอาชญากรรมที่มีการจัดตั้งพยายามใช้ ChatGPT เพื่อ "ทำให้กระบวนการทำงานมีประสิทธิภาพและลดข้อผิดพลาดมากขึ้น"
บัญชีหลายรายถูกระงับเนื่องจากพยายามสร้าง Remote Access Trojans (RATs), เครื่องมือขโมยข้อมูลส่วนบุคคล, เครื่องมือพรางข้อมูล รวมถึง crypters และโค้ดสร้าง payload
ประเด็นที่น่ากังวลสำคัญประการที่สองคือกลุ่มภัยคุกคามใช้เครื่องมือและโมเดล AI หลากหลายเพื่อวัตถุประสงค์ที่เป็นอันตรายหรือละเมิดที่แตกต่างกัน รวมถึงหน่วยงานที่น่าจะเชื่อมโยงกับรัสเซียที่ใช้เครื่องมือ AI ต่างๆ เพื่อสร้างคำสั่ง prompt วิดีโอและเนื้อหาหลอกลวงที่ออกแบบมาเพื่อเผยแพร่ผ่านโซเชียลมีเดีย วิดีโอสั้นแบบข่าว และโฆษณาชวนเชื่อ
ในอีกกรณีหนึ่ง บัญชีภาษาจีนหลายบัญชีถูกระงับเนื่องจากพยายามใช้ ChatGPT สร้างเนื้อหาฟิชชิ่งและแก้ไขบั๊ก เชื่อว่ากลุ่มนี้อาจเป็นกลุ่มภัยคุกคามที่รู้จักในชื่อ UTA0388 ซึ่งมีประวัติโจมตีอุตสาหกรรมเซมิคอนดักเตอร์ของไต้หวัน think tanks และสถาบันการศึกษาของสหรัฐฯ
OpenAI ยังอธิบายว่าอาชญากรไซเบอร์กำลังใช้ AI เพื่อปรับตัวและพรางร่องรอย เครือข่ายที่คาดว่ามาจากกัมพูชา เมียนมาร์ และไนจีเรีย ตระหนักดีว่าเนื้อหาและโค้ดที่สร้างจาก AI สามารถตรวจจับได้ จึงขอให้โมเดล AI ลบเครื่องหมายต่างๆ เช่น em-dashes จากผลลัพธ์
"เป็นเวลาหลายเดือนที่ em-dashes เป็นประเด็นในการสนทนาออนไลน์ว่าอาจเป็นเครื่องบ่งชี้การใช้ AI: กรณีนี้แสดงให้เห็นว่าผู้ไม่ประสงค์ดีรับรู้ถึงการสนทนานั้น" รายงานระบุ
ที่น่ากังวลแต่ไม่น่าแปลกใจคือ AI กำลังตกอยู่ในมือของกลุ่มที่ได้รับการสนับสนุนจากรัฐ ล่าสุด OpenAI ได้ทำลายเครือข่ายที่คาดว่าเชื่อมโยงกับหน่วยงานรัฐบาลจีนหลายแห่ง โดยพบบัญชีที่ขอให้ ChatGPT สร้างข้อเสนอสำหรับระบบขนาดใหญ่ที่ออกแบบมาเพื่อตรวจสอบเครือข่ายโซเชียลมีเดีย
นอกจากนี้ บางบัญชีขอความช่วยเหลือในการเขียนข้อเสนอสำหรับเครื่องมือที่จะวิเคราะห์การจองการขนส่งและเปรียบเทียบกับบันทึกของตำรวจ ซึ่งเป็นการติดตามการเคลื่อนไหวของชนกลุ่มน้อยชาวอุยกูร์ ขณะที่อีกรายพยายามใช้ ChatGPT เพื่อระบุแหล่งเงินทุนที่เกี่ยวข้องกับบัญชี X ที่วิจารณ์รัฐบาลจีน
ข้อจำกัดของ AI ในอาชญากรรม
แม้ AI จะถูกนำมาใช้เป็นเครื่องมือของอาชญากรรม แต่มีหลักฐานน้อยมากหรือไม่มีเลยที่แสดงว่าโมเดล AI ที่มีอยู่กำลังถูกใช้เพื่อพัฒนาการโจมตีแบบ "แปลกใหม่" ที่ OpenAI กล่าวถึง กล่าวคือ โมเดล AI กำลังปฏิเสธคำขอที่เป็นอันตรายซึ่งจะเพิ่มขีดความสามารถในการโจมตีของผู้ไม่ประสงค์ดีด้วยกลยุทธ์ใหม่ที่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ไม่คุ้นเคย
"เรายังคงเห็นผู้ไม่ประสงค์ดีนำ AI มาเชื่อมต่อกับคู่มือเก่าเพื่อให้ทำงานเร็วขึ้น ไม่ใช่เพื่อให้ได้ความสามารถในการโจมตีแบบใหม่จากโมเดลของเรา" OpenAI กล่าว "เมื่อภูมิทัศน์ของภัยคุกคามพัฒนาขึ้น เราคาดว่าจะเห็นการปรับตัวและนวัตกรรมของฝ่ายตรงข้ามเพิ่มเติม แต่เราจะยังคงสร้างเครื่องมือและโมเดลที่สามารถใช้ให้เป็นประโยชน์ต่อผู้ป้องกัน - ไม่เพียงแต่ภายในห้องปฏิบัติการ AI เท่านั้น แต่ยังรวมถึงทั่วทั้งสังคมด้วย"
Why it matters
💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ทำงานด้านไอทีและผู้ที่สนใจด้านความปลอดภัยไซเบอร์ เนื่องจากเป็นรายงานล่าสุดจาก OpenAI ที่เปิดเผยวิธีการที่อาชญากรไซเบอร์กำลังใช้ AI เพื่อเพิ่มประสิทธิภาพการโจมตี รวมถึงการใช้ ChatGPT ในการสอดแนมและเฝ้าระวัง ข้อมูลนี้จะช่วยให้องค์กรและผู้เชี่ยวชาญด้านความปลอดภัยเตรียมพร้อมรับมือกับภัยคุกคามรูปแบบใหม่ที่ใช้ AI เป็นเครื่องมือ และวางแผนกลยุทธ์การป้องกันได้อย่างมีประสิทธิภาพมากขึ้น
ข้อมูลอ้างอิงจาก https://www.zdnet.com/article/ai-is-making-cybercriminal-workflows-more-efficient-too-openai-finds/