AI ช่วยแฮกเกอร์เจาะตัวตนบัญชี Social Media ที่ปกปิดชื่อจริง
การศึกษาใหม่เผยให้เห็นว่า AI ทำให้แฮกเกอร์สามารถระบุตัวตนเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น โดยใช้ Large Language Models เชื่อมโยงข้อมูลจากหลาย platform
Key takeaway
- AI และ Large Language Models (LLMs) เช่น ChatGPT สามารถเชื่อมโยงบัญชี social media ที่ปกปิดชื่อจริงกับตัวตนจริงได้ โดยใช้ข้อมูลที่ผู้ใช้โพสต์เป็นหลัก ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่าและเข้าถึงได้ง่ายขึ้น
- เทคโนโลยีนี้เปิดโอกาสให้เกิดภัยคุกคามใหม่ เช่น การเฝ้าระวังของรัฐบาลต่อนักกิจกรรม การหลอกลวงแบบ spear-phishing ที่เฉพาะเจาะจง และการโจมตีที่ไม่ต้องการความเชี่ยวชาญสูง โดยแฮกเกอร์ต้องการเพียงการเข้าถึง language models สาธารณะและอินเทอร์เน็ตเท่านั้น
- แนวทางป้องกันรวมถึงการที่ platform ควรจำกัดการเข้าถึงข้อมูล ใช้ rate limits ตรวจจับ automated scraping และผู้ใช้ควรระมัดระวังข้อมูลที่แบ่งปันออนไลน์มากขึ้น เนื่องจากการปกปิดตัวตนแบบเดิมอาจไม่เพียงพอในยุค AI
การศึกษาใหม่เผยให้เห็นว่าเทคโนโลยี AI ที่ขับเคลื่อน platform ต่างๆ อย่าง ChatGPT ทำให้การโจมตีเพื่อบุกรุกความเป็นส่วนตัวแบบซับซ้อนเป็นเรื่องง่ายขึ้นอย่างมาก
AI กำลังทำให้แฮกเกอร์ที่มีเจตนาร้ายสามารถระบุตัวตนของเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น ตามการเตือนจากการศึกษาใหม่ล่าสุด
ในการทดสอบส่วนใหญ่ พบว่า Large Language Models (LLMs) ซึ่งเป็นเทคโนโลยีหลักที่ขับเคลื่อน platform ต่างๆ เช่น ChatGPT สามารถเชื่อมโยงผู้ใช้ออนไลน์ที่ปกปิดตัวตนกับบุคคลจริงใน platform อื่นๆ ได้สำเร็จ โดยอาศัยข้อมูลที่พวกเขาโพสต์เป็นหลัก
นักวิจัย AI ทั้งสองคน คือ Simon Lermen และ Daniel Paleka ระบุว่า LLMs ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่า ซึ่งบังคับให้ต้องมี "การประเมินใหม่ในระดับพื้นฐานว่าสิ่งใดบ้างที่สามารถถือว่าเป็นความเป็นส่วนตัวในโลกออนไลน์"
การทดลองเผยให้เห็นความเสี่ยงจริง
ในการทดลองของพวกเขา นักวิจัยป้อนข้อมูลบัญชีที่ปกปิดชื่อจริงเข้าไปใน AI และสั่งให้มันค้นหาข้อมูลทั้งหมดที่เป็นไปได้ พวกเขายกตัวอย่างสมมติของผู้ใช้ที่กล่าวถึงการดิ้นรนในโรงเรียน และการพาสุนัขชื่อ Biscuit เดินเล่นที่ "Dolores Park"
ในกรณีสมมตินี้ AI จึงค้นหารายละเอียดเหล่านั้นจากแหล่งอื่นๆ และเชื่อมโยง @anon_user42 กับตัวตนที่เป็นจริงได้ด้วยความมั่นใจในระดับสูง
แม้ว่าตัวอย่างนี้จะเป็นเพียงสถานการณ์สมมติ แต่ผู้เขียนงานวิจัยได้เน้นย้ำถึงสถานการณ์ที่รัฐบาลอาจใช้ AI เพื่อเฝ้าระวังผู้ต่อต้านและนักกิจกรรมที่โพสต์แบบไม่เปิดเผยชื่อ หรือแฮกเกอร์อาจเปิดตัวการหลอกลวงแบบ "highly personalised" ที่เฉพาะเจาะจงมากยิ่งขึ้น
ภัยคุกคามจาก AI Surveillance
การเฝ้าระวังด้วย AI เป็นสาขาที่พัฒนาอย่างรวดเร็วและกำลังสร้างความตื่นตระหนกในหมู่นักวิทยาศาสตร์คอมพิวเตอร์และผู้เชี่ยวชาญด้านความเป็นส่วนตัว เทคโนโลยีนี้ใช้ LLMs เพื่อสังเคราะห์ข้อมูลเกี่ยวกับบุคคลออนไลน์ในลักษณะที่คนส่วนใหญ่ไม่สามารถทำด้วยตนเองได้
ข้อมูลเกี่ยวกับประชาชนที่มีอยู่บนอินเทอร์เน็ตอย่างเปิดเผยสามารถ "ถูกใช้ในทางที่ผิดอย่างตรงไปตรงมา" สำหรับการหลอกลวง Lermen กล่าว รวมถึง spear-phishing ซึ่งแฮกเกอร์ปลอมตัวเป็นเพื่อนที่เชื่อถือได้เพื่อให้เหยื่อคลิกลิงก์อันตรายใน inbox ของพวกเขา
ด้วยความต้องการความเชี่ยวชาญในการทำการโจมตีที่พัฒนาแล้วลดลงอย่างมาก แฮกเกอร์ต้องการเพียงการเข้าถึง language models ที่เปิดให้สาธารณะและการเชื่อมต่ออินเทอร์เน็ตเท่านั้น
ผู้เชี่ยวชาญเตือนความเสี่ยง
Professor Peter Bentley จากสาขาวิทยาการคอมพิวเตอร์ที่ UCL แสดงความกังวลเกี่ยวกับการนำเทคโนโลยีนี้มาใช้เชิงพาณิชย์ "หากและเมื่อผลิตภัณฑ์สำหรับการเจาะตัวตนออกมาจำหน่าย"
ปัญหาหนึ่งคือ LLMs มักจะทำผิดพลาดในการเชื่อมโยงบัญชี "ผู้คนจะถูกกล่าวหาในสิ่งที่พวกเขาไม่ได้ทำ" Bentley เตือน
ความกังวลอีกประการหนึ่งที่ Professor Marc Juárez อาจารย์ด้าน cybersecurity ที่ University of Edinburgh ยกขึ้นคือ LLMs สามารถใช้ข้อมูลสาธารณะนอกเหนือจาก social media ได้ บันทึกโรงพยาบาล ข้อมูลการเข้าศึกษา และการเผยแพร่ข้อมูลทางสถิติอื่นๆ อาจไม่เป็นไปตามมาตรฐานสูงของการปกปิดตัวตนที่จำเป็นในยุค AI
"มันค่อนข้างน่าตกใจ ผมคิดว่างานวิจัยนี้แสดงให้เห็นว่าเราควรทบทวนแนวทางปฏิบัติของเราใหม่" Juarez กล่าว
ข้อจำกัดของเทคโนโลยี
AI ไม่ใช่อาวุธเด็ดขาดต่อต้านการปกปิดตัวตนออนไลน์ แม้ว่า LLMs สามารถเจาะตัวตนได้ในหลายสถานการณ์ แต่บางครั้งก็ไม่มีข้อมูลเพียงพอที่จะสรุปได้ ในหลายกรณี จำนวนการจับคู่ที่เป็นไปได้มีมากเกินไปที่จะจำกัดลงได้
"พวกเขาสามารถเชื่อมโยงข้าม platform ได้เฉพาะในกรณีที่มีคนแบ่งปันข้อมูลเดียวกันอย่างสม่ำเสมอในทั้งสองที่" Professor Marti Hearst จาก UC Berkeley's School of Information กล่าว
แนวทางป้องกันและข้อเสนอแนะ
แม้ว่าเทคโนโลยีจะไม่สมบูรณ์แบบ แต่นักวิทยาศาสตร์กำลังขอให้สถาบันและบุคคลคิดใหม่เกี่ยวกับวิธีการทำให้ข้อมูลไม่เปิดเผยตัวตนในโลกของ AI
Lermen แนะนำให้ platform จำกัดการเข้าถึงข้อมูลเป็นขั้นตอนแรก การบังคับใช้ rate limits บนการดาวน์โหลดข้อมูลผู้ใช้ การตรวจจับ automated scraping และการจำกัด bulk exports ของข้อมูล
นอกจากนี้เขายังสังเกตว่าผู้ใช้แต่ละคนสามารถใช้ความระมัดระวังมากขึ้นเกี่ยวกับข้อมูลที่พวกเขาแบ่งปันในโลกออนไลน์
การค้นพบนี้เป็นสัญญาณเตือนที่สำคัญสำหรับทุกคนที่ใช้ social media โดยคิดว่าการปกปิดตัวตนจะช่วยปกป้องความเป็นส่วนตัวของตนได้อย่างสมบูรณ์
Why it matters
💡 ข่าวนี้เป็นสัญญาณเตือนสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ใช้ social media ทุกคนควรติดตาม เนื่องจากเผยให้เห็นถึงความเสี่ยงใหม่ที่ AI สามารถเจาะตัวตนผู้ใช้ที่ปกปิดชื่อจริงได้ง่ายขึ้น การศึกษานี้แสดงให้เห็นว่าเทคโนโลยี LLMs ที่เราใช้ในชีวิตประจำวันกลับกลายเป็นเครื่องมือที่อันตรายต่อความเป็นส่วนตัวออนไลน์ ทำให้เราต้องทบทวนแนวทางการปกป้องข้อมูลส่วนตัวและเตรียมรับมือกับภัยคุกคามรูปแบบใหม่ที่กำลังจะมาถึงในอนาคตอันใกล้
ข้อมูลอ้างอิงจาก https://www.theguardian.com/technology/2026/mar/08/ai-hackers-social-media-accounts-study