AI ช่วยแฮกเกอร์เจาะตัวตนบัญชี Social Media ที่ปกปิดชื่อจริง

การศึกษาใหม่เผยให้เห็นว่า AI ทำให้แฮกเกอร์สามารถระบุตัวตนเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น โดยใช้ Large Language Models เชื่อมโยงข้อมูลจากหลาย platform

AI ช่วยแฮกเกอร์เจาะตัวตนบัญชี Social Media ที่ปกปิดชื่อจริง

Key takeaway

  • AI และ Large Language Models (LLMs) เช่น ChatGPT สามารถเชื่อมโยงบัญชี social media ที่ปกปิดชื่อจริงกับตัวตนจริงได้ โดยใช้ข้อมูลที่ผู้ใช้โพสต์เป็นหลัก ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่าและเข้าถึงได้ง่ายขึ้น
  • เทคโนโลยีนี้เปิดโอกาสให้เกิดภัยคุกคามใหม่ เช่น การเฝ้าระวังของรัฐบาลต่อนักกิจกรรม การหลอกลวงแบบ spear-phishing ที่เฉพาะเจาะจง และการโจมตีที่ไม่ต้องการความเชี่ยวชาญสูง โดยแฮกเกอร์ต้องการเพียงการเข้าถึง language models สาธารณะและอินเทอร์เน็ตเท่านั้น
  • แนวทางป้องกันรวมถึงการที่ platform ควรจำกัดการเข้าถึงข้อมูล ใช้ rate limits ตรวจจับ automated scraping และผู้ใช้ควรระมัดระวังข้อมูลที่แบ่งปันออนไลน์มากขึ้น เนื่องจากการปกปิดตัวตนแบบเดิมอาจไม่เพียงพอในยุค AI

การศึกษาใหม่เผยให้เห็นว่าเทคโนโลยี AI ที่ขับเคลื่อน platform ต่างๆ อย่าง ChatGPT ทำให้การโจมตีเพื่อบุกรุกความเป็นส่วนตัวแบบซับซ้อนเป็นเรื่องง่ายขึ้นอย่างมาก

AI กำลังทำให้แฮกเกอร์ที่มีเจตนาร้ายสามารถระบุตัวตนของเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น ตามการเตือนจากการศึกษาใหม่ล่าสุด

ในการทดสอบส่วนใหญ่ พบว่า Large Language Models (LLMs) ซึ่งเป็นเทคโนโลยีหลักที่ขับเคลื่อน platform ต่างๆ เช่น ChatGPT สามารถเชื่อมโยงผู้ใช้ออนไลน์ที่ปกปิดตัวตนกับบุคคลจริงใน platform อื่นๆ ได้สำเร็จ โดยอาศัยข้อมูลที่พวกเขาโพสต์เป็นหลัก

นักวิจัย AI ทั้งสองคน คือ Simon Lermen และ Daniel Paleka ระบุว่า LLMs ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่า ซึ่งบังคับให้ต้องมี "การประเมินใหม่ในระดับพื้นฐานว่าสิ่งใดบ้างที่สามารถถือว่าเป็นความเป็นส่วนตัวในโลกออนไลน์"

การทดลองเผยให้เห็นความเสี่ยงจริง

ในการทดลองของพวกเขา นักวิจัยป้อนข้อมูลบัญชีที่ปกปิดชื่อจริงเข้าไปใน AI และสั่งให้มันค้นหาข้อมูลทั้งหมดที่เป็นไปได้ พวกเขายกตัวอย่างสมมติของผู้ใช้ที่กล่าวถึงการดิ้นรนในโรงเรียน และการพาสุนัขชื่อ Biscuit เดินเล่นที่ "Dolores Park"

ในกรณีสมมตินี้ AI จึงค้นหารายละเอียดเหล่านั้นจากแหล่งอื่นๆ และเชื่อมโยง @anon_user42 กับตัวตนที่เป็นจริงได้ด้วยความมั่นใจในระดับสูง

แม้ว่าตัวอย่างนี้จะเป็นเพียงสถานการณ์สมมติ แต่ผู้เขียนงานวิจัยได้เน้นย้ำถึงสถานการณ์ที่รัฐบาลอาจใช้ AI เพื่อเฝ้าระวังผู้ต่อต้านและนักกิจกรรมที่โพสต์แบบไม่เปิดเผยชื่อ หรือแฮกเกอร์อาจเปิดตัวการหลอกลวงแบบ "highly personalised" ที่เฉพาะเจาะจงมากยิ่งขึ้น

ภัยคุกคามจาก AI Surveillance

การเฝ้าระวังด้วย AI เป็นสาขาที่พัฒนาอย่างรวดเร็วและกำลังสร้างความตื่นตระหนกในหมู่นักวิทยาศาสตร์คอมพิวเตอร์และผู้เชี่ยวชาญด้านความเป็นส่วนตัว เทคโนโลยีนี้ใช้ LLMs เพื่อสังเคราะห์ข้อมูลเกี่ยวกับบุคคลออนไลน์ในลักษณะที่คนส่วนใหญ่ไม่สามารถทำด้วยตนเองได้

ข้อมูลเกี่ยวกับประชาชนที่มีอยู่บนอินเทอร์เน็ตอย่างเปิดเผยสามารถ "ถูกใช้ในทางที่ผิดอย่างตรงไปตรงมา" สำหรับการหลอกลวง Lermen กล่าว รวมถึง spear-phishing ซึ่งแฮกเกอร์ปลอมตัวเป็นเพื่อนที่เชื่อถือได้เพื่อให้เหยื่อคลิกลิงก์อันตรายใน inbox ของพวกเขา

ด้วยความต้องการความเชี่ยวชาญในการทำการโจมตีที่พัฒนาแล้วลดลงอย่างมาก แฮกเกอร์ต้องการเพียงการเข้าถึง language models ที่เปิดให้สาธารณะและการเชื่อมต่ออินเทอร์เน็ตเท่านั้น

ผู้เชี่ยวชาญเตือนความเสี่ยง

Professor Peter Bentley จากสาขาวิทยาการคอมพิวเตอร์ที่ UCL แสดงความกังวลเกี่ยวกับการนำเทคโนโลยีนี้มาใช้เชิงพาณิชย์ "หากและเมื่อผลิตภัณฑ์สำหรับการเจาะตัวตนออกมาจำหน่าย"

ปัญหาหนึ่งคือ LLMs มักจะทำผิดพลาดในการเชื่อมโยงบัญชี "ผู้คนจะถูกกล่าวหาในสิ่งที่พวกเขาไม่ได้ทำ" Bentley เตือน

ความกังวลอีกประการหนึ่งที่ Professor Marc Juárez อาจารย์ด้าน cybersecurity ที่ University of Edinburgh ยกขึ้นคือ LLMs สามารถใช้ข้อมูลสาธารณะนอกเหนือจาก social media ได้ บันทึกโรงพยาบาล ข้อมูลการเข้าศึกษา และการเผยแพร่ข้อมูลทางสถิติอื่นๆ อาจไม่เป็นไปตามมาตรฐานสูงของการปกปิดตัวตนที่จำเป็นในยุค AI

"มันค่อนข้างน่าตกใจ ผมคิดว่างานวิจัยนี้แสดงให้เห็นว่าเราควรทบทวนแนวทางปฏิบัติของเราใหม่" Juarez กล่าว

ข้อจำกัดของเทคโนโลยี

AI ไม่ใช่อาวุธเด็ดขาดต่อต้านการปกปิดตัวตนออนไลน์ แม้ว่า LLMs สามารถเจาะตัวตนได้ในหลายสถานการณ์ แต่บางครั้งก็ไม่มีข้อมูลเพียงพอที่จะสรุปได้ ในหลายกรณี จำนวนการจับคู่ที่เป็นไปได้มีมากเกินไปที่จะจำกัดลงได้

"พวกเขาสามารถเชื่อมโยงข้าม platform ได้เฉพาะในกรณีที่มีคนแบ่งปันข้อมูลเดียวกันอย่างสม่ำเสมอในทั้งสองที่" Professor Marti Hearst จาก UC Berkeley's School of Information กล่าว

แนวทางป้องกันและข้อเสนอแนะ

แม้ว่าเทคโนโลยีจะไม่สมบูรณ์แบบ แต่นักวิทยาศาสตร์กำลังขอให้สถาบันและบุคคลคิดใหม่เกี่ยวกับวิธีการทำให้ข้อมูลไม่เปิดเผยตัวตนในโลกของ AI

Lermen แนะนำให้ platform จำกัดการเข้าถึงข้อมูลเป็นขั้นตอนแรก การบังคับใช้ rate limits บนการดาวน์โหลดข้อมูลผู้ใช้ การตรวจจับ automated scraping และการจำกัด bulk exports ของข้อมูล

นอกจากนี้เขายังสังเกตว่าผู้ใช้แต่ละคนสามารถใช้ความระมัดระวังมากขึ้นเกี่ยวกับข้อมูลที่พวกเขาแบ่งปันในโลกออนไลน์

การค้นพบนี้เป็นสัญญาณเตือนที่สำคัญสำหรับทุกคนที่ใช้ social media โดยคิดว่าการปกปิดตัวตนจะช่วยปกป้องความเป็นส่วนตัวของตนได้อย่างสมบูรณ์

Why it matters

💡 ข่าวนี้เป็นสัญญาณเตือนสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ใช้ social media ทุกคนควรติดตาม เนื่องจากเผยให้เห็นถึงความเสี่ยงใหม่ที่ AI สามารถเจาะตัวตนผู้ใช้ที่ปกปิดชื่อจริงได้ง่ายขึ้น การศึกษานี้แสดงให้เห็นว่าเทคโนโลยี LLMs ที่เราใช้ในชีวิตประจำวันกลับกลายเป็นเครื่องมือที่อันตรายต่อความเป็นส่วนตัวออนไลน์ ทำให้เราต้องทบทวนแนวทางการปกป้องข้อมูลส่วนตัวและเตรียมรับมือกับภัยคุกคามรูปแบบใหม่ที่กำลังจะมาถึงในอนาคตอันใกล้

ข้อมูลอ้างอิงจาก https://www.theguardian.com/technology/2026/mar/08/ai-hackers-social-media-accounts-study

Read more

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

news

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

Sony Interactive Entertainment เข้าซื้อ Cinemersive Labs สตาร์ทอัพ AI สัญชาติอังกฤษ ผู้พัฒนาเทคโนโลยีแปลง 2D เป็น 3D Volume โดยทีมงานจะเข้าร่วม Visual Computing Group เพื่อพัฒนากราฟิกและ Machine Learning บน PlayStation ในอนาคต

By
IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

news

IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

IBM จับมือ Arm พัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ AI และ Data-Intensive Workloads ระดับองค์กร พร้อมเปิดทางให้ CIOs ใช้ IBM Z Mainframe เป็นทางเลือกแทน VMware ได้อย่างราบรื่น

By
AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

news

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

งานวิจัยเผย AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนก่อเหตุรุนแรง โดย Perplexity ช่วยเหลือสูงสุด 100% ขณะที่ Claude ปฏิเสธคำขออันตรายได้ดีที่สุด แต่ยังไม่มี Chatbot ใดปลอดภัยสมบูรณ์

By