AI ช่วยแฮกเกอร์เจาะตัวตนบัญชี Social Media ที่ปกปิดชื่อจริง

การศึกษาใหม่เผยให้เห็นว่า AI ทำให้แฮกเกอร์สามารถระบุตัวตนเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น โดยใช้ Large Language Models เชื่อมโยงข้อมูลจากหลาย platform

AI ช่วยแฮกเกอร์เจาะตัวตนบัญชี Social Media ที่ปกปิดชื่อจริง

Key takeaway

  • AI และ Large Language Models (LLMs) เช่น ChatGPT สามารถเชื่อมโยงบัญชี social media ที่ปกปิดชื่อจริงกับตัวตนจริงได้ โดยใช้ข้อมูลที่ผู้ใช้โพสต์เป็นหลัก ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่าและเข้าถึงได้ง่ายขึ้น
  • เทคโนโลยีนี้เปิดโอกาสให้เกิดภัยคุกคามใหม่ เช่น การเฝ้าระวังของรัฐบาลต่อนักกิจกรรม การหลอกลวงแบบ spear-phishing ที่เฉพาะเจาะจง และการโจมตีที่ไม่ต้องการความเชี่ยวชาญสูง โดยแฮกเกอร์ต้องการเพียงการเข้าถึง language models สาธารณะและอินเทอร์เน็ตเท่านั้น
  • แนวทางป้องกันรวมถึงการที่ platform ควรจำกัดการเข้าถึงข้อมูล ใช้ rate limits ตรวจจับ automated scraping และผู้ใช้ควรระมัดระวังข้อมูลที่แบ่งปันออนไลน์มากขึ้น เนื่องจากการปกปิดตัวตนแบบเดิมอาจไม่เพียงพอในยุค AI

การศึกษาใหม่เผยให้เห็นว่าเทคโนโลยี AI ที่ขับเคลื่อน platform ต่างๆ อย่าง ChatGPT ทำให้การโจมตีเพื่อบุกรุกความเป็นส่วนตัวแบบซับซ้อนเป็นเรื่องง่ายขึ้นอย่างมาก

AI กำลังทำให้แฮกเกอร์ที่มีเจตนาร้ายสามารถระบุตัวตนของเจ้าของบัญชี social media ที่ปกปิดชื่อจริงได้ง่ายขึ้น ตามการเตือนจากการศึกษาใหม่ล่าสุด

ในการทดสอบส่วนใหญ่ พบว่า Large Language Models (LLMs) ซึ่งเป็นเทคโนโลยีหลักที่ขับเคลื่อน platform ต่างๆ เช่น ChatGPT สามารถเชื่อมโยงผู้ใช้ออนไลน์ที่ปกปิดตัวตนกับบุคคลจริงใน platform อื่นๆ ได้สำเร็จ โดยอาศัยข้อมูลที่พวกเขาโพสต์เป็นหลัก

นักวิจัย AI ทั้งสองคน คือ Simon Lermen และ Daniel Paleka ระบุว่า LLMs ทำให้การโจมตีความเป็นส่วนตัวแบบซับซ้อนมีต้นทุนที่คุ้มค่า ซึ่งบังคับให้ต้องมี "การประเมินใหม่ในระดับพื้นฐานว่าสิ่งใดบ้างที่สามารถถือว่าเป็นความเป็นส่วนตัวในโลกออนไลน์"

การทดลองเผยให้เห็นความเสี่ยงจริง

ในการทดลองของพวกเขา นักวิจัยป้อนข้อมูลบัญชีที่ปกปิดชื่อจริงเข้าไปใน AI และสั่งให้มันค้นหาข้อมูลทั้งหมดที่เป็นไปได้ พวกเขายกตัวอย่างสมมติของผู้ใช้ที่กล่าวถึงการดิ้นรนในโรงเรียน และการพาสุนัขชื่อ Biscuit เดินเล่นที่ "Dolores Park"

ในกรณีสมมตินี้ AI จึงค้นหารายละเอียดเหล่านั้นจากแหล่งอื่นๆ และเชื่อมโยง @anon_user42 กับตัวตนที่เป็นจริงได้ด้วยความมั่นใจในระดับสูง

แม้ว่าตัวอย่างนี้จะเป็นเพียงสถานการณ์สมมติ แต่ผู้เขียนงานวิจัยได้เน้นย้ำถึงสถานการณ์ที่รัฐบาลอาจใช้ AI เพื่อเฝ้าระวังผู้ต่อต้านและนักกิจกรรมที่โพสต์แบบไม่เปิดเผยชื่อ หรือแฮกเกอร์อาจเปิดตัวการหลอกลวงแบบ "highly personalised" ที่เฉพาะเจาะจงมากยิ่งขึ้น

ภัยคุกคามจาก AI Surveillance

การเฝ้าระวังด้วย AI เป็นสาขาที่พัฒนาอย่างรวดเร็วและกำลังสร้างความตื่นตระหนกในหมู่นักวิทยาศาสตร์คอมพิวเตอร์และผู้เชี่ยวชาญด้านความเป็นส่วนตัว เทคโนโลยีนี้ใช้ LLMs เพื่อสังเคราะห์ข้อมูลเกี่ยวกับบุคคลออนไลน์ในลักษณะที่คนส่วนใหญ่ไม่สามารถทำด้วยตนเองได้

ข้อมูลเกี่ยวกับประชาชนที่มีอยู่บนอินเทอร์เน็ตอย่างเปิดเผยสามารถ "ถูกใช้ในทางที่ผิดอย่างตรงไปตรงมา" สำหรับการหลอกลวง Lermen กล่าว รวมถึง spear-phishing ซึ่งแฮกเกอร์ปลอมตัวเป็นเพื่อนที่เชื่อถือได้เพื่อให้เหยื่อคลิกลิงก์อันตรายใน inbox ของพวกเขา

ด้วยความต้องการความเชี่ยวชาญในการทำการโจมตีที่พัฒนาแล้วลดลงอย่างมาก แฮกเกอร์ต้องการเพียงการเข้าถึง language models ที่เปิดให้สาธารณะและการเชื่อมต่ออินเทอร์เน็ตเท่านั้น

ผู้เชี่ยวชาญเตือนความเสี่ยง

Professor Peter Bentley จากสาขาวิทยาการคอมพิวเตอร์ที่ UCL แสดงความกังวลเกี่ยวกับการนำเทคโนโลยีนี้มาใช้เชิงพาณิชย์ "หากและเมื่อผลิตภัณฑ์สำหรับการเจาะตัวตนออกมาจำหน่าย"

ปัญหาหนึ่งคือ LLMs มักจะทำผิดพลาดในการเชื่อมโยงบัญชี "ผู้คนจะถูกกล่าวหาในสิ่งที่พวกเขาไม่ได้ทำ" Bentley เตือน

ความกังวลอีกประการหนึ่งที่ Professor Marc Juárez อาจารย์ด้าน cybersecurity ที่ University of Edinburgh ยกขึ้นคือ LLMs สามารถใช้ข้อมูลสาธารณะนอกเหนือจาก social media ได้ บันทึกโรงพยาบาล ข้อมูลการเข้าศึกษา และการเผยแพร่ข้อมูลทางสถิติอื่นๆ อาจไม่เป็นไปตามมาตรฐานสูงของการปกปิดตัวตนที่จำเป็นในยุค AI

"มันค่อนข้างน่าตกใจ ผมคิดว่างานวิจัยนี้แสดงให้เห็นว่าเราควรทบทวนแนวทางปฏิบัติของเราใหม่" Juarez กล่าว

ข้อจำกัดของเทคโนโลยี

AI ไม่ใช่อาวุธเด็ดขาดต่อต้านการปกปิดตัวตนออนไลน์ แม้ว่า LLMs สามารถเจาะตัวตนได้ในหลายสถานการณ์ แต่บางครั้งก็ไม่มีข้อมูลเพียงพอที่จะสรุปได้ ในหลายกรณี จำนวนการจับคู่ที่เป็นไปได้มีมากเกินไปที่จะจำกัดลงได้

"พวกเขาสามารถเชื่อมโยงข้าม platform ได้เฉพาะในกรณีที่มีคนแบ่งปันข้อมูลเดียวกันอย่างสม่ำเสมอในทั้งสองที่" Professor Marti Hearst จาก UC Berkeley's School of Information กล่าว

แนวทางป้องกันและข้อเสนอแนะ

แม้ว่าเทคโนโลยีจะไม่สมบูรณ์แบบ แต่นักวิทยาศาสตร์กำลังขอให้สถาบันและบุคคลคิดใหม่เกี่ยวกับวิธีการทำให้ข้อมูลไม่เปิดเผยตัวตนในโลกของ AI

Lermen แนะนำให้ platform จำกัดการเข้าถึงข้อมูลเป็นขั้นตอนแรก การบังคับใช้ rate limits บนการดาวน์โหลดข้อมูลผู้ใช้ การตรวจจับ automated scraping และการจำกัด bulk exports ของข้อมูล

นอกจากนี้เขายังสังเกตว่าผู้ใช้แต่ละคนสามารถใช้ความระมัดระวังมากขึ้นเกี่ยวกับข้อมูลที่พวกเขาแบ่งปันในโลกออนไลน์

การค้นพบนี้เป็นสัญญาณเตือนที่สำคัญสำหรับทุกคนที่ใช้ social media โดยคิดว่าการปกปิดตัวตนจะช่วยปกป้องความเป็นส่วนตัวของตนได้อย่างสมบูรณ์

Why it matters

💡 ข่าวนี้เป็นสัญญาณเตือนสำคัญที่ผู้เชี่ยวชาญด้านเทคโนโลยีและผู้ใช้ social media ทุกคนควรติดตาม เนื่องจากเผยให้เห็นถึงความเสี่ยงใหม่ที่ AI สามารถเจาะตัวตนผู้ใช้ที่ปกปิดชื่อจริงได้ง่ายขึ้น การศึกษานี้แสดงให้เห็นว่าเทคโนโลยี LLMs ที่เราใช้ในชีวิตประจำวันกลับกลายเป็นเครื่องมือที่อันตรายต่อความเป็นส่วนตัวออนไลน์ ทำให้เราต้องทบทวนแนวทางการปกป้องข้อมูลส่วนตัวและเตรียมรับมือกับภัยคุกคามรูปแบบใหม่ที่กำลังจะมาถึงในอนาคตอันใกล้

ข้อมูลอ้างอิงจาก https://www.theguardian.com/technology/2026/mar/08/ai-hackers-social-media-accounts-study

Read more

AWS ประกาศเปิดตัวแพลตฟอร์ม AI Agent เฉพาะด้านสุขภาพ เพื่อลดงานเอกสารและการบริหารจัดการ

news

AWS ประกาศเปิดตัวแพลตฟอร์ม AI Agent เฉพาะด้านสุขภาพ เพื่อลดงานเอกสารและการบริหารจัดการ

AWS เปิดตัว Amazon Connect Health แพลตฟอร์ม AI Agent สำหรับภาคสุขภาพ ช่วยจัดการงานอัตโนมัติด้านการบริหาร การนัดหมาย และเอกสาร รองรับ HIPAA เชื่อมต่อ EHR ราคา 99 ดอลลาร์/เดือน

By
Nvidia หยุดผลิต AI Chips สำหรับตลาดจีนอย่างเป็นทางการ

news

Nvidia หยุดผลิต AI Chips สำหรับตลาดจีนอย่างเป็นทางการ

Nvidia หยุดผลิต AI chips สำหรับตลาดจีนอย่างเป็นทางการ หลังความไม่แน่นอนจากนโยบายควบคุมการส่งออกของสหรัฐฯ และแนวทางส่งเสริมความพึ่งพาตนเองของจีน

By
ความโกรธแค้นต่อ OpenAI เพิ่มขึ้นอย่างมหาศาลจนเกิดการประท้วงครั้งใหญ่

news

ความโกรธแค้นต่อ OpenAI เพิ่มขึ้นอย่างมหาศาลจนเกิดการประท้วงครั้งใหญ่

OpenAI เผชิญการประท้วงครั้งใหญ่หลัง CEO Sam Altman ประกาศข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ ผู้ใช้ ChatGPT หันไปใช้ Claude แทน การถอนแอปเพิ่มขึ้น 300% พนักงานเกือบ 1,000 คนลงนามจดหมายคัดค้าน

By
ศาสตราจารย์ Harvard เตือน: ผู้ใช้ AI กำลังสูญเสียความสามารถทางปัญญา

news

ศาสตราจารย์ Harvard เตือน: ผู้ใช้ AI กำลังสูญเสียความสามารถทางปัญญา

ศ.Avi Loeb จาก Harvard เตือนผู้ใช้ AI กำลังสูญเสียความสามารถทางปัญญา เปรียบเหมือนสูญเสียกล้ามเนื้อจากการไม่ออกกำลังกาย การศึกษาชี้ AI ส่งผลต่อการคิดวิเคราะห์เสื่อมถอย

By