OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

OpenAI พบการบุกรุกระบบ Forum ภายในที่ใช้สำหรับการสื่อสารที่เป็นความลับ

OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

Key takeaway

  • OpenAI ถูกแฮกข้อมูลในปี 2023 โดยแฮกเกอร์สามารถเข้าถึงฟอรัมภายในของบริษัทได้ แต่ไม่ได้เข้าถึงระบบที่ใช้ในการสร้าง AI โดยตรง
  • พนักงานบางส่วนกังวลว่าเหตุการณ์นี้บ่งชี้ถึงช่องโหว่ด้านความปลอดภัยที่อาจถูกศัตรูต่างชาติแสวงหาประโยชน์ได้ ซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ
  • ผู้เชี่ยวชาญเชื่อว่าเหตุการณ์นี้เป็นเพียงหนึ่งในหลายๆ เหตุการณ์ เนื่องจากแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐกำลังเล็งเป้าไปที่ผู้พัฒนา AI เพื่อขโมยทรัพย์สินทางปัญญาที่มีค่า
  • การลดความเสี่ยงทั้งหมดจากการละเมิดความปลอดภัยในการพัฒนา AI นั้นทำได้ยาก และผู้เชี่ยวชาญบางคนเชื่อว่า AI อาจกลายเป็นภัยคุกคามร้ายแรงได้ในอนาคต

แหล่งข่าวที่ไม่ประสงค์ออกนามได้แจ้งกับ The New York Times ว่า Forum ออนไลน์ที่พนักงาน OpenAI ใช้สำหรับการสื่อสารภายในที่เป็นความลับถูกแฮกเมื่อปีที่แล้ว แฮกเกอร์ได้ข้อมูลเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทจากโพสต์ใน Forum แต่พวกเขาไม่ได้บุกรุกระบบที่ OpenAI เก็บและสร้าง AI จริงๆ

ผู้บริหาร OpenAI ได้ประกาศเหตุการณ์นี้ให้ทั้งบริษัททราบในการประชุม All-hands เมื่อเดือนเมษายน 2023 และแจ้งให้คณะกรรมการบริษัททราบด้วย อย่างไรก็ตาม เหตุการณ์นี้ไม่ได้เปิดเผยต่อสาธารณะเนื่องจากไม่มีข้อมูลของลูกค้าหรือพาร์ทเนอร์ถูกขโมยไป

ตามแหล่งข่าว ผู้บริหารไม่ได้แจ้งเจ้าหน้าที่บังคับใช้กฎหมาย เพราะพวกเขาไม่เชื่อว่าแฮกเกอร์มีความเชื่อมโยงกับรัฐบาลต่างประเทศ ดังนั้นเหตุการณ์นี้จึงไม่ได้เป็นภัยคุกคามต่อความมั่นคงของชาติ

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "อย่างที่เราแชร์กับคณะกรรมการและพนักงานของเราเมื่อปีที่แล้ว เราระบุและแก้ไขปัญหาที่เป็นต้นเหตุแล้ว และยังคงลงทุนในด้านความปลอดภัยต่อไป"

พนักงาน OpenAI ตอบสนองต่อการแฮกครั้งนี้อย่างไร?

ข่าวข้อมูล Forum รั่วไหลเป็นสาเหตุให้พนักงาน OpenAI คนอื่นๆ กังวล ตามรายงานของ NYT พวกเขาคิดว่ามันบ่งชี้ถึงช่องโหว่ในบริษัทที่อาจถูกแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐแสวงหาประโยชน์ในอนาคต หากเทคโนโลยีล้ำสมัยของ OpenAI ตกอยู่ในมือที่ไม่ถูกต้อง มันอาจถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ

นอกจากนี้ การจัดการเหตุการณ์ของผู้บริหารทำให้พนักงานบางส่วนตั้งคำถามว่า OpenAI ทำเพียงพอหรือไม่ในการปกป้องเทคโนโลยีกรรมสิทธิ์ของตนจากศัตรูต่างชาติ Leopold Aschenbrenner อดีตผู้จัดการด้านเทคนิคของบริษัท กล่าวว่าเขาถูกไล่ออกหลังจากหยิบยกข้อกังวลเหล่านี้กับคณะกรรมการบริษัทในพอดแคสต์กับ Dwarkesh Patel

OpenAI ปฏิเสธเรื่องนี้ในแถลงการณ์ต่อ The New York Times และไม่เห็นด้วยกับ "การพรรณนาลักษณะด้านความปลอดภัยของเรา" โดย Aschenbrenner ด้วย

ข่าวความปลอดภัยเพิ่มเติมของ OpenAI รวมถึงเกี่ยวกับแอป ChatGPT ใน macOS

หน้าจอแล็ปท็อปแสดงโลโก้ ChatGPT บนพื้นหลังหลากสี มีแอปพลิเคชันและไอคอนต่างๆ บนเดสก์ท็อป ขอบหน้าจอด้านบนมีแถบเมนูของระบบปฏิบัติการ

การบุกรุก Forum ไม่ใช่ข้อบ่งชี้เมื่อเร็วๆ นี้เพียงอย่างเดียวว่าความปลอดภัยไม่ใช่ลำดับความสำคัญสูงสุดที่ OpenAI เมื่อสัปดาห์ที่แล้ว Pedro José Pereira Vieito วิศวกรข้อมูลเปิดเผยว่าแอป ChatGPT macOS ใหม่เก็บข้อมูลแชทเป็น Plain Text ซึ่งหมายความว่าผู้ร้ายสามารถเข้าถึงข้อมูลนั้นได้ง่ายหากพวกเขาได้ครอบครอง Mac หลังจากทราบเรื่องช่องโหว่นี้จาก The Verge OpenAI ได้ปล่อยอัปเดตที่เข้ารหัสแชท

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "เราทราบถึงปัญหานี้และได้ส่งแอปพลิเคชันเวอร์ชันใหม่ซึ่งเข้ารหัสการสนทนาเหล่านี้แล้ว เรามุ่งมั่นที่จะมอบประสบการณ์ผู้ใช้ที่เป็นประโยชน์ในขณะที่รักษามาตรฐานความปลอดภัยสูงของเราในขณะที่เทคโนโลยีของเราพัฒนาขึ้น"

ในเดือนพฤษภาคม 2024 OpenAI ได้ออกแถลงการณ์ว่าได้ขัดขวางปฏิบัติการอิทธิพลลับ 5 ครั้งที่มาจากรัสเซีย จีน อิหร่าน และอิสราเอล ซึ่งพยายามใช้โมเดลของบริษัทสำหรับ "กิจกรรมหลอกลวง" กิจกรรมที่ตรวจพบและบล็อกรวมถึงการสร้างความคิดเห็นและบทความ สร้างชื่อและประวัติสำหรับบัญชีโซเชียลมีเดีย และแปลข้อความ

ในเดือนเดียวกันนั้น บริษัทประกาศว่าได้จัดตั้งคณะกรรมการความปลอดภัยและการรักษาความปลอดภัยเพื่อพัฒนากระบวนการและการป้องกันที่จะใช้ในขณะที่พัฒนาโมเดลชั้นนำ

การแฮก OpenAI Forums บ่งชี้ถึงเหตุการณ์ด้านความปลอดภัยที่เกี่ยวข้องกับ AI มากขึ้นหรือไม่?

ดร. Ilia Kolochenko หุ้นส่วนและหัวหน้าฝ่ายปฏิบัติการความปลอดภัยทางไซเบอร์ที่ Platt Law LLP กล่าวว่าเขาเชื่อว่าเหตุการณ์ความปลอดภัย OpenAI Forums นี้น่าจะเป็นหนึ่งในหลายๆ เหตุการณ์ เขาบอกกับ TechRepublic ทางอีเมลว่า: "การแข่งขัน AI ระดับโลกกลายเป็นเรื่องของความมั่นคงของชาติสำหรับหลายประเทศ ดังนั้นกลุ่มอาชญากรไซเบอร์ที่ได้รับการสนับสนุนจากรัฐและนักรบรับจ้างจึงกำลังเล็งไปที่ผู้ขาย AI อย่างรุนแรง ตั้งแต่สตาร์ทอัพที่มีความสามารถไปจนถึงยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google หรือ OpenAI"

แฮกเกอร์เล็งไปที่ทรัพย์สินทางปัญญา AI ที่มีค่า เช่น Large Language Models, แหล่งข้อมูลการฝึกอบรม, งานวิจัยด้านเทคนิค และข้อมูลเชิงพาณิชย์ ดร. Kolochenko กล่าวเสริม พวกเขาอาจใส่ Backdoor เพื่อให้สามารถควบคุมหรือขัดขวางการดำเนินงานได้ คล้ายกับการโจมตีโครงสร้างพื้นฐานสำคัญของประเทศในประเทศตะวันตกเมื่อเร็วๆ นี้

เขาบอกกับ TechRepublic ว่า: "ผู้ใช้ในองค์กรทั้งหมดของผู้ขาย GenAI ควรระมัดระวังและรอบคอบเป็นพิเศษเมื่อพวกเขาแชร์หรือให้สิทธิ์เข้าถึงข้อมูลกรรมสิทธิ์ของตนสำหรับการฝึกอบรมหรือการปรับแต่ง LLM เนื่องจากข้อมูลของพวกเขา ตั้งแต่ข้อมูลที่ได้รับสิทธิพิเศษระหว่างทนายความและลูกความและความลับทางการค้าของบริษัทชั้นนำด้านอุตสาหกรรมหรือยา ไปจนถึงข้อมูลทางทหารที่เป็นความลับ ก็อยู่ในเป้าหมายของอาชญากรไซเบอร์ที่กระหายความรู้ด้าน AI ซึ่งพร้อมที่จะเพิ่มความรุนแรงในการโจมตีของพวกเขา

สามารถลดความเสี่ยงการละเมิดความปลอดภัยในการพัฒนา AI ได้หรือไม่?

การบรรเทาความเสี่ยงทั้งหมดของการละเมิดความปลอดภัยจากศัตรูต่างชาติเมื่อพัฒนาเทคโนโลยี AI ใหม่ คงจะไม่ใช่เรื่องที่ทำได้ง่าย ๆ

OpenAI ไม่สามารถเลือกปฏิบัติต่อพนักงานตามสัญชาติได้ และในทำนองเดียวกัน ก็ไม่ต้องการจำกัด talent pool ของตนเองโดยการจ้างงานเฉพาะในบางภูมิภาคเท่านั้น

นอกจากนี้ ยังเป็นเรื่องยากที่จะป้องกันไม่ให้ระบบ AI ถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายก่อนที่วัตถุประสงค์เหล่านั้นจะปรากฏขึ้น การศึกษาจาก Anthropic พบว่า LLMs มีประโยชน์เพียงเล็กน้อยสำหรับ bad actors ในการได้มาหรือออกแบบอาวุธชีวภาพมากกว่าการเข้าถึงอินเทอร์เน็ตมาตรฐาน อีกการศึกษาหนึ่งจาก OpenAI ก็ได้ข้อสรุปที่คล้ายกัน

ในทางกลับกัน ผู้เชี่ยวชาญบางคนเห็นด้วยว่า แม้ AI จะไม่ก่อให้เกิดภัยคุกคามในปัจจุบัน แต่อัลกอริทึม AI อาจกลายเป็นอันตรายได้เมื่อมีการพัฒนาให้ก้าวหน้ายิ่งขึ้น ในเดือนพฤศจิกายน 2023 ตัวแทนจาก 28 ประเทศได้ลงนามใน Bletchley Declaration ซึ่งเรียกร้องให้มีความร่วมมือระดับโลกเพื่อแก้ไขความท้าทายที่ AI ก่อให้เกิด "มีโอกาสที่จะเกิดอันตรายร้ายแรง ซึ่งอาจรุนแรงถึงระดับหายนะได้ ไม่ว่าจะโดยเจตนาหรือไม่ตั้งใจ อันเนื่องมาจากความสามารถที่สำคัญที่สุดของ AI models เหล่านี้" เนื้อหาระบุไว้

Why it matters

💡
ข่าวนี้เป็นเรื่องที่น่าสนใจสำหรับผู้ที่ติดตามวงการเทคโนโลยี โดยเฉพาะอย่างยิ่งผู้ที่สนใจในด้าน AI และความปลอดภัยทางไซเบอร์ เหตุการณ์การแฮก OpenAI Forums ชี้ให้เห็นถึงความเสี่ยงด้านความปลอดภัยที่บริษัทพัฒนา AI ต้องเผชิญ ซึ่งอาจส่งผลกระทบต่อความมั่นคงของชาติได้ ข่าวนี้ยังให้ข้อมูลเชิงลึกเกี่ยวกับความท้าทายในการปกป้องเทคโนโลยี AI จากการนำไปใช้ในทางที่ผิด ซึ่งเป็นประเด็นสำคัญที่ผู้เชี่ยวชาญและผู้กำหนดนโยบายทั่วโลกกำลังพยายามแก้ไข

ข้อมูลจาก https://www.techrepublic.com/article/openai-hacked-internal-communications/

Read more

ภาพแสดงถึงการวิจัยที่ชี้ให้เห็นว่า AI สามารถสร้างข้อมูลเท็จได้ มีภาพหน้ากากหุ่นยนต์ที่มีคำว่า "AI"

News

AI สร้างข้อมูลเท็จ ผลวิจัยชี้ชัด

ผลวิจัยล่าสุดชี้ว่า AI ยังคงสร้างข้อมูลเท็จ โดยเฉพาะชื่อ software packages ที่ไม่มีอยู่จริง ซึ่งอาจนำไปสู่ความเสี่ยงด้านความปลอดภัย นักวิจัยเตือนให้ระมัดระวังในการใช้งาน AI สำหรับงานสำคัญ

By
LinkedIn ใช้ข้อมูลผู้ใช้งานเพื่อฝึก AI สำหรับการสร้างเนื้อหาโดยไม่ได้ขออนุญาตผู้ใช้ล่วงหน้า

News

LinkedIn ใช้ข้อมูลผู้ใช้ฝึก AI โดยไม่ขออนุญาต

LinkedIn ตกเป็นข่าวใหญ่หลังถูกจับได้ว่านำข้อมูลผู้ใช้ไปฝึก AI โดยไม่ขออนุญาต ผู้ใช้สามารถปิดการใช้งานได้ในภายหลัง แต่ข้อมูลที่ถูกนำไปใช้แล้วจะไม่ถูกลบ สะท้อนการแข่งขันด้าน AI ที่ดุเดือดของบริษัทเทคโนโลยี

By
Meta เปิดตัว Llama 3.2 รุ่นใหม่แบบ Open Source เน้นการพัฒนาและปรับปรุงประสิทธิภาพ

News

Meta เปิดตัว Llama 3.2 แบบ Open Source

Meta เปิดตัว Llama 3.2 AI รุ่นใหม่ที่ทำงานบนมือถือได้ มีทั้งหมด 4 รุ่น สามารถวิเคราะห์ภาพและข้อความ เปิดโอกาสให้ผู้ใช้มี AI ส่วนตัวบนอุปกรณ์ โดยไม่ต้องส่งข้อมูลไปยังเซิร์ฟเวอร์

By
ซีอีโอของ OpenAI กล่าวถึงความเป็นไปได้ในการปรับโครงสร้างองค์กร

News

OpenAI อาจปรับโครงสร้าง เพื่อดึงดูดนักลงทุนใหม่

OpenAI กำลังพิจารณาปรับโครงสร้างองค์กรเพื่อดึงดูดนักลงทุนรายใหม่ โดยเฉพาะ MGX จากอาบูดาบี ที่สนใจลงทุนหลายพันล้านดอลลาร์ การเปลี่ยนแปลงนี้อาจส่งผลให้ Microsoft ได้รับส่วนแบ่งความเป็นเจ้าของด้วย

By