OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

OpenAI พบการบุกรุกระบบ Forum ภายในที่ใช้สำหรับการสื่อสารที่เป็นความลับ

OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

Key takeaway

  • OpenAI ถูกแฮกข้อมูลในปี 2023 โดยแฮกเกอร์สามารถเข้าถึงฟอรัมภายในของบริษัทได้ แต่ไม่ได้เข้าถึงระบบที่ใช้ในการสร้าง AI โดยตรง
  • พนักงานบางส่วนกังวลว่าเหตุการณ์นี้บ่งชี้ถึงช่องโหว่ด้านความปลอดภัยที่อาจถูกศัตรูต่างชาติแสวงหาประโยชน์ได้ ซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ
  • ผู้เชี่ยวชาญเชื่อว่าเหตุการณ์นี้เป็นเพียงหนึ่งในหลายๆ เหตุการณ์ เนื่องจากแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐกำลังเล็งเป้าไปที่ผู้พัฒนา AI เพื่อขโมยทรัพย์สินทางปัญญาที่มีค่า
  • การลดความเสี่ยงทั้งหมดจากการละเมิดความปลอดภัยในการพัฒนา AI นั้นทำได้ยาก และผู้เชี่ยวชาญบางคนเชื่อว่า AI อาจกลายเป็นภัยคุกคามร้ายแรงได้ในอนาคต

แหล่งข่าวที่ไม่ประสงค์ออกนามได้แจ้งกับ The New York Times ว่า Forum ออนไลน์ที่พนักงาน OpenAI ใช้สำหรับการสื่อสารภายในที่เป็นความลับถูกแฮกเมื่อปีที่แล้ว แฮกเกอร์ได้ข้อมูลเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทจากโพสต์ใน Forum แต่พวกเขาไม่ได้บุกรุกระบบที่ OpenAI เก็บและสร้าง AI จริงๆ

ผู้บริหาร OpenAI ได้ประกาศเหตุการณ์นี้ให้ทั้งบริษัททราบในการประชุม All-hands เมื่อเดือนเมษายน 2023 และแจ้งให้คณะกรรมการบริษัททราบด้วย อย่างไรก็ตาม เหตุการณ์นี้ไม่ได้เปิดเผยต่อสาธารณะเนื่องจากไม่มีข้อมูลของลูกค้าหรือพาร์ทเนอร์ถูกขโมยไป

ตามแหล่งข่าว ผู้บริหารไม่ได้แจ้งเจ้าหน้าที่บังคับใช้กฎหมาย เพราะพวกเขาไม่เชื่อว่าแฮกเกอร์มีความเชื่อมโยงกับรัฐบาลต่างประเทศ ดังนั้นเหตุการณ์นี้จึงไม่ได้เป็นภัยคุกคามต่อความมั่นคงของชาติ

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "อย่างที่เราแชร์กับคณะกรรมการและพนักงานของเราเมื่อปีที่แล้ว เราระบุและแก้ไขปัญหาที่เป็นต้นเหตุแล้ว และยังคงลงทุนในด้านความปลอดภัยต่อไป"

พนักงาน OpenAI ตอบสนองต่อการแฮกครั้งนี้อย่างไร?

ข่าวข้อมูล Forum รั่วไหลเป็นสาเหตุให้พนักงาน OpenAI คนอื่นๆ กังวล ตามรายงานของ NYT พวกเขาคิดว่ามันบ่งชี้ถึงช่องโหว่ในบริษัทที่อาจถูกแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐแสวงหาประโยชน์ในอนาคต หากเทคโนโลยีล้ำสมัยของ OpenAI ตกอยู่ในมือที่ไม่ถูกต้อง มันอาจถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ

นอกจากนี้ การจัดการเหตุการณ์ของผู้บริหารทำให้พนักงานบางส่วนตั้งคำถามว่า OpenAI ทำเพียงพอหรือไม่ในการปกป้องเทคโนโลยีกรรมสิทธิ์ของตนจากศัตรูต่างชาติ Leopold Aschenbrenner อดีตผู้จัดการด้านเทคนิคของบริษัท กล่าวว่าเขาถูกไล่ออกหลังจากหยิบยกข้อกังวลเหล่านี้กับคณะกรรมการบริษัทในพอดแคสต์กับ Dwarkesh Patel

OpenAI ปฏิเสธเรื่องนี้ในแถลงการณ์ต่อ The New York Times และไม่เห็นด้วยกับ "การพรรณนาลักษณะด้านความปลอดภัยของเรา" โดย Aschenbrenner ด้วย

ข่าวความปลอดภัยเพิ่มเติมของ OpenAI รวมถึงเกี่ยวกับแอป ChatGPT ใน macOS

หน้าจอแล็ปท็อปแสดงโลโก้ ChatGPT บนพื้นหลังหลากสี มีแอปพลิเคชันและไอคอนต่างๆ บนเดสก์ท็อป ขอบหน้าจอด้านบนมีแถบเมนูของระบบปฏิบัติการ

การบุกรุก Forum ไม่ใช่ข้อบ่งชี้เมื่อเร็วๆ นี้เพียงอย่างเดียวว่าความปลอดภัยไม่ใช่ลำดับความสำคัญสูงสุดที่ OpenAI เมื่อสัปดาห์ที่แล้ว Pedro José Pereira Vieito วิศวกรข้อมูลเปิดเผยว่าแอป ChatGPT macOS ใหม่เก็บข้อมูลแชทเป็น Plain Text ซึ่งหมายความว่าผู้ร้ายสามารถเข้าถึงข้อมูลนั้นได้ง่ายหากพวกเขาได้ครอบครอง Mac หลังจากทราบเรื่องช่องโหว่นี้จาก The Verge OpenAI ได้ปล่อยอัปเดตที่เข้ารหัสแชท

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "เราทราบถึงปัญหานี้และได้ส่งแอปพลิเคชันเวอร์ชันใหม่ซึ่งเข้ารหัสการสนทนาเหล่านี้แล้ว เรามุ่งมั่นที่จะมอบประสบการณ์ผู้ใช้ที่เป็นประโยชน์ในขณะที่รักษามาตรฐานความปลอดภัยสูงของเราในขณะที่เทคโนโลยีของเราพัฒนาขึ้น"

ในเดือนพฤษภาคม 2024 OpenAI ได้ออกแถลงการณ์ว่าได้ขัดขวางปฏิบัติการอิทธิพลลับ 5 ครั้งที่มาจากรัสเซีย จีน อิหร่าน และอิสราเอล ซึ่งพยายามใช้โมเดลของบริษัทสำหรับ "กิจกรรมหลอกลวง" กิจกรรมที่ตรวจพบและบล็อกรวมถึงการสร้างความคิดเห็นและบทความ สร้างชื่อและประวัติสำหรับบัญชีโซเชียลมีเดีย และแปลข้อความ

ในเดือนเดียวกันนั้น บริษัทประกาศว่าได้จัดตั้งคณะกรรมการความปลอดภัยและการรักษาความปลอดภัยเพื่อพัฒนากระบวนการและการป้องกันที่จะใช้ในขณะที่พัฒนาโมเดลชั้นนำ

การแฮก OpenAI Forums บ่งชี้ถึงเหตุการณ์ด้านความปลอดภัยที่เกี่ยวข้องกับ AI มากขึ้นหรือไม่?

ดร. Ilia Kolochenko หุ้นส่วนและหัวหน้าฝ่ายปฏิบัติการความปลอดภัยทางไซเบอร์ที่ Platt Law LLP กล่าวว่าเขาเชื่อว่าเหตุการณ์ความปลอดภัย OpenAI Forums นี้น่าจะเป็นหนึ่งในหลายๆ เหตุการณ์ เขาบอกกับ TechRepublic ทางอีเมลว่า: "การแข่งขัน AI ระดับโลกกลายเป็นเรื่องของความมั่นคงของชาติสำหรับหลายประเทศ ดังนั้นกลุ่มอาชญากรไซเบอร์ที่ได้รับการสนับสนุนจากรัฐและนักรบรับจ้างจึงกำลังเล็งไปที่ผู้ขาย AI อย่างรุนแรง ตั้งแต่สตาร์ทอัพที่มีความสามารถไปจนถึงยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google หรือ OpenAI"

แฮกเกอร์เล็งไปที่ทรัพย์สินทางปัญญา AI ที่มีค่า เช่น Large Language Models, แหล่งข้อมูลการฝึกอบรม, งานวิจัยด้านเทคนิค และข้อมูลเชิงพาณิชย์ ดร. Kolochenko กล่าวเสริม พวกเขาอาจใส่ Backdoor เพื่อให้สามารถควบคุมหรือขัดขวางการดำเนินงานได้ คล้ายกับการโจมตีโครงสร้างพื้นฐานสำคัญของประเทศในประเทศตะวันตกเมื่อเร็วๆ นี้

เขาบอกกับ TechRepublic ว่า: "ผู้ใช้ในองค์กรทั้งหมดของผู้ขาย GenAI ควรระมัดระวังและรอบคอบเป็นพิเศษเมื่อพวกเขาแชร์หรือให้สิทธิ์เข้าถึงข้อมูลกรรมสิทธิ์ของตนสำหรับการฝึกอบรมหรือการปรับแต่ง LLM เนื่องจากข้อมูลของพวกเขา ตั้งแต่ข้อมูลที่ได้รับสิทธิพิเศษระหว่างทนายความและลูกความและความลับทางการค้าของบริษัทชั้นนำด้านอุตสาหกรรมหรือยา ไปจนถึงข้อมูลทางทหารที่เป็นความลับ ก็อยู่ในเป้าหมายของอาชญากรไซเบอร์ที่กระหายความรู้ด้าน AI ซึ่งพร้อมที่จะเพิ่มความรุนแรงในการโจมตีของพวกเขา

สามารถลดความเสี่ยงการละเมิดความปลอดภัยในการพัฒนา AI ได้หรือไม่?

การบรรเทาความเสี่ยงทั้งหมดของการละเมิดความปลอดภัยจากศัตรูต่างชาติเมื่อพัฒนาเทคโนโลยี AI ใหม่ คงจะไม่ใช่เรื่องที่ทำได้ง่าย ๆ

OpenAI ไม่สามารถเลือกปฏิบัติต่อพนักงานตามสัญชาติได้ และในทำนองเดียวกัน ก็ไม่ต้องการจำกัด talent pool ของตนเองโดยการจ้างงานเฉพาะในบางภูมิภาคเท่านั้น

นอกจากนี้ ยังเป็นเรื่องยากที่จะป้องกันไม่ให้ระบบ AI ถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายก่อนที่วัตถุประสงค์เหล่านั้นจะปรากฏขึ้น การศึกษาจาก Anthropic พบว่า LLMs มีประโยชน์เพียงเล็กน้อยสำหรับ bad actors ในการได้มาหรือออกแบบอาวุธชีวภาพมากกว่าการเข้าถึงอินเทอร์เน็ตมาตรฐาน อีกการศึกษาหนึ่งจาก OpenAI ก็ได้ข้อสรุปที่คล้ายกัน

ในทางกลับกัน ผู้เชี่ยวชาญบางคนเห็นด้วยว่า แม้ AI จะไม่ก่อให้เกิดภัยคุกคามในปัจจุบัน แต่อัลกอริทึม AI อาจกลายเป็นอันตรายได้เมื่อมีการพัฒนาให้ก้าวหน้ายิ่งขึ้น ในเดือนพฤศจิกายน 2023 ตัวแทนจาก 28 ประเทศได้ลงนามใน Bletchley Declaration ซึ่งเรียกร้องให้มีความร่วมมือระดับโลกเพื่อแก้ไขความท้าทายที่ AI ก่อให้เกิด "มีโอกาสที่จะเกิดอันตรายร้ายแรง ซึ่งอาจรุนแรงถึงระดับหายนะได้ ไม่ว่าจะโดยเจตนาหรือไม่ตั้งใจ อันเนื่องมาจากความสามารถที่สำคัญที่สุดของ AI models เหล่านี้" เนื้อหาระบุไว้

Why it matters

💡
ข่าวนี้เป็นเรื่องที่น่าสนใจสำหรับผู้ที่ติดตามวงการเทคโนโลยี โดยเฉพาะอย่างยิ่งผู้ที่สนใจในด้าน AI และความปลอดภัยทางไซเบอร์ เหตุการณ์การแฮก OpenAI Forums ชี้ให้เห็นถึงความเสี่ยงด้านความปลอดภัยที่บริษัทพัฒนา AI ต้องเผชิญ ซึ่งอาจส่งผลกระทบต่อความมั่นคงของชาติได้ ข่าวนี้ยังให้ข้อมูลเชิงลึกเกี่ยวกับความท้าทายในการปกป้องเทคโนโลยี AI จากการนำไปใช้ในทางที่ผิด ซึ่งเป็นประเด็นสำคัญที่ผู้เชี่ยวชาญและผู้กำหนดนโยบายทั่วโลกกำลังพยายามแก้ไข

ข้อมูลจาก https://www.techrepublic.com/article/openai-hacked-internal-communications/

Read more

ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

news

ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

ซาอุดิอาระเบียทุ่มงบกว่า 4 หมื่นล้านดอลลาร์พัฒนา AI ผ่านบริษัท Humain และร่วมมือกับยักษ์ใหญ่อย่าง NVIDIA แต่นักวิเคราะห์กังวลว่าอาจถูกใช้เป็นเครื่องมือละเมิดสิทธิมนุษยชน

By
ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

news

ซาอุดิอาระเบียมีความทะเยอทะยานด้าน AI สูง แต่อาจมาพร้อมกับต้นทุนด้านสิทธิมนุษยชนแลกมาด้วยสิทธิมนุษยชน

ซาอุดิอาระเบียทุ่มงบกว่า 4 หมื่นล้านดอลลาร์พัฒนา AI ผ่านบริษัท Humain และร่วมมือกับยักษ์ใหญ่อย่าง NVIDIA แต่นักวิเคราะห์กังวลว่าอาจถูกใช้เป็นเครื่องมือละเมิดสิทธิมนุษยชน

By
Apple กำลังพัฒนาเทคโนโลยีเชื่อมต่อสมองกับคอมพิวเตอร์

news

Apple กำลังพัฒนาเทคโนโลยีเชื่อมต่อสมองกับคอมพิวเตอร์

แอปเปิลจับมือ Synchron พัฒนาเทคโนโลยี BCI ช่วยผู้มีปัญหาด้านการเคลื่อนไหวควบคุม iPhone, iPad และ Vision Pro ผ่านสัญญาณประสาทจากอุปกรณ์ Stentrode ที่ฝังบนสมอง

By
"เราจะต้องสร้างบังเกอร์ก่อนที่จะปล่อย AGI อย่างแน่นอน" - เบื้องหลังความวุ่นวายที่ OpenAI

news

"เราจะต้องสร้างบังเกอร์ก่อนที่จะปล่อย AGI อย่างแน่นอน" - เบื้องหลังความวุ่นวายที่ OpenAI

วิเคราะห์เหตุการณ์สำคัญที่ OpenAI ตั้งแต่การปลด Sam Altman จนถึงการกลับมาดำรงตำแหน่ง CEO อีกครั้ง พร้อมเจาะลึกการเติบโตของบริษัทสู่การเป็นผู้นำด้าน AI ระดับโลก ท่ามกลางความท้าทายด้านความปลอดภัยและการพัฒนา AGI

By