OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

OpenAI พบการบุกรุกระบบ Forum ภายในที่ใช้สำหรับการสื่อสารที่เป็นความลับ

OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ

Key takeaway

  • OpenAI ถูกแฮกข้อมูลในปี 2023 โดยแฮกเกอร์สามารถเข้าถึงฟอรัมภายในของบริษัทได้ แต่ไม่ได้เข้าถึงระบบที่ใช้ในการสร้าง AI โดยตรง
  • พนักงานบางส่วนกังวลว่าเหตุการณ์นี้บ่งชี้ถึงช่องโหว่ด้านความปลอดภัยที่อาจถูกศัตรูต่างชาติแสวงหาประโยชน์ได้ ซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ
  • ผู้เชี่ยวชาญเชื่อว่าเหตุการณ์นี้เป็นเพียงหนึ่งในหลายๆ เหตุการณ์ เนื่องจากแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐกำลังเล็งเป้าไปที่ผู้พัฒนา AI เพื่อขโมยทรัพย์สินทางปัญญาที่มีค่า
  • การลดความเสี่ยงทั้งหมดจากการละเมิดความปลอดภัยในการพัฒนา AI นั้นทำได้ยาก และผู้เชี่ยวชาญบางคนเชื่อว่า AI อาจกลายเป็นภัยคุกคามร้ายแรงได้ในอนาคต

แหล่งข่าวที่ไม่ประสงค์ออกนามได้แจ้งกับ The New York Times ว่า Forum ออนไลน์ที่พนักงาน OpenAI ใช้สำหรับการสื่อสารภายในที่เป็นความลับถูกแฮกเมื่อปีที่แล้ว แฮกเกอร์ได้ข้อมูลเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทจากโพสต์ใน Forum แต่พวกเขาไม่ได้บุกรุกระบบที่ OpenAI เก็บและสร้าง AI จริงๆ

ผู้บริหาร OpenAI ได้ประกาศเหตุการณ์นี้ให้ทั้งบริษัททราบในการประชุม All-hands เมื่อเดือนเมษายน 2023 และแจ้งให้คณะกรรมการบริษัททราบด้วย อย่างไรก็ตาม เหตุการณ์นี้ไม่ได้เปิดเผยต่อสาธารณะเนื่องจากไม่มีข้อมูลของลูกค้าหรือพาร์ทเนอร์ถูกขโมยไป

ตามแหล่งข่าว ผู้บริหารไม่ได้แจ้งเจ้าหน้าที่บังคับใช้กฎหมาย เพราะพวกเขาไม่เชื่อว่าแฮกเกอร์มีความเชื่อมโยงกับรัฐบาลต่างประเทศ ดังนั้นเหตุการณ์นี้จึงไม่ได้เป็นภัยคุกคามต่อความมั่นคงของชาติ

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "อย่างที่เราแชร์กับคณะกรรมการและพนักงานของเราเมื่อปีที่แล้ว เราระบุและแก้ไขปัญหาที่เป็นต้นเหตุแล้ว และยังคงลงทุนในด้านความปลอดภัยต่อไป"

พนักงาน OpenAI ตอบสนองต่อการแฮกครั้งนี้อย่างไร?

ข่าวข้อมูล Forum รั่วไหลเป็นสาเหตุให้พนักงาน OpenAI คนอื่นๆ กังวล ตามรายงานของ NYT พวกเขาคิดว่ามันบ่งชี้ถึงช่องโหว่ในบริษัทที่อาจถูกแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐแสวงหาประโยชน์ในอนาคต หากเทคโนโลยีล้ำสมัยของ OpenAI ตกอยู่ในมือที่ไม่ถูกต้อง มันอาจถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ

นอกจากนี้ การจัดการเหตุการณ์ของผู้บริหารทำให้พนักงานบางส่วนตั้งคำถามว่า OpenAI ทำเพียงพอหรือไม่ในการปกป้องเทคโนโลยีกรรมสิทธิ์ของตนจากศัตรูต่างชาติ Leopold Aschenbrenner อดีตผู้จัดการด้านเทคนิคของบริษัท กล่าวว่าเขาถูกไล่ออกหลังจากหยิบยกข้อกังวลเหล่านี้กับคณะกรรมการบริษัทในพอดแคสต์กับ Dwarkesh Patel

OpenAI ปฏิเสธเรื่องนี้ในแถลงการณ์ต่อ The New York Times และไม่เห็นด้วยกับ "การพรรณนาลักษณะด้านความปลอดภัยของเรา" โดย Aschenbrenner ด้วย

ข่าวความปลอดภัยเพิ่มเติมของ OpenAI รวมถึงเกี่ยวกับแอป ChatGPT ใน macOS

หน้าจอแล็ปท็อปแสดงโลโก้ ChatGPT บนพื้นหลังหลากสี มีแอปพลิเคชันและไอคอนต่างๆ บนเดสก์ท็อป ขอบหน้าจอด้านบนมีแถบเมนูของระบบปฏิบัติการ

การบุกรุก Forum ไม่ใช่ข้อบ่งชี้เมื่อเร็วๆ นี้เพียงอย่างเดียวว่าความปลอดภัยไม่ใช่ลำดับความสำคัญสูงสุดที่ OpenAI เมื่อสัปดาห์ที่แล้ว Pedro José Pereira Vieito วิศวกรข้อมูลเปิดเผยว่าแอป ChatGPT macOS ใหม่เก็บข้อมูลแชทเป็น Plain Text ซึ่งหมายความว่าผู้ร้ายสามารถเข้าถึงข้อมูลนั้นได้ง่ายหากพวกเขาได้ครอบครอง Mac หลังจากทราบเรื่องช่องโหว่นี้จาก The Verge OpenAI ได้ปล่อยอัปเดตที่เข้ารหัสแชท

โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "เราทราบถึงปัญหานี้และได้ส่งแอปพลิเคชันเวอร์ชันใหม่ซึ่งเข้ารหัสการสนทนาเหล่านี้แล้ว เรามุ่งมั่นที่จะมอบประสบการณ์ผู้ใช้ที่เป็นประโยชน์ในขณะที่รักษามาตรฐานความปลอดภัยสูงของเราในขณะที่เทคโนโลยีของเราพัฒนาขึ้น"

ในเดือนพฤษภาคม 2024 OpenAI ได้ออกแถลงการณ์ว่าได้ขัดขวางปฏิบัติการอิทธิพลลับ 5 ครั้งที่มาจากรัสเซีย จีน อิหร่าน และอิสราเอล ซึ่งพยายามใช้โมเดลของบริษัทสำหรับ "กิจกรรมหลอกลวง" กิจกรรมที่ตรวจพบและบล็อกรวมถึงการสร้างความคิดเห็นและบทความ สร้างชื่อและประวัติสำหรับบัญชีโซเชียลมีเดีย และแปลข้อความ

ในเดือนเดียวกันนั้น บริษัทประกาศว่าได้จัดตั้งคณะกรรมการความปลอดภัยและการรักษาความปลอดภัยเพื่อพัฒนากระบวนการและการป้องกันที่จะใช้ในขณะที่พัฒนาโมเดลชั้นนำ

การแฮก OpenAI Forums บ่งชี้ถึงเหตุการณ์ด้านความปลอดภัยที่เกี่ยวข้องกับ AI มากขึ้นหรือไม่?

ดร. Ilia Kolochenko หุ้นส่วนและหัวหน้าฝ่ายปฏิบัติการความปลอดภัยทางไซเบอร์ที่ Platt Law LLP กล่าวว่าเขาเชื่อว่าเหตุการณ์ความปลอดภัย OpenAI Forums นี้น่าจะเป็นหนึ่งในหลายๆ เหตุการณ์ เขาบอกกับ TechRepublic ทางอีเมลว่า: "การแข่งขัน AI ระดับโลกกลายเป็นเรื่องของความมั่นคงของชาติสำหรับหลายประเทศ ดังนั้นกลุ่มอาชญากรไซเบอร์ที่ได้รับการสนับสนุนจากรัฐและนักรบรับจ้างจึงกำลังเล็งไปที่ผู้ขาย AI อย่างรุนแรง ตั้งแต่สตาร์ทอัพที่มีความสามารถไปจนถึงยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google หรือ OpenAI"

แฮกเกอร์เล็งไปที่ทรัพย์สินทางปัญญา AI ที่มีค่า เช่น Large Language Models, แหล่งข้อมูลการฝึกอบรม, งานวิจัยด้านเทคนิค และข้อมูลเชิงพาณิชย์ ดร. Kolochenko กล่าวเสริม พวกเขาอาจใส่ Backdoor เพื่อให้สามารถควบคุมหรือขัดขวางการดำเนินงานได้ คล้ายกับการโจมตีโครงสร้างพื้นฐานสำคัญของประเทศในประเทศตะวันตกเมื่อเร็วๆ นี้

เขาบอกกับ TechRepublic ว่า: "ผู้ใช้ในองค์กรทั้งหมดของผู้ขาย GenAI ควรระมัดระวังและรอบคอบเป็นพิเศษเมื่อพวกเขาแชร์หรือให้สิทธิ์เข้าถึงข้อมูลกรรมสิทธิ์ของตนสำหรับการฝึกอบรมหรือการปรับแต่ง LLM เนื่องจากข้อมูลของพวกเขา ตั้งแต่ข้อมูลที่ได้รับสิทธิพิเศษระหว่างทนายความและลูกความและความลับทางการค้าของบริษัทชั้นนำด้านอุตสาหกรรมหรือยา ไปจนถึงข้อมูลทางทหารที่เป็นความลับ ก็อยู่ในเป้าหมายของอาชญากรไซเบอร์ที่กระหายความรู้ด้าน AI ซึ่งพร้อมที่จะเพิ่มความรุนแรงในการโจมตีของพวกเขา

สามารถลดความเสี่ยงการละเมิดความปลอดภัยในการพัฒนา AI ได้หรือไม่?

การบรรเทาความเสี่ยงทั้งหมดของการละเมิดความปลอดภัยจากศัตรูต่างชาติเมื่อพัฒนาเทคโนโลยี AI ใหม่ คงจะไม่ใช่เรื่องที่ทำได้ง่าย ๆ

OpenAI ไม่สามารถเลือกปฏิบัติต่อพนักงานตามสัญชาติได้ และในทำนองเดียวกัน ก็ไม่ต้องการจำกัด talent pool ของตนเองโดยการจ้างงานเฉพาะในบางภูมิภาคเท่านั้น

นอกจากนี้ ยังเป็นเรื่องยากที่จะป้องกันไม่ให้ระบบ AI ถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายก่อนที่วัตถุประสงค์เหล่านั้นจะปรากฏขึ้น การศึกษาจาก Anthropic พบว่า LLMs มีประโยชน์เพียงเล็กน้อยสำหรับ bad actors ในการได้มาหรือออกแบบอาวุธชีวภาพมากกว่าการเข้าถึงอินเทอร์เน็ตมาตรฐาน อีกการศึกษาหนึ่งจาก OpenAI ก็ได้ข้อสรุปที่คล้ายกัน

ในทางกลับกัน ผู้เชี่ยวชาญบางคนเห็นด้วยว่า แม้ AI จะไม่ก่อให้เกิดภัยคุกคามในปัจจุบัน แต่อัลกอริทึม AI อาจกลายเป็นอันตรายได้เมื่อมีการพัฒนาให้ก้าวหน้ายิ่งขึ้น ในเดือนพฤศจิกายน 2023 ตัวแทนจาก 28 ประเทศได้ลงนามใน Bletchley Declaration ซึ่งเรียกร้องให้มีความร่วมมือระดับโลกเพื่อแก้ไขความท้าทายที่ AI ก่อให้เกิด "มีโอกาสที่จะเกิดอันตรายร้ายแรง ซึ่งอาจรุนแรงถึงระดับหายนะได้ ไม่ว่าจะโดยเจตนาหรือไม่ตั้งใจ อันเนื่องมาจากความสามารถที่สำคัญที่สุดของ AI models เหล่านี้" เนื้อหาระบุไว้

Why it matters

💡
ข่าวนี้เป็นเรื่องที่น่าสนใจสำหรับผู้ที่ติดตามวงการเทคโนโลยี โดยเฉพาะอย่างยิ่งผู้ที่สนใจในด้าน AI และความปลอดภัยทางไซเบอร์ เหตุการณ์การแฮก OpenAI Forums ชี้ให้เห็นถึงความเสี่ยงด้านความปลอดภัยที่บริษัทพัฒนา AI ต้องเผชิญ ซึ่งอาจส่งผลกระทบต่อความมั่นคงของชาติได้ ข่าวนี้ยังให้ข้อมูลเชิงลึกเกี่ยวกับความท้าทายในการปกป้องเทคโนโลยี AI จากการนำไปใช้ในทางที่ผิด ซึ่งเป็นประเด็นสำคัญที่ผู้เชี่ยวชาญและผู้กำหนดนโยบายทั่วโลกกำลังพยายามแก้ไข

ข้อมูลจาก https://www.techrepublic.com/article/openai-hacked-internal-communications/

Read more

การใช้ ChatGPT เชื่อมโยงกับการลดลงของความสามารถในการคิด

news

การใช้ ChatGPT เชื่อมโยงกับการลดลงของความสามารถในการคิด

ผลวิจัยจาก MIT ชี้ผู้ใช้ ChatGPT มีการทำงานของสมองต่ำกว่ากลุ่มที่ใช้ Google และกลุ่มที่ไม่ใช้เครื่องมือช่วย สะท้อนผลกระทบด้านลบต่อความสามารถในการคิดวิเคราะห์ โดยเฉพาะในกลุ่มเด็กและเยาวชน

By
บริษัทสตาร์ทอัพด้าน AI Coding ของกรีซ "Bitloops" ระดมทุน pre-seed 1.2 ล้านดอลลาร์

news

บริษัทสตาร์ทอัพด้าน AI Coding ของกรีซ "Bitloops" ระดมทุน pre-seed 1.2 ล้านดอลลาร์

Bitloops สตาร์ทอัพ AI ด้านการเขียนโค้ดจากกรีซ ประสบความสำเร็จในการระดมทุนรอบ pre-seed มูลค่า 1.2 ล้านดอลลาร์ เพื่อพัฒนาแพลตฟอร์มแปลงไฟล์ดีไซน์เป็นโค้ดอัตโนมัติ

By
Hearst สร้างผู้ช่วยเสียง AI สำหรับเว็บไซต์สูตรอาหาร Delish

news

Hearst สร้างผู้ช่วยเสียง AI สำหรับเว็บไซต์สูตรอาหาร Delish

Hearst เปิดตัว Cooking Coach ผู้ช่วย AI อัจฉริยะบนเว็บไซต์ Delish ช่วยผู้ใช้ทำอาหารแบบแฮนด์ฟรี พร้อมฟีเจอร์แนะนำสูตร ปรับขนาดเสิร์ฟ และตอบคำถามเทคนิคการทำอาหารในหลายภาษา

By
Google และ Spotify ล่มในเหตุการณ์ Outage ครั้งใหญ่ที่ส่งผลกระทบต่อผู้ใช้หลายหมื่นราย

news

Google และ Spotify ล่มในเหตุการณ์ Outage ครั้งใหญ่ที่ส่งผลกระทบต่อผู้ใช้หลายหมื่นราย

เหตุการณ์ระบบล่มครั้งใหญ่ของ Google Cloud และ Spotify ส่งผลกระทบต่อผู้ใช้งานทั่วโลกกว่าหลายหมื่นราย โดย Google ได้แก้ไขปัญหาเรียบร้อยแล้ว ขณะที่ Spotify ยังคงมีปัญหาต่อเนื่อง

By