การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

อะไรจะเป็นสิ่งที่ทำให้ Generative AI มีความปลอดภัย?

จากการศึกษาใหม่ที่เผยแพร่โดย IBM และ Amazon Web Services (AWS) ระบุว่าไม่มีวิธีแก้ปัญหา 'silver bullet' ง่ายๆ ในการรักษาความปลอดภัยของ Gen AI โดยเฉพาะในตอนนี้ รายงานนี้อ้างอิงจากการสำรวจโดย IBM Institute for Business Value ซึ่งสำรวจผู้บริหารชั้นนำในองค์กรของสหรัฐฯ แม้ว่า Gen AI จะเป็นโครงการสำคัญสำหรับหลายองค์กร แต่ผลสำรวจพบว่ามีความกระตือรือร้นในระดับสูงเกี่ยวกับความปลอดภัย 82% ของผู้นำระดับ C-suite ระบุว่า AI ที่ปลอดภัยและน่าเชื่อถือเป็นสิ่งจำเป็นสำหรับความสำเร็จทางธุรกิจ

การสร้าง AI ที่น่าเชื่อถือ: กลยุทธ์ของ Microsoft สำหรับ Generative AI

มีความแตกต่างในผลลัพธ์และความแตกต่างกับสิ่งที่เกิดขึ้นจริงในโลกแห่งความเป็นจริง รายงานพบว่าองค์กรต่างๆ กำลังรักษาความปลอดภัยเพียง 24% ของโครงการ Generative AI ในปัจจุบัน IBM ไม่ใช่บริษัทเดียวที่มีรายงานที่แสดงความกังวลเกี่ยวกับความปลอดภัย PwC เนื่องจากรายงานเมื่อเร็วๆ กว่า 77% ของ CEO กังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยไซเบอร์ของ AI

ไม่ใช่เรื่องบังเอิญที่ IBM กำลังทำงานร่วมกับ AWS ในแนวทางที่แตกต่างกันเพื่อช่วยปรับปรุงสถานการณ์ในอนาคต วันนี้ IBM ยังประกาศ IBM X-Force Red Testing Service สำหรับ AI เพื่อพัฒนาความปลอดภัยของ Generative AI ต่อไป

"ในทุกการสนทนากับลูกค้าที่ฉันมี ฉันเห็นว่าผู้นำกำลังถูกดึงไปในทิศทางที่แตกต่างกัน" Dimple Ahluwalia หุ้นส่วนอาวุโสระดับโลกด้านบริการความปลอดภัยไซเบอร์ของ IBM Consulting กล่าวกับ VentureBeat "พวกเขารู้สึกถึงแรงกดดันจากทั้งผู้มีส่วนได้ส่วนเสียภายในและภายนอก ในการสร้างนวัตกรรมด้วยการใช้ Gen AI แต่สำหรับบางคน นั่นหมายความว่าความปลอดภัยกลายเป็นความคิดที่ตามมาภายหลัง"

นวัตกรรมหรือความปลอดภัย? การใช้งาน Gen AI มักเลือกได้เพียงอย่างใดอย่างหนึ่ง

แม้ว่าการมีความปลอดภัยอาจดูเหมือนเป็นเรื่องที่สมเหตุสมผลสำหรับการใช้เทคโนโลยีประเภทใดก็ตาม แต่ในความเป็นจริงแล้ว กรณีนี้ไม่ได้เป็นเช่นนั้นเสมอไป

ตามรายงานพบว่า 69% ขององค์กรให้ความสำคัญกับนวัตกรรมมากกว่าความปลอดภัย Ahluwalia กล่าวว่าองค์กรยังไม่ได้ปลูกฝังความปลอดภัยอย่างครอบคลุมในทุกสายธุรกิจ รายงานยังชี้ให้เห็นอย่างชัดเจนว่าผู้นำธุรกิจเข้าใจถึงความสำคัญของความปลอดภัยและจัดการปัญหานั้นเพื่อช่วยให้การใช้งาน Gen AI ในการผลิตประสบความสำเร็จมากขึ้น "ผู้คนตื่นเต้นมากจนรีบดูว่าพวกเขาจะได้รับประโยชน์ด้านประสิทธิภาพหรือไม่ หรือจะมองหาวิธีที่จะแข่งขันได้มากขึ้นหรือไม่" เธอกล่าว

Ahluwalia กล่าวว่าสิ่งเดียวกันนี้เกิดขึ้นในช่วงแรกของ Cloud เมื่อการสนทนาทุกครั้งต้องมีการพูดคุยเกี่ยวกับการย้าย Workload ไปยัง Cloud โดยมักจะไม่มีการกำกับดูแลด้านความปลอดภัยที่เหมาะสม

"นั่นคือสิ่งที่กำลังเกิดขึ้นในตอนนี้กับ Gen AI ทุกคนรู้สึกว่าจำเป็นและกำลังรีบไปให้ถึงมัน แต่แผนการยังไม่ได้รับการคิดอย่างทะลุปรุโปร่ง และผลก็คือ ความปลอดภัยจะต้องเสียหายไปด้วย" Ahluwalia กล่าว

Guardrails และนโยบายคือกุญแจสำคัญในการรักษาความปลอดภัยของ Generative AI

คำถามคือ แล้วองค์กรต่างๆ จะพัฒนาได้อย่างไร?

มีรายงานแนะนำว่า เพื่อสร้างความเชื่อมั่นใน Gen AI องค์กรต้องเริ่มต้นด้วยการกำกับดูแล (governance) ซึ่งรวมถึงการกำหนดนโยบาย กระบวนการ และการควบคุมที่สอดคล้องกับวัตถุประสงค์ทางธุรกิจ โดย 81% กล่าวว่า Gen AI ต้องการรูปแบบการกำกับดูแลความปลอดภัย (security governance models) ใหม่

เมื่อกำหนดการกำกับดูแลแล้ว กลยุทธ์ต่อไปคือการรักษาความปลอดภัยตลอด AI pipeline โดยใช้เครื่องมือและการควบคุมที่มีอยู่ ซึ่งต้องอาศัยความร่วมมือระหว่างทีมด้านความปลอดภัย เทคโนโลยี และธุรกิจ นอกจากนี้ยังอาจได้ประโยชน์จากการใช้ความเชี่ยวชาญของพาร์ทเนอร์ด้านเทคโนโลยีในการวางกลยุทธ์ การฝึกอบรม การประเมินค่าใช้จ่าย และการปฏิบัติตามกฎระเบียบ

IBM X-Force Red's new Testing Service for AI

บริการทดสอบแรกของ IBM ที่ออกแบบมาเฉพาะสำหรับ AI บริการใหม่นี้ได้รวมทีมผู้เชี่ยวชาญข้ามสาขาจาก penetration testing, AI systems และ data science เข้าด้วยกัน บริการนี้ยังใช้ความเชี่ยวชาญจาก IBM Research ซึ่งพัฒนา Adversarial Robustness Toolbox (ART) แนวคิดของ 'Red Team' ในด้านความปลอดภัยโดยทั่วไปหมายถึงกลุ่มที่ใช้แนวทางเชิงรุกในการโจมตีทรัพยากรเพื่อเรียนรู้ว่ามีช่องโหว่อยู่ที่ใด

Chris Thompson หัวหน้า X-Force Red ของ IBM ทั่วโลก อธิบายกับ VentureBeat ว่าอุตสาหกรรมได้นำคำว่า "AI Red Teaming" มาใช้เมื่อไม่นานมานี้ไม่ว่าจะดีหรือไม่ก็ตาม โดยเน้นที่ความปลอดภัยและการทดสอบความปลอดภัยของโมเดลเป็นหลัก ในมุมมองของเขา จนถึงปัจจุบันยังไม่มีการมุ่งเน้นที่ความลับและการหลบหลีกแบบ red team แบบดั้งเดิม แต่เน้นไปที่การทำให้โมเดลทำในสิ่งที่ไม่ควรทำ เช่น ผลิตเนื้อหาที่เป็นอันตรายหรือเข้าถึง RAG datasets ที่ละเอียดอ่อน

"การโจมตีแอปพลิเคชัน gen AI เองนั้นคล้ายกับการโจมตีความปลอดภัยของแอปพลิเคชันแบบดั้งเดิม แต่มีความแตกต่างใหม่และพื้นผิวการโจมตีที่ขยายออกไป" Thompson กล่าว

ในปี 2024 นี้ เขาระบุว่า IBM เห็นการรวมกันมากขึ้นของสิ่งที่ถือว่าเป็น Red Teaming ที่แท้จริง แนวทางที่ IBM ใช้คือการมองหาเส้นทางการโจมตีที่กว้างขึ้นไปยัง Gen AI สี่ด้านของ AI Red Teaming ที่ IBM พัฒนาบริการรอบๆ ได้แก่: AI platforms, pipeline ที่ใช้ในการปรับและฝึกโมเดล (MLSecOps), สภาพแวดล้อมการผลิตที่รันแอปพลิเคชัน gen AI และแอปพลิเคชัน gen AI เอง

"สอดคล้องกับ red teaming แบบดั้งเดิม เรายังมุ่งเน้นไปที่โอกาสในการตรวจจับที่พลาดไปและลดเวลาที่ใช้ในการตรวจจับผู้โจมตีที่อาจประสบความสำเร็จในการกำหนดเป้าหมายโซลูชัน AI ใหม่เหล่านี้" Thompson กล่าว

ข้อมูลอ้างอิงจาก Gen AI innovation race is leading to security gaps, according to IBM and AWS

Read more

AI แบบ Agentic ถูกนำมาใช้เร็วขึ้นแม้จะมีความเสี่ยง

news

AI แบบ Agentic ถูกนำมาใช้เร็วขึ้นแม้จะมีความเสี่ยง

รายงานล่าสุดจาก KPMG เผยองค์กรหันมาใช้ Agentic AI เพิ่มขึ้นเป็น 3 เท่าในสองไตรมาส แม้จะมีความท้าทายด้านทักษะ การต่อต้านจากพนักงาน และความซับซ้อนของระบบ ผู้นำองค์กรมองว่าเป็นโอกาสในการสร้างมูลค่าใหม่

By
Apple เล็งใช้ AI จากภายนอกยกระดับความสามารถ Siri

news

Apple เล็งใช้ AI จากภายนอกยกระดับความสามารถ Siri

แอปเปิลกำลังพิจารณาร่วมมือกับบริษัท AI ชั้นนำอย่าง Anthropic หรือ OpenAI เพื่อเสริมศักยภาพให้กับ Siri ในเวอร์ชันใหม่ พร้อมพัฒนาเทคโนโลยี AI ของตัวเองควบคู่กันไป

By
ศาลสหรัฐฯ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็น "การใช้งานโดยชอบธรรม"

news

ศาลสหรัฐฯ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็น "การใช้งานโดยชอบธรรม"

ศาลสหรัฐฯ สร้างบรรทัดฐานสำคัญ ตัดสินให้การใช้หนังสือลิขสิทธิ์เพื่อฝึกฝน AI เป็นการใช้งานโดยชอบธรรม แม้ไม่ต้องขออนุญาตจากผู้เขียน แต่ยังมีข้อจำกัดเรื่องการใช้สำเนาละเมิดลิขสิทธิ์

By
เยอรมนีขอให้ Apple และ Google ถอดแอป DeepSeek AI ออกเนื่องจากปัญหาความเป็นส่วนตัวของข้อมูล

news

เยอรมนีขอให้ Apple และ Google ถอดแอป DeepSeek AI ออกเนื่องจากปัญหาความเป็นส่วนตัวของข้อมูล

เยอรมนีเรียกร้องให้ถอดแอป DeepSeek AI จาก app store หลังพบปัญหาการส่งข้อมูลผู้ใช้ไปจีน สร้างความกังวลด้านความเป็นส่วนตัว ท่ามกลางการต่อต้านจากหลายประเทศทั่วโลก

By