การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

อะไรจะเป็นสิ่งที่ทำให้ Generative AI มีความปลอดภัย?

จากการศึกษาใหม่ที่เผยแพร่โดย IBM และ Amazon Web Services (AWS) ระบุว่าไม่มีวิธีแก้ปัญหา 'silver bullet' ง่ายๆ ในการรักษาความปลอดภัยของ Gen AI โดยเฉพาะในตอนนี้ รายงานนี้อ้างอิงจากการสำรวจโดย IBM Institute for Business Value ซึ่งสำรวจผู้บริหารชั้นนำในองค์กรของสหรัฐฯ แม้ว่า Gen AI จะเป็นโครงการสำคัญสำหรับหลายองค์กร แต่ผลสำรวจพบว่ามีความกระตือรือร้นในระดับสูงเกี่ยวกับความปลอดภัย 82% ของผู้นำระดับ C-suite ระบุว่า AI ที่ปลอดภัยและน่าเชื่อถือเป็นสิ่งจำเป็นสำหรับความสำเร็จทางธุรกิจ

การสร้าง AI ที่น่าเชื่อถือ: กลยุทธ์ของ Microsoft สำหรับ Generative AI

มีความแตกต่างในผลลัพธ์และความแตกต่างกับสิ่งที่เกิดขึ้นจริงในโลกแห่งความเป็นจริง รายงานพบว่าองค์กรต่างๆ กำลังรักษาความปลอดภัยเพียง 24% ของโครงการ Generative AI ในปัจจุบัน IBM ไม่ใช่บริษัทเดียวที่มีรายงานที่แสดงความกังวลเกี่ยวกับความปลอดภัย PwC เนื่องจากรายงานเมื่อเร็วๆ กว่า 77% ของ CEO กังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยไซเบอร์ของ AI

ไม่ใช่เรื่องบังเอิญที่ IBM กำลังทำงานร่วมกับ AWS ในแนวทางที่แตกต่างกันเพื่อช่วยปรับปรุงสถานการณ์ในอนาคต วันนี้ IBM ยังประกาศ IBM X-Force Red Testing Service สำหรับ AI เพื่อพัฒนาความปลอดภัยของ Generative AI ต่อไป

"ในทุกการสนทนากับลูกค้าที่ฉันมี ฉันเห็นว่าผู้นำกำลังถูกดึงไปในทิศทางที่แตกต่างกัน" Dimple Ahluwalia หุ้นส่วนอาวุโสระดับโลกด้านบริการความปลอดภัยไซเบอร์ของ IBM Consulting กล่าวกับ VentureBeat "พวกเขารู้สึกถึงแรงกดดันจากทั้งผู้มีส่วนได้ส่วนเสียภายในและภายนอก ในการสร้างนวัตกรรมด้วยการใช้ Gen AI แต่สำหรับบางคน นั่นหมายความว่าความปลอดภัยกลายเป็นความคิดที่ตามมาภายหลัง"

นวัตกรรมหรือความปลอดภัย? การใช้งาน Gen AI มักเลือกได้เพียงอย่างใดอย่างหนึ่ง

แม้ว่าการมีความปลอดภัยอาจดูเหมือนเป็นเรื่องที่สมเหตุสมผลสำหรับการใช้เทคโนโลยีประเภทใดก็ตาม แต่ในความเป็นจริงแล้ว กรณีนี้ไม่ได้เป็นเช่นนั้นเสมอไป

ตามรายงานพบว่า 69% ขององค์กรให้ความสำคัญกับนวัตกรรมมากกว่าความปลอดภัย Ahluwalia กล่าวว่าองค์กรยังไม่ได้ปลูกฝังความปลอดภัยอย่างครอบคลุมในทุกสายธุรกิจ รายงานยังชี้ให้เห็นอย่างชัดเจนว่าผู้นำธุรกิจเข้าใจถึงความสำคัญของความปลอดภัยและจัดการปัญหานั้นเพื่อช่วยให้การใช้งาน Gen AI ในการผลิตประสบความสำเร็จมากขึ้น "ผู้คนตื่นเต้นมากจนรีบดูว่าพวกเขาจะได้รับประโยชน์ด้านประสิทธิภาพหรือไม่ หรือจะมองหาวิธีที่จะแข่งขันได้มากขึ้นหรือไม่" เธอกล่าว

Ahluwalia กล่าวว่าสิ่งเดียวกันนี้เกิดขึ้นในช่วงแรกของ Cloud เมื่อการสนทนาทุกครั้งต้องมีการพูดคุยเกี่ยวกับการย้าย Workload ไปยัง Cloud โดยมักจะไม่มีการกำกับดูแลด้านความปลอดภัยที่เหมาะสม

"นั่นคือสิ่งที่กำลังเกิดขึ้นในตอนนี้กับ Gen AI ทุกคนรู้สึกว่าจำเป็นและกำลังรีบไปให้ถึงมัน แต่แผนการยังไม่ได้รับการคิดอย่างทะลุปรุโปร่ง และผลก็คือ ความปลอดภัยจะต้องเสียหายไปด้วย" Ahluwalia กล่าว

Guardrails และนโยบายคือกุญแจสำคัญในการรักษาความปลอดภัยของ Generative AI

คำถามคือ แล้วองค์กรต่างๆ จะพัฒนาได้อย่างไร?

มีรายงานแนะนำว่า เพื่อสร้างความเชื่อมั่นใน Gen AI องค์กรต้องเริ่มต้นด้วยการกำกับดูแล (governance) ซึ่งรวมถึงการกำหนดนโยบาย กระบวนการ และการควบคุมที่สอดคล้องกับวัตถุประสงค์ทางธุรกิจ โดย 81% กล่าวว่า Gen AI ต้องการรูปแบบการกำกับดูแลความปลอดภัย (security governance models) ใหม่

เมื่อกำหนดการกำกับดูแลแล้ว กลยุทธ์ต่อไปคือการรักษาความปลอดภัยตลอด AI pipeline โดยใช้เครื่องมือและการควบคุมที่มีอยู่ ซึ่งต้องอาศัยความร่วมมือระหว่างทีมด้านความปลอดภัย เทคโนโลยี และธุรกิจ นอกจากนี้ยังอาจได้ประโยชน์จากการใช้ความเชี่ยวชาญของพาร์ทเนอร์ด้านเทคโนโลยีในการวางกลยุทธ์ การฝึกอบรม การประเมินค่าใช้จ่าย และการปฏิบัติตามกฎระเบียบ

IBM X-Force Red's new Testing Service for AI

บริการทดสอบแรกของ IBM ที่ออกแบบมาเฉพาะสำหรับ AI บริการใหม่นี้ได้รวมทีมผู้เชี่ยวชาญข้ามสาขาจาก penetration testing, AI systems และ data science เข้าด้วยกัน บริการนี้ยังใช้ความเชี่ยวชาญจาก IBM Research ซึ่งพัฒนา Adversarial Robustness Toolbox (ART) แนวคิดของ 'Red Team' ในด้านความปลอดภัยโดยทั่วไปหมายถึงกลุ่มที่ใช้แนวทางเชิงรุกในการโจมตีทรัพยากรเพื่อเรียนรู้ว่ามีช่องโหว่อยู่ที่ใด

Chris Thompson หัวหน้า X-Force Red ของ IBM ทั่วโลก อธิบายกับ VentureBeat ว่าอุตสาหกรรมได้นำคำว่า "AI Red Teaming" มาใช้เมื่อไม่นานมานี้ไม่ว่าจะดีหรือไม่ก็ตาม โดยเน้นที่ความปลอดภัยและการทดสอบความปลอดภัยของโมเดลเป็นหลัก ในมุมมองของเขา จนถึงปัจจุบันยังไม่มีการมุ่งเน้นที่ความลับและการหลบหลีกแบบ red team แบบดั้งเดิม แต่เน้นไปที่การทำให้โมเดลทำในสิ่งที่ไม่ควรทำ เช่น ผลิตเนื้อหาที่เป็นอันตรายหรือเข้าถึง RAG datasets ที่ละเอียดอ่อน

"การโจมตีแอปพลิเคชัน gen AI เองนั้นคล้ายกับการโจมตีความปลอดภัยของแอปพลิเคชันแบบดั้งเดิม แต่มีความแตกต่างใหม่และพื้นผิวการโจมตีที่ขยายออกไป" Thompson กล่าว

ในปี 2024 นี้ เขาระบุว่า IBM เห็นการรวมกันมากขึ้นของสิ่งที่ถือว่าเป็น Red Teaming ที่แท้จริง แนวทางที่ IBM ใช้คือการมองหาเส้นทางการโจมตีที่กว้างขึ้นไปยัง Gen AI สี่ด้านของ AI Red Teaming ที่ IBM พัฒนาบริการรอบๆ ได้แก่: AI platforms, pipeline ที่ใช้ในการปรับและฝึกโมเดล (MLSecOps), สภาพแวดล้อมการผลิตที่รันแอปพลิเคชัน gen AI และแอปพลิเคชัน gen AI เอง

"สอดคล้องกับ red teaming แบบดั้งเดิม เรายังมุ่งเน้นไปที่โอกาสในการตรวจจับที่พลาดไปและลดเวลาที่ใช้ในการตรวจจับผู้โจมตีที่อาจประสบความสำเร็จในการกำหนดเป้าหมายโซลูชัน AI ใหม่เหล่านี้" Thompson กล่าว

ข้อมูลอ้างอิงจาก Gen AI innovation race is leading to security gaps, according to IBM and AWS

Read more

Meta ปลดพนักงาน 600 ตำแหน่งในห้องปฏิบัติการ AI Superintelligence

news

Meta ปลดพนักงาน 600 ตำแหน่งในห้องปฏิบัติการ AI Superintelligence

Meta ประกาศปลดพนักงาน 600 ตำแหน่งในแผนก Superintelligence Labs เพื่อลดความซับซ้อนขององค์กร แต่ยืนยันว่ายังคงให้ความสำคัญกับการพัฒนา AI และจะเร่งจ้างนักวิจัยใหม่ในทีม TBD

By
Target ใช้ AI สร้างความแตกต่างในธุรกิจค้าปลีก

news

Target ใช้ AI สร้างความแตกต่างในธุรกิจค้าปลีก

Target เดินหน้าใช้ AI ปฏิวัติธุรกิจค้าปลีก ผ่านแพลตฟอร์ม Target Trend Brain วิเคราะห์เทรนด์ตลาด พร้อมพัฒนาระบบคัดกรองผู้ขายและยกระดับทักษะพนักงานทั่วองค์กร เพื่อสร้างความแตกต่างในตลาด

By
Claude เชื่อมต่อโดยตรงกับ Microsoft 365 แล้วตอนนี้

news

Claude เชื่อมต่อโดยตรงกับ Microsoft 365 แล้วตอนนี้

Claude AI จาก Anthropic เปิดตัวตัวเชื่อมต่อ Microsoft 365 ใหม่ ช่วยให้ผู้ใช้สามารถใช้งาน AI ร่วมกับแอปพลิเคชัน Microsoft ได้โดยตรง พร้อมฟีเจอร์ Enterprise Search สำหรับการค้นหาข้อมูลองค์กรแบบครบวงจร

By
Ring ของ Amazon จับมือ Flock เครือข่ายกล้อง AI ที่ใช้โดย ICE, หน่วยงานรัฐบาลกลาง และตำรวจ

news

Ring ของ Amazon จับมือ Flock เครือข่ายกล้อง AI ที่ใช้โดย ICE, หน่วยงานรัฐบาลกลาง และตำรวจ

Ring ของ Amazon ประกาศจับมือกับ Flock ผู้พัฒนากล้อง AI ที่ใช้โดยหน่วยงานรัฐและตำรวจ เปิดทางให้เข้าถึงภาพวิดีโอจากกล้องทั่วประเทศ สร้างความกังวลด้านความเป็นส่วนตัวและการเฝ้าระวัง

By