การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

อะไรจะเป็นสิ่งที่ทำให้ Generative AI มีความปลอดภัย?

จากการศึกษาใหม่ที่เผยแพร่โดย IBM และ Amazon Web Services (AWS) ระบุว่าไม่มีวิธีแก้ปัญหา 'silver bullet' ง่ายๆ ในการรักษาความปลอดภัยของ Gen AI โดยเฉพาะในตอนนี้ รายงานนี้อ้างอิงจากการสำรวจโดย IBM Institute for Business Value ซึ่งสำรวจผู้บริหารชั้นนำในองค์กรของสหรัฐฯ แม้ว่า Gen AI จะเป็นโครงการสำคัญสำหรับหลายองค์กร แต่ผลสำรวจพบว่ามีความกระตือรือร้นในระดับสูงเกี่ยวกับความปลอดภัย 82% ของผู้นำระดับ C-suite ระบุว่า AI ที่ปลอดภัยและน่าเชื่อถือเป็นสิ่งจำเป็นสำหรับความสำเร็จทางธุรกิจ

การสร้าง AI ที่น่าเชื่อถือ: กลยุทธ์ของ Microsoft สำหรับ Generative AI

มีความแตกต่างในผลลัพธ์และความแตกต่างกับสิ่งที่เกิดขึ้นจริงในโลกแห่งความเป็นจริง รายงานพบว่าองค์กรต่างๆ กำลังรักษาความปลอดภัยเพียง 24% ของโครงการ Generative AI ในปัจจุบัน IBM ไม่ใช่บริษัทเดียวที่มีรายงานที่แสดงความกังวลเกี่ยวกับความปลอดภัย PwC เนื่องจากรายงานเมื่อเร็วๆ กว่า 77% ของ CEO กังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยไซเบอร์ของ AI

ไม่ใช่เรื่องบังเอิญที่ IBM กำลังทำงานร่วมกับ AWS ในแนวทางที่แตกต่างกันเพื่อช่วยปรับปรุงสถานการณ์ในอนาคต วันนี้ IBM ยังประกาศ IBM X-Force Red Testing Service สำหรับ AI เพื่อพัฒนาความปลอดภัยของ Generative AI ต่อไป

"ในทุกการสนทนากับลูกค้าที่ฉันมี ฉันเห็นว่าผู้นำกำลังถูกดึงไปในทิศทางที่แตกต่างกัน" Dimple Ahluwalia หุ้นส่วนอาวุโสระดับโลกด้านบริการความปลอดภัยไซเบอร์ของ IBM Consulting กล่าวกับ VentureBeat "พวกเขารู้สึกถึงแรงกดดันจากทั้งผู้มีส่วนได้ส่วนเสียภายในและภายนอก ในการสร้างนวัตกรรมด้วยการใช้ Gen AI แต่สำหรับบางคน นั่นหมายความว่าความปลอดภัยกลายเป็นความคิดที่ตามมาภายหลัง"

นวัตกรรมหรือความปลอดภัย? การใช้งาน Gen AI มักเลือกได้เพียงอย่างใดอย่างหนึ่ง

แม้ว่าการมีความปลอดภัยอาจดูเหมือนเป็นเรื่องที่สมเหตุสมผลสำหรับการใช้เทคโนโลยีประเภทใดก็ตาม แต่ในความเป็นจริงแล้ว กรณีนี้ไม่ได้เป็นเช่นนั้นเสมอไป

ตามรายงานพบว่า 69% ขององค์กรให้ความสำคัญกับนวัตกรรมมากกว่าความปลอดภัย Ahluwalia กล่าวว่าองค์กรยังไม่ได้ปลูกฝังความปลอดภัยอย่างครอบคลุมในทุกสายธุรกิจ รายงานยังชี้ให้เห็นอย่างชัดเจนว่าผู้นำธุรกิจเข้าใจถึงความสำคัญของความปลอดภัยและจัดการปัญหานั้นเพื่อช่วยให้การใช้งาน Gen AI ในการผลิตประสบความสำเร็จมากขึ้น "ผู้คนตื่นเต้นมากจนรีบดูว่าพวกเขาจะได้รับประโยชน์ด้านประสิทธิภาพหรือไม่ หรือจะมองหาวิธีที่จะแข่งขันได้มากขึ้นหรือไม่" เธอกล่าว

Ahluwalia กล่าวว่าสิ่งเดียวกันนี้เกิดขึ้นในช่วงแรกของ Cloud เมื่อการสนทนาทุกครั้งต้องมีการพูดคุยเกี่ยวกับการย้าย Workload ไปยัง Cloud โดยมักจะไม่มีการกำกับดูแลด้านความปลอดภัยที่เหมาะสม

"นั่นคือสิ่งที่กำลังเกิดขึ้นในตอนนี้กับ Gen AI ทุกคนรู้สึกว่าจำเป็นและกำลังรีบไปให้ถึงมัน แต่แผนการยังไม่ได้รับการคิดอย่างทะลุปรุโปร่ง และผลก็คือ ความปลอดภัยจะต้องเสียหายไปด้วย" Ahluwalia กล่าว

Guardrails และนโยบายคือกุญแจสำคัญในการรักษาความปลอดภัยของ Generative AI

คำถามคือ แล้วองค์กรต่างๆ จะพัฒนาได้อย่างไร?

มีรายงานแนะนำว่า เพื่อสร้างความเชื่อมั่นใน Gen AI องค์กรต้องเริ่มต้นด้วยการกำกับดูแล (governance) ซึ่งรวมถึงการกำหนดนโยบาย กระบวนการ และการควบคุมที่สอดคล้องกับวัตถุประสงค์ทางธุรกิจ โดย 81% กล่าวว่า Gen AI ต้องการรูปแบบการกำกับดูแลความปลอดภัย (security governance models) ใหม่

เมื่อกำหนดการกำกับดูแลแล้ว กลยุทธ์ต่อไปคือการรักษาความปลอดภัยตลอด AI pipeline โดยใช้เครื่องมือและการควบคุมที่มีอยู่ ซึ่งต้องอาศัยความร่วมมือระหว่างทีมด้านความปลอดภัย เทคโนโลยี และธุรกิจ นอกจากนี้ยังอาจได้ประโยชน์จากการใช้ความเชี่ยวชาญของพาร์ทเนอร์ด้านเทคโนโลยีในการวางกลยุทธ์ การฝึกอบรม การประเมินค่าใช้จ่าย และการปฏิบัติตามกฎระเบียบ

IBM X-Force Red's new Testing Service for AI

บริการทดสอบแรกของ IBM ที่ออกแบบมาเฉพาะสำหรับ AI บริการใหม่นี้ได้รวมทีมผู้เชี่ยวชาญข้ามสาขาจาก penetration testing, AI systems และ data science เข้าด้วยกัน บริการนี้ยังใช้ความเชี่ยวชาญจาก IBM Research ซึ่งพัฒนา Adversarial Robustness Toolbox (ART) แนวคิดของ 'Red Team' ในด้านความปลอดภัยโดยทั่วไปหมายถึงกลุ่มที่ใช้แนวทางเชิงรุกในการโจมตีทรัพยากรเพื่อเรียนรู้ว่ามีช่องโหว่อยู่ที่ใด

Chris Thompson หัวหน้า X-Force Red ของ IBM ทั่วโลก อธิบายกับ VentureBeat ว่าอุตสาหกรรมได้นำคำว่า "AI Red Teaming" มาใช้เมื่อไม่นานมานี้ไม่ว่าจะดีหรือไม่ก็ตาม โดยเน้นที่ความปลอดภัยและการทดสอบความปลอดภัยของโมเดลเป็นหลัก ในมุมมองของเขา จนถึงปัจจุบันยังไม่มีการมุ่งเน้นที่ความลับและการหลบหลีกแบบ red team แบบดั้งเดิม แต่เน้นไปที่การทำให้โมเดลทำในสิ่งที่ไม่ควรทำ เช่น ผลิตเนื้อหาที่เป็นอันตรายหรือเข้าถึง RAG datasets ที่ละเอียดอ่อน

"การโจมตีแอปพลิเคชัน gen AI เองนั้นคล้ายกับการโจมตีความปลอดภัยของแอปพลิเคชันแบบดั้งเดิม แต่มีความแตกต่างใหม่และพื้นผิวการโจมตีที่ขยายออกไป" Thompson กล่าว

ในปี 2024 นี้ เขาระบุว่า IBM เห็นการรวมกันมากขึ้นของสิ่งที่ถือว่าเป็น Red Teaming ที่แท้จริง แนวทางที่ IBM ใช้คือการมองหาเส้นทางการโจมตีที่กว้างขึ้นไปยัง Gen AI สี่ด้านของ AI Red Teaming ที่ IBM พัฒนาบริการรอบๆ ได้แก่: AI platforms, pipeline ที่ใช้ในการปรับและฝึกโมเดล (MLSecOps), สภาพแวดล้อมการผลิตที่รันแอปพลิเคชัน gen AI และแอปพลิเคชัน gen AI เอง

"สอดคล้องกับ red teaming แบบดั้งเดิม เรายังมุ่งเน้นไปที่โอกาสในการตรวจจับที่พลาดไปและลดเวลาที่ใช้ในการตรวจจับผู้โจมตีที่อาจประสบความสำเร็จในการกำหนดเป้าหมายโซลูชัน AI ใหม่เหล่านี้" Thompson กล่าว

ข้อมูลอ้างอิงจาก Gen AI innovation race is leading to security gaps, according to IBM and AWS

Read more

การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

news

การใช้ AI ทำให้งานเขียนจืดชืดลง ผลการศึกษาชี้ชัด

งานวิจัยจากมหาวิทยาลัยฝั่งตะวันตกของสหรัฐฯ พบว่าผู้ที่ใช้ AI เขียนงานหนักมีแนวโน้มผลิตงานที่เป็นกลางมากกว่าถึง 69% พร้อมสูญเสีย Voice และความเป็นตัวตนของผู้เขียนไปอย่างมีนัยสำคัญ

By
Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

news

Manulife นำ AI Agents ปฏิวัติกระบวนการทางการเงินหลักขององค์กร

Manulife ประกาศนำ AI Agents เข้าสู่กระบวนการทางการเงินหลักขององค์กร ในฐานะส่วนหนึ่งของกลยุทธ์ AI-First เพื่อยกระดับประสิทธิภาพและลด Manual Processes สะท้อนทิศทาง AI Infrastructure ของภาคการเงินโลก

By
Visa เตรียมระบบชำระเงินรองรับธุรกรรมที่ริเริ่มโดย AI Agent

news

Visa เตรียมระบบชำระเงินรองรับธุรกรรมที่ริเริ่มโดย AI Agent

Visa เปิดตัวโปรแกรม Agentic Ready ทดสอบระบบชำระเงินที่ AI Agent สามารถริเริ่มธุรกรรมแทนมนุษย์ได้โดยอัตโนมัติ ร่วมกับธนาคารชั้นนำในยุโรป พร้อมพัฒนา Infrastructure รองรับยุค AI Payment

By
Fortune 500 อัปเดตมูลค่าผลกระทบ AI พุ่ง 4.5 ล้านล้านดอลลาร์ ชี้ 93% ของตำแหน่งงานเสี่ยงถูก Disrupt

news

Fortune 500 อัปเดตมูลค่าผลกระทบ AI พุ่ง 4.5 ล้านล้านดอลลาร์ ชี้ 93% ของตำแหน่งงานเสี่ยงถูก Disrupt

Cognizant เผย AI อาจ Disrupt 93% ของตำแหน่งงาน มูลค่า 4.5 ล้านล้านดอลลาร์ เร็วกว่ากำหนด 6 ปี ขณะที่ Tech Firms อย่าง Meta และ Block เร่ง Layoff อ้าง AI Automation เป็นสาเหตุหลัก

By