AI แบบ Generative: ประโยชน์และความเสี่ยง

ผู้เชี่ยวชาญจาก Microsoft วิเคราะห์ประโยชน์และความเสี่ยงด้านความปลอดภัยของ AI แบบ Generative พร้อมแนะนำวิธีรับมือกับภัยคุกคามใหม่ๆ ที่อาจเกิดขึ้น รวมถึงแนวทางการใช้งาน AI อย่างปลอดภัยในองค์กร

AI แบบ Generative: ประโยชน์และความเสี่ยง

Key takeaway

  • AI แบบ Generative กำลังเป็นกระแสในวงการไอที โดย Microsoft ใช้โมเดลของ OpenAI ในการตอบคำถามลูกค้าเกี่ยวกับความปลอดภัยที่เปลี่ยนแปลงไปเนื่องจาก AI
  • ผู้เชี่ยวชาญด้านความปลอดภัยควรพิจารณาการใช้งาน AI จาก 3 มุมมอง คือ usage, application และ platform เพื่อระบุและจัดการความเสี่ยงที่เกี่ยวข้องได้อย่างเหมาะสม
  • แม้ AI จะมีประโยชน์มาก แต่ก็มาพร้อมความเสี่ยงด้านความปลอดภัยที่สำคัญ เช่น การเปิดเผยข้อมูลอ่อนไหว, prompt injection, data poisoning เป็นต้น องค์กรจึงต้องสร้างสมดุลระหว่างประโยชน์และความเสี่ยง พร้อมทั้งใช้แนวปฏิบัติด้านความปลอดภัยที่เหมาะสม

AI แบบ Generative กลายเป็นกระแสในวงการไอทีอย่างรวดเร็วหลังจาก ChatGPT เปิดตัวเมื่อสองปีก่อน ปัจจุบัน Microsoft กำลังใช้โมเดลพื้นฐานของ OpenAI และตอบคำถามลูกค้าเกี่ยวกับการเปลี่ยนแปลงด้านความปลอดภัยที่เกิดจาก AI

Siva Sundaramoorthy ผู้เชี่ยวชาญด้านความปลอดภัยและ senior cloud solutions security architect ของ Microsoft ได้ให้ภาพรวมของ generative AI รวมถึงประโยชน์และความเสี่ยงด้านความปลอดภัย แก่ผู้เชี่ยวชาญด้าน cybersecurity ในงาน ISC2 ที่ลาสเวกัสเมื่อวันที่ 14 ตุลาคม

Sundaramoorthy ชี้ให้เห็นถึงความกังวลเกี่ยวกับความแม่นยำของ GenAI โดยเน้นย้ำว่าเทคโนโลยีนี้ทำหน้าที่เป็นตัวทำนาย เลือกคำตอบที่น่าจะถูกต้องที่สุด แม้ว่าคำตอบอื่นๆ อาจถูกต้องได้เช่นกันขึ้นอยู่กับบริบท

ผู้เชี่ยวชาญด้าน cybersecurity ควรพิจารณาการใช้งาน AI จาก 3 มุมมอง: usage, application และ platform

Sundaramoorthy กล่าวว่า "คุณต้องเข้าใจว่าคุณกำลังพยายามป้องกัน use case แบบไหน" และเสริมว่า "นักพัฒนาและคนในบริษัทจำนวนมากจะอยู่ในกลุ่ม application ตรงกลาง ซึ่งเป็นกลุ่มที่กำลังสร้างแอปพลิเคชันด้วย AI แต่ละบริษัทมี bot หรือ pre-trained AI ในสภาพแวดล้อมของตัวเอง"

เมื่อระบุ usage, application และ platform แล้ว สามารถรักษาความปลอดภัยของ AI ได้คล้ายกับระบบอื่นๆ แต่ไม่ทั้งหมด ความเสี่ยงบางอย่างมีแนวโน้มที่จะเกิดขึ้นกับ generative AI มากกว่าระบบแบบดั้งเดิม

Sundaramoorthy ระบุความเสี่ยงจากการนำ AI มาใช้ 7 ประการ ได้แก่:

1. อคติ

2. ข้อมูลเท็จ

3. การหลอกลวง

4. ขาดความรับผิดชอบ

5. พึ่งพามากเกินไป

6. ทรัพย์สินทางปัญญา

7. ผลกระทบทางจิตวิทยา

AI มี threat map ที่เป็นเอกลักษณ์ สอดคล้องกับ 3 มุมมองข้างต้น:

-การใช้งาน AI อาจนำไปสู่การเปิดเผยข้อมูลอ่อนไหว, shadow IT จากแอปที่ใช้ LLM ของบุคคลที่สาม หรือภัยคุกคามภายใน

- แอปพลิเคชัน AI อาจเปิดช่องให้เกิด prompt injection, การรั่วไหลของข้อมูล หรือภัยคุกคามภายใน

- แพลตฟอร์ม AI อาจก่อให้เกิดปัญหาผ่าน data poisoning, การโจมตีแบบ denial-of-service, การขโมยโมเดล, model inversion หรือ hallucinations

ผู้โจมตีสามารถใช้กลยุทธ์ต่างๆ เช่น prompt converters โดยใช้การพรางข้อมูล, เทคนิคทางความหมาย หรือคำสั่งอันตรายเพื่อหลีกเลี่ยงตัวกรองเนื้อหา หรือเทคนิค jailbreaking พวกเขาอาจใช้ประโยชน์จากระบบ AI และทำให้ข้อมูลการฝึกฝนเป็นพิษ, ทำ prompt injection, ใช้ประโยชน์จากการออกแบบปลั๊กอินที่ไม่ปลอดภัย, เปิดการโจมตีแบบ denial-of-service หรือบังคับให้โมเดล AI รั่วไหลข้อมูล

Sundaramoorthy ตั้งคำถามว่า "จะเกิดอะไรขึ้นถ้า AI เชื่อมต่อกับระบบอื่น กับ API ที่สามารถรันโค้ดบางประเภทในระบบอื่นๆ ได้? คุณสามารถหลอก AI ให้สร้าง backdoor ให้คุณได้หรือไม่?"

ทีมรักษาความปลอดภัยต้องสร้างสมดุลระหว่างความเสี่ยงและประโยชน์ของ AI Sundaramoorthy ใช้ Microsoft Copilot บ่อยและพบว่ามีประโยชน์ต่องานของเขา แต่เขากล่าวว่า "คุณค่าที่ได้สูงเกินกว่าที่แฮกเกอร์จะไม่พุ่งเป้าไปที่มัน"

ประเด็นสำคัญอื่นๆ ที่ทีมรักษาความปลอดภัยควรตระหนักเกี่ยวกับ AI ได้แก่:

- เทคโนโลยีใหม่หรือการออกแบบอาจนำไปสู่ช่องโหว่

- ผู้ใช้ต้องได้รับการฝึกอบรมเพื่อปรับตัวกับความสามารถใหม่ของ AI

- การเข้าถึงข้อมูลอ่อนไหวด้วย AI สร้างความเสี่ยงใหม่

- ต้องรักษาความโปร่งใสและการควบคุมตลอดวงจรชีวิตของ AI

- ห่วงโซ่อุปทานของ AI อาจนำเข้าโค้ดที่มีช่องโหว่

- ขาดมาตรฐานการปฏิบัติตามกฎระเบียบที่ชัดเจน

- ผู้นำต้องสร้าง trusted pathway สู่แอปที่ใช้ generative AI

- AI มีความท้าทายที่เข้าใจยาก เช่น hallucinations

- ROI ของ AI ยังไม่ได้รับการพิสูจน์ในโลกจริง

Sundaramoorthy อธิบายว่า generative AI อาจล้มเหลวได้ทั้งแบบอันตรายและไม่อันตราย ความล้มเหลวที่อันตรายอาจเกี่ยวข้องกับผู้โจมตีที่หลีกเลี่ยงการป้องกันของ AI โดยแอบอ้างเป็นนักวิจัยเพื่อดึงข้อมูลอ่อนไหว ส่วนความล้มเหลวที่ไม่อันตรายอาจเกิดเมื่อเนื้อหาที่มีอคติเข้าสู่ output ของ AI โดยไม่ตั้งใจ

แม้จะมีความไม่แน่นอน แต่ก็มีวิธีที่เชื่อถือได้ในการรักษาความปลอดภัยโซลูชัน AI องค์กรมาตรฐานเช่น NIST และ OWASP ให้กรอบการจัดการความเสี่ยง MITRE เผยแพร่ ATLAS Matrix ซึ่งเป็นไลบรารีของกลยุทธ์ที่ผู้โจมตีใช้ Microsoft และ Google ก็มีเครื่องมือประเมินความปลอดภัยของ AI

องค์กรควรตรวจสอบให้แน่ใจว่าข้อมูลผู้ใช้ไม่เข้าสู่ข้อมูลโมเดลการฝึกฝน ใช้หลักการ least privilege เมื่อ fine-tuning โมเดล และควบคุมการเข้าถึงอย่างเข้มงวดเมื่อเชื่อมต่อกับแหล่งข้อมูลภายนอก

Sundaramoorthy สรุปว่า "แนวปฏิบัติที่ดีที่สุดใน cyber คือแนวปฏิบัติที่ดีที่สุดใน AI"

ส่วนประเด็นว่าควรใช้หรือไม่ใช้ AI นั้น Janelle Shane นักเขียนและนักวิจัย AI เสนอว่าการไม่ใช้ AI เลยก็เป็นทางเลือกหนึ่ง แต่ Sundaramoorthy มองต่างออกไป เขามองว่าหากมีปัญหาการเข้าถึงเอกสารภายในองค์กร "นั่นไม่ใช่ปัญหาของ AI แต่เป็นปัญหาของการควบคุมการเข้าถึง"

Why it matters

💡
ข่าวนี้น่าสนใจเพราะให้ภาพรวมที่ครอบคลุมเกี่ยวกับผลกระทบของ AI ต่อความปลอดภัยทางไซเบอร์ จากมุมมองของผู้เชี่ยวชาญระดับสูงของ Microsoft ผู้อ่านจะได้เรียนรู้เกี่ยวกับประโยชน์และความเสี่ยงของ AI แนวทางการรักษาความปลอดภัย และความท้าทายที่องค์กรต้องเผชิญ ข้อมูลนี้มีคุณค่าสำหรับผู้เชี่ยวชาญด้าน IT และผู้บริหารที่ต้องการเข้าใจและเตรียมพร้อมสำหรับการเปลี่ยนแปลงที่ AI นำมาสู่ภูมิทัศน์ด้านความปลอดภัย

ข้อมูลอ้างอิงจาก https://www.techrepublic.com/article/microsoft-generative-ai-security-risk-reduction-isc2/

Read more

OpenAI เผยรายงานพบช่องว่างผลิตภาพสูงถึง 6 เท่าระหว่างผู้ใช้ AI ระดับสูงกับผู้ใช้ทั่วไป

news

OpenAI เผยรายงานพบช่องว่างผลิตภาพสูงถึง 6 เท่าระหว่างผู้ใช้ AI ระดับสูงกับผู้ใช้ทั่วไป

รายงานล่าสุดเผยช่องว่างการใช้งาน AI ในองค์กรกำลังขยายตัว พนักงานกลุ่มนำใช้ ChatGPT มากกว่าเพื่อนร่วมงานถึง 6 เท่า โดยเฉพาะในงานเขียนโค้ดและวิเคราะห์ข้อมูล ปัญหาไม่ได้อยู่ที่เทคโนโลยี แต่เป็นโครงสร้างองค์กรที่ไม่พร้อมปรับตัว

By
Amazon, Microsoft ทุ่มเงินลงทุนด้าน AI ในอินเดียมหาศาล

news

Amazon, Microsoft ทุ่มเงินลงทุนด้าน AI ในอินเดียมหาศาล

ไมโครซอฟท์และอะเมซอนประกาศลงทุนรวมกว่า 52.5 พันล้านดอลลาร์ในอินเดีย เพื่อพัฒนาระบบนิเวศ AI และคลาวด์ ต่อยอดจากการลงทุนของ Google และ Intel ตอกย้ำการเติบโตของอินเดียในฐานะศูนย์กลางเทคโนโลยีระดับโลก

By
Google เพิ่มฟีเจอร์ใหม่เพื่อไฮไลท์แหล่งข่าวที่คุณสนใจมากที่สุด

news

Google เพิ่มฟีเจอร์ใหม่เพื่อไฮไลท์แหล่งข่าวที่คุณสนใจมากที่สุด

Google ปรับปรุงการค้นหาด้วยการขยายฟีเจอร์ Preferred Sources สำหรับผู้ใช้ภาษาอังกฤษทั่วโลก ไฮไลท์แหล่งข่าวที่สมัครสมาชิก และเพิ่มลิงก์แบบ inline ใน AI Mode เพื่อให้ผู้ใช้เข้าถึงแหล่งข้อมูลที่เชื่อถือได้ง่ายขึ้น

By
เทคโนโลยี AI ของ Instacart เพิ่มราคาสินค้าเดียวกันสูงถึง 20%

news

เทคโนโลยี AI ของ Instacart เพิ่มราคาสินค้าเดียวกันสูงถึง 20%

รายงานใหม่เผยว่า Instacart ใช้ AI ปรับราคาสินค้าชนิดเดียวกันต่างกันถึง 20% ตามการประเมิน "ความอ่อนไหวด้านราคา" ของลูกค้า ทำให้ผู้บริโภคอาจต้องจ่ายเพิ่มถึง 1,200 ดอลลาร์ต่อปี โดยที่ไม่รู้ตัวว่าถูกนำมาเป็นส่วนหนึ่งของการทดลอง

By