AI ปะทะ AI: OpenAI เปิดตัวเครื่องมือตรวจจับ Deepfake แนวทางใหม่ในการต่อสู้กับข้อมูลเท็จ

บริษัทสตาร์ทอัพชั้นนำด้าน AI ได้เข้าร่วมความพยายามของอุตสาหกรรมในการตรวจจับเนื้อหาที่สร้างขึ้นด้วย Artificial intelligence

AI ปะทะ AI: OpenAI เปิดตัวเครื่องมือตรวจจับ Deepfake แนวทางใหม่ในการต่อสู้กับข้อมูลเท็จ

ในขณะที่ผู้เชี่ยวชาญหลายท่านต่างเตือนว่า ภาพ เสียง และวิดีโอที่สร้างขึ้นโดย AI อาจส่งผลกระทบต่อการเลือกตั้งในฤดูใบไม้ร่วง OpenAI ได้ปล่อยเครื่องมือที่ออกแบบมาเพื่อตรวจจับเนื้อหาที่สร้างขึ้นโดย DALL-E ซึ่งเป็น Image generator ที่ได้รับความนิยมของบริษัทเอง อย่างไรก็ตาม AI startup ชั้นนำแห่งนี้ยอมรับว่า เครื่องมือนี้เป็นเพียงส่วนเล็กๆ ของสิ่งที่จำเป็นในการต่อสู้กับ deepfakes ในช่วงเดือนและปีต่อๆ ไป

เมื่อวันอังคารที่ผ่านมา OpenAI กล่าวว่าจะแบ่งปันตัวตรวจจับ Deepfake ตัวใหม่กับนักวิจัยด้านข้อมูลเท็จกลุ่มเล็กๆ เพื่อให้พวกเขาสามารถทดสอบเครื่องมือในสถานการณ์จริง และช่วยระบุวิธีที่จะปรับปรุงให้ดีขึ้น

"นี่เป็นการเริ่มต้นงานวิจัยใหม่" Sandhini Agarwal นักวิจัยของ OpenAI ที่มุ่งเน้นด้านความปลอดภัยและนโยบาย กล่าว "ซึ่งเป็นสิ่งที่จำเป็นอย่างยิ่ง"

OpenAI ได้ประกาศว่า Detector ตัวใหม่ของบริษัทสามารถระบุภาพที่สร้างโดย DALL-E 3 ซึ่งเป็น image generator เวอร์ชันล่าสุดได้ถูกต้องถึง 98.8% อย่างไรก็ตาม บริษัทระบุว่า tool นี้ไม่ได้ถูกออกแบบมาเพื่อตรวจจับภาพที่สร้างโดย Generator ยอดนิยมอื่นๆ เช่น Midjourney และ Stability AI

เนื่องจาก Deepfake detector ประเภทนี้ขับเคลื่อนด้วยความน่าจะเป็น จึงไม่สามารถทำงานได้อย่างสมบูรณ์แบบ ดังนั้น เช่นเดียวกับบริษัท องค์กรไม่แสวงหาผลกำไร และห้องปฏิบัติการวิจัยจำนวนมาก OpenAI จึงพยายามแก้ปัญหานี้ในวิธีอื่นๆ ด้วย

เช่นเดียวกับยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Meta บริษัท OpenAI กำลังเข้าร่วมเป็นคณะกรรมการบริหารของ Coalition for Content Provenance and Authenticity หรือ C2PA ซึ่งเป็นความพยายามในการพัฒนา credentials สำหรับ digital content มาตรฐาน C2PA เป็นเสมือน "ฉลากโภชนาการ" สำหรับรูปภาพ วิดีโอ คลิปเสียง และไฟล์อื่นๆ ที่แสดงว่าเมื่อใดและอย่างไรที่ถูกสร้างหรือแก้ไข รวมถึงการใช้ AI ด้วย

OpenAI ยังกล่าวอีกว่ากำลังพัฒนาวิธีการ "Watermarking" เสียงที่สร้างโดย AI เพื่อให้สามารถระบุได้ง่ายในทันที บริษัทหวังว่าจะทำให้ Watermarks ลบออกไม่ได้ง่าย ๆ

ด้วยการนำโดยบริษัทอย่าง OpenAI, Google และ Meta อุตสาหกรรม AI กำลังเผชิญกับแรงกดดันที่เพิ่มขึ้นในการรับผิดชอบต่อเนื้อหาที่ผลิตภัณฑ์ของพวกเขาสร้างขึ้น ผู้เชี่ยวชาญกำลังเรียกร้องให้อุตสาหกรรมป้องกันไม่ให้ผู้ใช้สร้างเนื้อหาที่ทำให้เข้าใจผิดและเป็นอันตราย และเสนอวิธีการติดตามต้นกำเนิดและการกระจายของเนื้อหาเหล่านั้น

ในปีที่เต็มไปด้วยการเลือกตั้งครั้งสำคัญทั่วโลก เสียงเรียกร้องให้มีวิธีการติดตาม lineage ของเนื้อหาที่สร้างโดย AI กำลังทวีความรุนแรงมากขึ้น ในช่วงไม่กี่เดือนที่ผ่านมา การปลอมแปลงเสียงและภาพได้ส่งผลกระทบต่อการรณรงค์หาเสียงและการลงคะแนนเสียงในสถานที่ต่างๆ รวมถึงสโลวาเกีย ไต้หวัน และอินเดียแล้ว

Deepfake Detector ตัวใหม่ของ OpenAI อาจช่วยแก้ปัญหาได้ แต่ก็ไม่สามารถแก้ปัญหาได้ทั้งหมด ตามที่คุณ Agarwal กล่าวไว้ว่า ในการต่อสู้กับ Deepfakes นั้น "ไม่มีวิธีใดที่จะแก้ปัญหานั้นได้ง่ายและเห็นผลทันที"

ข้อมูลอ้างอิงจาก OpenAI Releases ‘Deepfake’ Detector to Disinformation Researchers

Read more

Jeff Bezos ก่อตั้งสตาร์ทอัพ AI ด้านการผลิต มูลค่าหลายพันล้านดอลลาร์

news

Jeff Bezos ก่อตั้งสตาร์ทอัพ AI ด้านการผลิต มูลค่าหลายพันล้านดอลลาร์

Jeff Bezos กลับมาดำรงบทบาท Co-CEO ของ Project Prometheus สตาร์ทอัพ AI ด้านการผลิต ระดมทุนได้ 6.2 พันล้านดอลลาร์ มุ่งพัฒนา AI สำหรับวิศวกรรมและการผลิตในหลายอุตสาหกรรม

By
OpenAI และ Foxconn ประกาศความร่วมมือเชิงกลยุทธ์พัฒนาโครงสร้างพื้นฐาน AI ในสหรัฐอเมริกา

news

OpenAI และ Foxconn ประกาศความร่วมมือเชิงกลยุทธ์พัฒนาโครงสร้างพื้นฐาน AI ในสหรัฐอเมริกา

OpenAI ร่วมมือ Foxconn พัฒนา AI infrastructure ในสหรัฐฯ ออกแบบ data center hardware หลายรุ่น เสริมสร้าง domestic supply chain และผลิตคอมโพเนนต์หลักในประเทศ เพื่อรักษาความเป็นผู้นำด้าน AI ของอเมริกา

By
AI แบบ Agentic กำลังช่วยปรับโครงสร้างการตลาด B2B ให้ยืดหยุ่นขึ้น

news

AI แบบ Agentic กำลังช่วยปรับโครงสร้างการตลาด B2B ให้ยืดหยุ่นขึ้น

Agentic AI กำลังปฏิวัติวงการ B2B Social Media Marketing ด้วยความสามารถในการวางแผน ตัดสินใจ และดำเนินการอัตโนมัติ ช่วยให้ทีม Marketing จัดการแคมเปญหลายรายการพร้อมกัน ปรับเนื้อหาเฉพาะบุคคล และตอบสนองตลาดแบบ Real-time ได้อย่างมีประสิทธิภาพ

By
LLM เริ่มเขียนมัลแวร์ได้ดีขึ้น แต่ยังไม่พร้อมสำหรับการใช้งานจริง

news

LLM เริ่มเขียนมัลแวร์ได้ดีขึ้น แต่ยังไม่พร้อมสำหรับการใช้งานจริง

Netskope Threat Labs ทดสอบพบว่า GPT-3.5 และ GPT-4 สร้างมัลแวร์ได้สำเร็จ แต่โค้ดยังขาดความน่าเชื่อถือและประสิทธิภาพสำหรับใช้งานจริง GPT-5 แม้จะดีขึ้นแต่หลบเลี่ยง guardrails ยาก ภัยคุกคามจริงยังต้องอาศัยมนุษย์ควบคุม

By