OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ

OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW

Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ

ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่

OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร

ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน

ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา

OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม

ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions

Read more

Claude เพิ่ม Integration กับ Uber, Spotify และอีก 13 แอปดัง ลดช่องว่างการแข่งขันกับ Gemini และ ChatGPT

news

Claude เพิ่ม Integration กับ Uber, Spotify และอีก 13 แอปดัง ลดช่องว่างการแข่งขันกับ Gemini และ ChatGPT

Anthropic เพิ่มฟีเจอร์ App Connectors ให้ Claude เชื่อมต่อกับ 15 แอปยอดนิยม เช่น Uber, Spotify และ Booking.com สั่งงานได้จริงในแชทเดียว พร้อมระบบยืนยันทุก Transaction เพื่อความปลอดภัยของผู้ใช้

By
Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่ หลังประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ

news

Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่ หลังประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ

Bed Bath & Beyond เตรียมลดพนักงานครั้งใหญ่หลัง CEO Marcus Lemonis ประกาศเดินหน้าสู่องค์กร AI เต็มรูปแบบ กระทบแผนก Supply Chain, IT และ Marketing ขณะผลประกอบการ Q1 พุ่ง 7% ดีที่สุดในรอบ 19 ไตรมาส

By
ChatGPT บน CarPlay: เปิดตัวแล้ว แต่ยังคง Hallucinate อยู่ดี

news

ChatGPT บน CarPlay: เปิดตัวแล้ว แต่ยังคง Hallucinate อยู่ดี

OpenAI เปิดตัว ChatGPT บน CarPlay สำหรับ iOS 26.4 ใช้งานผ่าน Voice Mode ขณะขับขี่ แต่พบปัญหา Hallucination ให้ข้อมูลผิดพลาด ซึ่งอันตรายกว่าปกติเพราะผู้ใช้ไม่สามารถตรวจสอบข้อมูลได้ระหว่างขับรถ

By