OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ

OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW

Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ

ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่

OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร

ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน

ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา

OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม

ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions

Read more

FinOps ได้รับแรงหนุนจากผู้ให้บริการคลาวด์รายใหญ่ ขณะที่ต้นทุน AI และ SaaS กลายเป็นจุดสนใจ

news

FinOps ได้รับแรงหนุนจากผู้ให้บริการคลาวด์รายใหญ่ ขณะที่ต้นทุน AI และ SaaS กลายเป็นจุดสนใจ

FinOps Foundation ได้รับการสนับสนุนจากผู้ให้บริการคลาวด์ยักษ์ใหญ่อย่าง AWS, Microsoft, Google Cloud และ Oracle ในการพัฒนามาตรฐาน FOCUS 1.2 ที่ครอบคลุมการจัดการต้นทุน AI และ SaaS พร้อมขยายฐานสมาชิกใหม่

By
CEO ของ Anthropic คัดค้านการระงับกฎหมาย AI ของรัฐที่จะใช้เวลานานถึง 10 ปี

news

CEO ของ Anthropic คัดค้านการระงับกฎหมาย AI ของรัฐที่จะใช้เวลานานถึง 10 ปี

ซีอีโอ Anthropic คัดค้านการระงับกฎหมาย AI 10 ปี เตือนเทคโนโลยีพัฒนาเร็วเกินกว่าจะหยุดควบคุม พร้อมเสนอให้รัฐบาลกลางสร้างมาตรฐานความโปร่งใสสำหรับผู้พัฒนา AI แทน

By
AI Workflow Builders กำลังปฏิวัติการเรียนรู้และพัฒนาในปี 2025

news

AI Workflow Builders กำลังปฏิวัติการเรียนรู้และพัฒนาในปี 2025

ระบบ AI Workflow Builders กำลังปฏิวัติวงการ L&D ด้วยแพลตฟอร์ม no-code ที่ผสานเทคโนโลยี ML, NLP และ Data Analytics สร้างประสบการณ์การเรียนรู้แบบไดนามิกและเฉพาะบุคคล พร้อมระบบวิเคราะห์แบบเรียลไทม์

By
Perplexity ได้รับคำค้นหา 780 ล้านครั้งในเดือนที่แล้ว CEO กล่าว

news

Perplexity ได้รับคำค้นหา 780 ล้านครั้งในเดือนที่แล้ว CEO กล่าว

Perplexity เผยสถิติยอดค้นหาพุ่ง 780 ล้านครั้งในเดือนพฤษภาคม เติบโต 20% ต่อเดือน พร้อมเปิดตัวเบราว์เซอร์ Comet ที่จะปฏิวัติการใช้งาน AI ให้เป็นผู้ช่วยส่วนตัวในชีวิตประจำวัน

By