OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ

OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW

Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ

ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่

OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร

ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน

ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา

OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม

ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions

Read more

Claude Code Source Leak ถูกใช้เป็นเหยื่อล่อแพร่กระจาย Infostealer Malware บน GitHub

news

Claude Code Source Leak ถูกใช้เป็นเหยื่อล่อแพร่กระจาย Infostealer Malware บน GitHub

หลัง Anthropic หลุด Source Code ของ Claude Code โดยไม่ตั้งใจ แฮกเกอร์รีบสร้าง GitHub Repository ปลอม หลอกให้ดาวน์โหลดไฟล์ที่ซ่อน Vidar Infostealer และ GhostSocks ระวังอย่าหลงเชื่อ!"

By
Canon มองว่า AI คือกุญแจสำคัญในการพัฒนาเทคโนโลยีกล้องยุคใหม่

news

Canon มองว่า AI คือกุญแจสำคัญในการพัฒนาเทคโนโลยีกล้องยุคใหม่

Canon เปิดวิสัยทัศน์ที่งาน CP+ 2025 ว่า AI และ Deep Learning จะเป็นแรงขับเคลื่อนสำคัญของวงการกล้อง ครอบคลุมตั้งแต่ Autofocus, Noise Reduction ไปจนถึง Image Processing ยุคใหม่

By
AI ควบคุมการจราจรหุ่นยนต์ในคลังสินค้าอัตโนมัติ เพิ่ม Throughput ได้สูงถึง 25%

news

AI ควบคุมการจราจรหุ่นยนต์ในคลังสินค้าอัตโนมัติ เพิ่ม Throughput ได้สูงถึง 25%

MIT ร่วมกับ Symbotic พัฒนาระบบ AI แบบ Hybrid ใช้ Deep Reinforcement Learning ควบคุมการจราจรหุ่นยนต์ในคลังสินค้าอัตโนมัติ เพิ่ม Throughput ได้สูงถึง 25% และรองรับความซับซ้อนที่เพิ่มขึ้นแบบ Real-time

By
Pluralsight เปิดตัว AI Sandbox, Guided Learning และ Enterprise Integrations ใหม่ เพื่อเสริมทักษะเทคโนโลยีให้พร้อมใช้งานจริง

news

Pluralsight เปิดตัว AI Sandbox, Guided Learning และ Enterprise Integrations ใหม่ เพื่อเสริมทักษะเทคโนโลยีให้พร้อมใช้งานจริง

Pluralsight เปิดตัวฟีเจอร์ใหม่บน Platform ครอบคลุม AI Prompt Sandbox, Iris Guided Learning และการเชื่อมต่อเชิงลึกกับระบบ Enterprise อย่าง Workday, Cornerstone และ SuccessFactors เพื่อฝัง Skill Development เข้าสู่การทำงานจริง

By