OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ

OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW

Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ

ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่

OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร

ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน

ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา

OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม

ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions

Read more

Memories.ai กำลังเปลี่ยนทิศทาง LUCI AI pin จากอุปกรณ์สำหรับผู้บริโภคให้เป็นแพลตฟอร์มสำหรับนักพัฒนา

news

Memories.ai กำลังเปลี่ยนทิศทาง LUCI AI pin จากอุปกรณ์สำหรับผู้บริโภคให้เป็นแพลตฟอร์มสำหรับนักพัฒนา

Memories.ai ปรับทิศทาง Project LUCI จากอุปกรณ์สวมใส่ AI สำหรับผู้บริโภคให้เป็นแพลตฟอร์มสำหรับนักพัฒนา มุ่งแก้ปัญหาที่อุปกรณ์ AI สวมใส่รุ่นก่อนๆ เคยประสบ โดยเน้นความสามารถด้านความจำและการเข้าใจบริบท พร้อมเปิดตัวในงาน CES 2026

By
การเลิกจ้างด้วย AI: เมื่อความจริงไม่ตรงกับเรื่องเล่าขององค์กร ตามรายงานจาก Oxford Economics

news

การเลิกจ้างด้วย AI: เมื่อความจริงไม่ตรงกับเรื่องเล่าขององค์กร ตามรายงานจาก Oxford Economics

รายงานจาก Oxford Economics เผยว่าบริษัทต่างๆ ไม่ได้แทนที่พนักงานด้วย AI อย่างมีนัยสำคัญ แต่ใช้เป็นข้ออ้างในการลดจำนวนพนักงาน โดยการเลิกจ้างที่อ้างว่าเกี่ยวกับ AI คิดเป็นเพียง 4.5% ของการสูญเสียงานทั้งหมด ขณะที่ผลิตภาพไม่ได้เพิ่มขึ้นตามที่ควรจะเป็น

By
OpenAI เปิดตัวฟีเจอร์ 'ChatGPT Health' พร้อมการเชื่อมต่อกับ Apple Health

news

OpenAI เปิดตัวฟีเจอร์ 'ChatGPT Health' พร้อมการเชื่อมต่อกับ Apple Health

OpenAI เปิดตัว ChatGPT Health ฟีเจอร์ใหม่ที่เชื่อมต่อกับ Apple Health และแพลตฟอร์มสุขภาพอื่นๆ พัฒนาร่วมกับแพทย์กว่า 260 คน จาก 60 ประเทศ เน้นความปลอดภัยและความเป็นส่วนตัว โดยไม่นำข้อมูลไปฝึกโมเดล AI

By
CIO จะรับมือกับภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้อย่างไร

news

CIO จะรับมือกับภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้อย่างไร

ภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI กำลังเพิ่มความเสี่ยงให้องค์กร โดยเฉพาะในภาคสาธารณสุข CIO ต้องสร้างสมดุลระหว่างความปลอดภัยกับนวัตกรรม ผ่านการฝึกอบรมพนักงาน การใช้เทคโนโลยี Zero Trust และการยืนยันตัวตนหลายปัจจัย

By