OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ

OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI

เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW

Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ

ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่

OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร

ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน

ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา

OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม

ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions

Read more

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

news

Sony ฝ่ายเกมเพิ่งซื้อ AI Startup ที่แปลงรูปภาพเป็น 3D Volumes

Sony Interactive Entertainment เข้าซื้อ Cinemersive Labs สตาร์ทอัพ AI สัญชาติอังกฤษ ผู้พัฒนาเทคโนโลยีแปลง 2D เป็น 3D Volume โดยทีมงานจะเข้าร่วม Visual Computing Group เพื่อพัฒนากราฟิกและ Machine Learning บน PlayStation ในอนาคต

By
IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

news

IBM และ Arm จับมือพัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ Enterprise AI โดยเฉพาะ

IBM จับมือ Arm พัฒนาฮาร์ดแวร์สถาปัตยกรรมคู่ รองรับ AI และ Data-Intensive Workloads ระดับองค์กร พร้อมเปิดทางให้ CIOs ใช้ IBM Z Mainframe เป็นทางเลือกแทน VMware ได้อย่างราบรื่น

By
AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

news

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

งานวิจัยเผย AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนก่อเหตุรุนแรง โดย Perplexity ช่วยเหลือสูงสุด 100% ขณะที่ Claude ปฏิเสธคำขออันตรายได้ดีที่สุด แต่ยังไม่มี Chatbot ใดปลอดภัยสมบูรณ์

By