OpenAI เผยแพร่ Model Spec กำหนดกฎพื้นฐานสำหรับ AI

OpenAI เผยแพร่ Model Spec กำหนดกฎพื้นฐานสำหรับ AI

ปัญหาพฤติกรรมที่ไม่เหมาะสมของเครื่องมือ AI เช่น Bing AI ของ Microsoft ที่จำปีผิด กลายเป็นประเด็นย่อยในการรายงานข่าวเกี่ยวกับ AI แต่บ่อยครั้งที่ยากจะแยกแยะระหว่าง bug กับการออกแบบ AI model ที่ไม่ดีพอ เช่นกรณี Gemini image generator ของ Google ที่วาดภาพนาซีเนื่องจากการตั้งค่าตัวกรอง

และล่าสุด OpenAI ได้เผยแพร่ Model Spec ฉบับร่างแรก ซึ่งเป็นกรอบการทำงานที่จะกำหนดวิธีการตอบสนองของเครื่องมือ AI เช่น GPT-4 ในอนาคต โดยเสนอหลักการทั่วไป 3 ประการ ได้แก่

  1. AI model ควรช่วยเหลือนักพัฒนาและผู้ใช้ด้วยคำตอบที่เป็นประโยชน์และปฏิบัติตามคำแนะนำ
  2. ให้ประโยชน์ต่อมนุษยชาติโดยคำนึงถึงประโยชน์และโทษที่อาจเกิดขึ้น
  3. สะท้อนภาพลักษณ์ที่ดีของ OpenAI ในแง่ของบรรทัดฐานทางสังคมและกฎหมาย

นอกจากนี้ยังมีกฎอื่น ๆ เช่น:

  • ปฏิบัติตามสายการบังคับบัญชา
  • ปฏิบัติตามกฎหมายที่เกี่ยวข้อง
  • ไม่ให้ข้อมูลที่เป็นอันตราย
  • เคารพผู้สร้างและสิทธิของพวกเขา
  • ปกป้องความเป็นส่วนตัวของผู้คน
  • ไม่ตอบสนองด้วยเนื้อหา NSFW

OpenAI ระบุว่าต้องการให้บริษัทและผู้ใช้สามารถ "ปรับ" ระดับความ "เผ็ด" ของ AI model ได้ โดยยกตัวอย่างเนื้อหา NSFW ที่บริษัทกำลังพิจารณาว่าจะอนุญาตให้สร้างได้อย่างมีความรับผิดชอบผ่าน API และ ChatGPT ในบริบทที่เหมาะสมกับวัย

Joanne Jang ผู้จัดการฝ่ายผลิตภัณฑ์ของ OpenAI อธิบายว่าเป้าหมายคือรับฟังความคิดเห็นจากสาธารณะเพื่อกำหนดทิศทางว่า AI model ควรทำงานอย่างไร และกรอบนี้จะช่วยแยกแยะระหว่างสิ่งที่ตั้งใจทำกับ bug ได้ชัดเจนยิ่งขึ้น โดย default behavior ที่ OpenAI เสนอให้ model ปฏิบัติ ได้แก่ ข้อสันนิษฐานเจตนาที่ดีที่สุดจากผู้ใช้หรือนักพัฒนา ถามคำถามเพื่อความชัดเจน ไม่ก้าวก่าย มีมุมมองที่เป็นกลาง ไม่สนับสนุนความเกลียดชัง ไม่พยายามเปลี่ยนใจใคร และแสดงความไม่แน่ใจ

Jang เรียกพฤติกรรมของ model ว่าเป็น "วิทยาศาสตร์ใหม่" และระบุว่า Model Spec มีไว้เป็นเอกสารที่มีชีวิตซึ่งอาจมีการปรับปรุงบ่อย ๆ ตอนนี้ OpenAI จะรอรับฟังความคิดเห็นจากสาธารณะและผู้มีส่วนได้ส่วนเสียต่าง ๆ ที่ใช้ model ของบริษัท แม้ Jang จะไม่ได้ระบุกรอบเวลาในการเผยแพร่ Model Spec ฉบับที่สอง

OpenAI ไม่ได้ระบุว่าจะนำข้อเสนอแนะจากสาธารณะมาใช้มากน้อยเพียงใด หรือใครจะเป็นผู้ตัดสินใจว่าต้องเปลี่ยนแปลงอะไรบ้าง ท้ายที่สุดแล้วบริษัทมีอำนาจตัดสินใจขั้นสุดท้ายว่า model จะทำงานอย่างไร และระบุในโพสต์ว่า "เราหวังว่าสิ่งนี้จะให้ข้อมูลเชิงลึกเบื้องต้นแก่เราในขณะที่พัฒนากระบวนการที่แข็งแกร่งเพื่อรวบรวมและผนวกข้อเสนอแนะ เพื่อให้มั่นใจว่าเรากำลังสร้างสรรค์อย่างรับผิดชอบเพื่อบรรลุพันธกิจของเรา"

ข้อมูลอ้างอิงจาก OpenAI’s Model Spec outlines some basic rules for AI

Read more

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

news

AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนโจมตีและก่ออาชญากรรมจากความเกลียดชัง

งานวิจัยเผย AI Chatbot 8 ใน 10 ตัว มีความเสี่ยงช่วยวางแผนก่อเหตุรุนแรง โดย Perplexity ช่วยเหลือสูงสุด 100% ขณะที่ Claude ปฏิเสธคำขออันตรายได้ดีที่สุด แต่ยังไม่มี Chatbot ใดปลอดภัยสมบูรณ์

By
องค์กรหันพึ่ง AI ด้านความปลอดภัย แต่ยังเชื่อมั่นการควบคุมโดยมนุษย์มากกว่า

news

องค์กรหันพึ่ง AI ด้านความปลอดภัย แต่ยังเชื่อมั่นการควบคุมโดยมนุษย์มากกว่า

รายงานจาก Crogl เผยองค์กรรับ Security Alert กว่า 4,330 รายการ/วัน แต่จัดการได้เพียง 37% แม้ 62% นำ AI มาใช้แล้ว แต่ 52% ยังเชื่อมั่นว่ามนุษย์คือ Last Line of Defense ที่แท้จริง

By
AI ลุกลามสู่สื่อชั้นนำ: เมื่อบทความในหนังสือพิมพ์ดังอาจไม่ได้เขียนโดยมนุษย์

news

AI ลุกลามสู่สื่อชั้นนำ: เมื่อบทความในหนังสือพิมพ์ดังอาจไม่ได้เขียนโดยมนุษย์

นักเขียนตั้งข้อสงสัยบทความ NYT ว่าสร้างด้วย AI จุดชนวนถกเถียงครั้งใหญ่ งานวิจัยพบ AI แพร่กระจายในสื่อชั้นนำทั่วสหรัฐฯ พร้อมเรียกร้องนโยบาย Disclosure ที่ชัดเจน

By
Anthropic เปิดตัวฟีเจอร์ใหม่ ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟน

news

Anthropic เปิดตัวฟีเจอร์ใหม่ ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟน

Anthropic เปิดตัวฟีเจอร์ให้ Claude ควบคุมคอมพิวเตอร์ผ่านสมาร์ทโฟนในช่วง Research Preview สำหรับผู้ใช้ Claude Pro และ Max พร้อมเชื่อมต่อ Gmail, Drive และ Slack แต่ยังมีข้อควรระวังด้าน Cybersecurity

By