Scale AI ถูกกระทรวงแรงงานสหรัฐฯ สอบสวนปมละเมิดกฎหมายแรงงาน

Scale AI บริษัท Startup ด้าน Data Labeling ถูกกระทรวงแรงงานสหรัฐฯ สอบสวนการละเมิดกฎหมายแรงงาน หลังมีข้อร้องเรียนจากพนักงานเรื่องค่าตอบแทนต่ำและการจัดประเภทพนักงานไม่ถูกต้อง

Scale AI ถูกกระทรวงแรงงานสหรัฐฯ สอบสวนปมละเมิดกฎหมายแรงงาน

Key takeaway

  • Scale AI ซึ่งเป็นบริษัท Startup ด้าน Data Labeling กำลังถูกกระทรวงแรงงานสหรัฐฯ สอบสวนในประเด็นการละเมิดกฎหมาย Fair Labor Standards Act โดยมีข้อกังวลเกี่ยวกับการจ่ายค่าตอบแทนและการจัดประเภทพนักงาน
  • บริษัทมีผู้ร่วมงาน (Contributors) กว่าหมื่นคนจาก 9,000 เมืองทั่วสหรัฐฯ ในการทำ Data Labeling สำหรับ AI Training Datasets โดยเฉพาะสำหรับโมเดลอย่าง GPT-4 ของ OpenAI แต่กลับมีข้อร้องเรียนเรื่องค่าตอบแทนต่ำและความต้องการที่สูงเกินไป
  • แม้จะเผชิญกับปัญหาด้านแรงงานและการฟ้องร้องจากอดีตพนักงาน แต่ Scale AI ยังคงได้รับความไว้วางใจจากกระทรวงกลาโหมสหรัฐฯ ด้วยสัญญามูลค่าหลายล้านดอลลาร์ในการพัฒนา AI Agents สำหรับการวางแผนทางทหาร

กระทรวงแรงงานสหรัฐอเมริกาเปิดการสอบสวน Scale AI บริษัท Startup ด้าน Data Labeling หลังพบข้อสงสัยการละเมิดกฎหมาย Fair Labor Standards Act โดยการสอบสวนนี้เริ่มขึ้นตั้งแต่สมัยรัฐบาลประธานาธิบดีโจ ไบเดน แต่เพิ่งถูกเปิดเผยต่อสาธารณะ

Scale AI ก่อตั้งเมื่อปี 2016 ให้บริการ AI Training Datasets สำหรับพัฒนา Large Language Models อย่าง GPT-4 ของ OpenAI โดยใช้ Contributors กว่าหมื่นคนจาก 9,000 เมืองทั่วสหรัฐฯ ในการ Label ข้อมูล ทำให้บริษัทมีลักษณะเป็น Gig Work Platform สำหรับนักวิจัยและ Data Scientists

ทางบริษัทปฏิเสธข้อกล่าวหาทั้งหมด โดยยืนยันว่าได้ปฏิบัติตามกฎหมายอย่างเคร่งครัดและจ่ายค่าตอบแทนในระดับที่เหมาะสม อย่างไรก็ตาม Scale AI เคยถูกวิจารณ์เรื่องแนวปฏิบัติด้านแรงงานมาก่อน โดย Washington Post เคยรายงานการร้องเรียนจาก Contributors ต่างชาติเรื่องค่าตอบแทนต่ำและความต้องการที่สูงเกินไป

ล่าสุดในช่วงเดือนธันวาคมและมกราคมที่ผ่านมา อดีตพนักงานสองรายได้ยื่นฟ้องบริษัทในข้อหาจ่ายค่าแรงต่ำและจัดประเภทพนักงานผิด แม้จะมีปัญหาด้านแรงงาน แต่ Scale AI ยังคงได้รับสัญญามูลค่าหลายล้านดอลลาร์จากกระทรวงกลาโหมสหรัฐฯ เพื่อพัฒนา AI Agents สำหรับการวางแผนและปฏิบัติการทางทหาร

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ทำงานในวงการเทคโนโลยีและ AI เนื่องจากเผยให้เห็นถึงความท้าทายด้านจริยธรรมและกฎหมายแรงงานในอุตสาหกรรม AI ที่กำลังเติบโตอย่างรวดเร็ว กรณีของ Scale AI ซึ่งเป็นบริษัทที่มีบทบาทสำคัญในการพัฒนา AI ระดับโลกอย่าง GPT-4 กำลังถูกตรวจสอบ สะท้อนให้เห็นถึงความจำเป็นในการสร้างมาตรฐานการจ้างงานที่เป็นธรรมในยุคดิจิทัล และผลกระทบต่อการพัฒนา AI ในอนาคต

ข้อมูลอ้างอิงจาก https://siliconangle.com/2025/03/06/scale-ai-faces-probe-amid-allegations-underpaying-data-labeling-contractors/

Read more

AI Agents แพร่กระจายทั่วองค์กร 94% ห่วง AI Sprawl เสี่ยงซับซ้อน-ละเมิดความปลอดภัย

news

AI Agents แพร่กระจายทั่วองค์กร 94% ห่วง AI Sprawl เสี่ยงซับซ้อน-ละเมิดความปลอดภัย

OutSystems เผยผลสำรวจ IT Leaders กว่า 1,900 ราย พบ 96% ขององค์กรใช้ AI Agents แล้ว แต่ 94% กังวล AI Sprawl เพิ่มความเสี่ยงด้าน Security มีเพียง 12% ที่มี Centralized Platform รับมือปัญหานี้อย่างจริงจัง

By
Claude, OpenClaw และความเป็นจริงใหม่: ยุค AI Agents มาถึงแล้ว — พร้อมกับความท้าทายที่ต้องเผชิญ

news

Claude, OpenClaw และความเป็นจริงใหม่: ยุค AI Agents มาถึงแล้ว — พร้อมกับความท้าทายที่ต้องเผชิญ

ยุค Agentic AI มาถึงแล้ว! Claude Cowork, OpenClaw และ Google Antigravity กำลังปฏิวัติการทำงาน แต่ก็มาพร้อมความเสี่ยงด้าน Governance และ Responsible AI ที่ทุกภาคส่วนต้องร่วมกันรับมืออย่างจริงจัง

By
Anthropic เปิดตัว Claude Managed Agents เครื่องมือสร้างและ Deploy AI Agents สำหรับธุรกิจ

news

Anthropic เปิดตัว Claude Managed Agents เครื่องมือสร้างและ Deploy AI Agents สำหรับธุรกิจ

Anthropic เปิดตัว Claude Managed Agents เครื่องมือสำหรับธุรกิจในการสร้างและ Deploy AI Agents พร้อม Infrastructure แบบ Out-of-the-Box ลดความซับซ้อนทางเทคนิค ขณะที่ ARR ของบริษัทพุ่งทะลุ 3 หมื่นล้านดอลลาร์

By