ต้นทุนคาร์บอนที่ซ่อนอยู่จากการแชทกับ AI

ผลการศึกษาจากเยอรมนีเผยต้นทุนคาร์บอนที่ซ่อนอยู่ในการใช้งาน AI chatbot โดยพบว่าโมเดลที่มีความสามารถในการให้เหตุผลสูงจะปล่อย CO2 มากกว่าโมเดลพื้นฐานถึง 50 เท่า สะท้อนผลกระทบต่อสิ่งแวดล้อมที่น่ากังวล

ต้นทุนคาร์บอนที่ซ่อนอยู่จากการแชทกับ AI

Key takeaway

  • การใช้งาน AI แบบ Large Language Model (LLM) ส่งผลกระทบต่อสิ่งแวดล้อมอย่างมีนัยสำคัญ โดยโมเดลที่มีความสามารถในการให้เหตุผลขั้นสูงจะปล่อย CO2 มากกว่าโมเดลพื้นฐานถึง 50 เท่า เนื่องจากต้องใช้พลังงานในการประมวลผลมากกว่า
  • จากการศึกษาพบว่าไม่มีความสัมพันธ์โดยตรงระหว่างการปล่อย CO2 กับความแม่นยำของ LLM กล่าวคือ การที่โมเดลใช้พลังงานมากและปล่อย CO2 สูง ไม่ได้หมายความว่าจะให้ผลลัพธ์ที่แม่นยำกว่าเสมอไป
  • ผู้ใช้สามารถช่วยลดผลกระทบต่อสิ่งแวดล้อมได้โดยการเลือกใช้โมเดล AI ให้เหมาะสมกับงาน และควรสั่งให้ AI สร้างคำตอบที่กระชับ รวมถึงจำกัดการใช้โมเดลที่มีความซับซ้อนสูงเฉพาะงานที่จำเป็นจริงๆ เท่านั้น

เครื่องมือ AI อย่าง ChatGPT ได้เปลี่ยนแปลงโลกส่วนตัวและการทำงานของเรา โดยประมาณ 52% ของผู้ใหญ่ชาวอเมริกันใช้ Large Language Model (LLM) เป็นประจำ ล่าสุด การศึกษาใหม่ได้เผยให้เห็นถึงต้นทุนด้านสิ่งแวดล้อมมหาศาลจากการใช้งาน AI ซึ่งอาจทำให้คุณต้องคิดให้รอบคอบมากขึ้นเกี่ยวกับการเลือกใช้และวิธีการใช้งานแชทบอท

นักวิจัยจาก Hochschule München University of Applied Sciences (HM) ประเทศเยอรมนี ได้ศึกษา LLM 14 รูปแบบที่แตกต่างกัน ตั้งแต่พื้นฐานไปจนถึงฐานความรู้ที่ซับซ้อน โดยป้อนคำถามมาตรฐานเดียวกัน 1,000 คำถาม จำนวน "token" ที่ LLM สร้างขึ้นสามารถแปลงเป็นการปล่อยก๊าซเรือนกระจกได้

"ผลกระทบต่อสิ่งแวดล้อมจากการถามคำถาม LLM ขึ้นอยู่กับวิธีการประมวลผลเหตุผลของพวกมัน โดยกระบวนการให้เหตุผลที่ชัดเจนจะเพิ่มการใช้พลังงานและการปล่อยคาร์บอนอย่างมีนัยสำคัญ" Maximilian Dauner ผู้เขียนหลักและนักวิจัยที่ HM กล่าว "เราพบว่าโมเดลที่มีความสามารถในการให้เหตุผลปล่อย CO2 มากกว่าโมเดลที่ตอบกระชับถึง 50 เท่า"

เข้าใจการทำงานของ LLM และผลกระทบต่อสิ่งแวดล้อม

ในการทำความเข้าใจว่า LLM ทำงานอย่างไรและส่งผลต่อสิ่งแวดล้อมมากเพียงใด สิ่งสำคัญคือต้องพิจารณา token และ parameter เมื่อเราพิมพ์คำสั่ง เราสร้าง token ซึ่งเป็นส่วนประกอบของคำสั่ง จากนั้น LLM จะสร้าง token เพิ่มเติมเมื่อเริ่มทำงาน LLM ที่มีความสามารถในการให้เหตุผลขั้นสูงจะสร้าง token มากขึ้น token คือการประมวลผล (การค้นหา เชื่อมโยง ประเมิน) และการประมวลผลต้องใช้พลังงาน พลังงานนี้ส่งผลให้เกิดการปล่อย CO2

เมื่อ LLM ได้รับการฝึกฝน มันจะ "เรียนรู้" โดยการปรับ parameter ซึ่งเป็นตัวเลขภายในเครือข่ายประสาทเทียม parameter เหล่านี้ควบคุมวิธีการที่โมเดลทำนาย token หนึ่งหลังจากอีก token หนึ่ง โมเดลที่มี parameter น้อยกว่าจะถือว่าง่ายกว่าและมี "weight" (ตัวเลขที่บอก AI ว่าสิ่งใดสำคัญเมื่อประมวลผลข้อมูล) น้อยกว่า และจะสร้าง token น้อยกว่าแต่อาจไม่แม่นยำเท่า ในทางกลับกัน โมเดลที่มี parameter จำนวนมากจะมี weight มากด้วย และควรมีความแม่นยำสูงกว่า แต่ไม่ได้เป็นเช่นนั้นเสมอไป

น่าเสียดายที่ LLM ที่ซับซ้อนและแม่นยำที่สุดก็ใช้พลังงานมากที่สุดด้วย

วิธีการศึกษาและผลลัพธ์

นักวิทยาศาสตร์ใช้คอมพิวเตอร์ NVIDIA A100 GPU และ Perun framework (ซึ่งวิเคราะห์ประสิทธิภาพของ LLM และพลังงานที่ต้องการ) เพื่อวัดการใช้พลังงาน โดยใช้ค่าเฉลี่ยการปล่อยมลพิษที่ 480 gCO₂/kWh จากนั้นให้แต่ละโมเดลใน 14 โมเดลตอบคำถามควิซ 1,000 ข้อที่ครอบคลุมปรัชญา ประวัติศาสตร์โลก กฎหมายระหว่างประเทศ พีชคณิตนามธรรม และคณิตศาสตร์ระดับมัธยมปลาย LLM ที่ทดสอบเป็นโมเดลผสมระหว่างแบบข้อความเท่านั้นและแบบให้เหตุผลจาก Meta, Alibaba, Deep Cognito และ Deepseek

"การวิเคราะห์การปล่อย CO2eq [CO2-equivalent] รวม ความแม่นยำ และการสร้าง token ในคำถามทั้ง 1,000 ข้อ แสดงให้เห็นแนวโน้มและการแลกเปลี่ยนที่ชัดเจนระหว่างขนาดโมเดล ความซับซ้อนในการให้เหตุผล และผลกระทบต่อสิ่งแวดล้อม" นักวิจัยเขียน "เมื่อขนาดโมเดลเพิ่มขึ้น ความแม่นยำมักจะดีขึ้น อย่างไรก็ตาม ประโยชน์นี้เชื่อมโยงกับการเพิ่มขึ้นอย่างมากทั้งในการปล่อย CO2eq และจำนวน token ที่สร้างขึ้น"

พวกเขาพบว่าโมเดลการให้เหตุผลสร้าง token "การคิด" เฉลี่ย 543.5 token ต่อคำถามควิซ ในขณะที่โมเดลข้อความเท่านั้นสร้างเฉลี่ยประมาณ 37.7 token สำหรับคำสั่งเดียวกัน อย่างไรก็ตาม แม้ว่า token มากขึ้นหมายถึงการปล่อยมลพิษมากขึ้น นักวิจัยพบว่าไม่ได้หมายความว่า LLM จะแม่นยำมากขึ้น เพียงแต่พูดมากขึ้นเท่านั้น

การเปรียบเทียบประสิทธิภาพและการปล่อยคาร์บอน

โมเดลที่แม่นยำที่สุดคือ Deep Cogito 70B (70 พันล้าน parameter) ด้วยอัตราความแม่นยำ 84.9% มันปล่อยมลพิษมากกว่า LLM ขนาดใกล้เคียงกันที่ให้คำตอบพื้นฐานกว่าถึงสามเท่า

"ปัจจุบัน เราเห็นการแลกเปลี่ยนระหว่างความแม่นยำกับความยั่งยืนที่มีอยู่ในเทคโนโลยี LLM อย่างชัดเจน" Dauner กล่าว "ไม่มีโมเดลใดที่รักษาการปล่อยมลพิษให้ต่ำกว่า 500 กรัมของ CO2 equivalent และบรรลุความแม่นยำสูงกว่า 80% ในการตอบคำถาม 1,000 ข้อได้อย่างถูกต้อง"

โมเดลการให้เหตุผล Deepseek R1 70B ใช้พลังงานมากที่สุด ปล่อยมลพิษ 2,042 กรัม CO2-equivalent ซึ่งเทียบเท่ากับการเดินทางด้วยรถยนต์ที่ใช้น้ำมันระยะทาง 15 กิโลเมตร แม้ว่าอาจดูไม่มากในระดับเล็ก แต่ควรตระหนักว่าชาวอเมริกันกว่า 130 ล้านคนใช้โมเดล AI บางรูปแบบเป็นประจำ และโมเดล Deepseek นี้ก็ไม่ได้ถูกต้องที่สุดเช่นกัน โดยมีอัตราความแม่นยำ 78.9% นักวิจัยระบุว่าการให้โมเดลนี้ตอบคำถาม 600,000 ข้อจะสร้างการปล่อย CO2 เท่ากับเที่ยวบินไป-กลับระหว่างลอนดอน-นิวยอร์ก

ในขณะเดียวกัน โมเดล Alibaba Qwen 7B ใช้พลังงานอย่างมีประสิทธิภาพมากที่สุด (ปล่อยมลพิษ 27.7 กรัม CO2eq) แต่มีความแม่นยำเพียง 31.9%

"โดยเฉลี่ย โมเดลที่มีความสามารถในการให้เหตุผลต้องการ token มากกว่าอย่างมีนัยสำคัญในทั้งสองช่วงการทดสอบ" นักวิจัยระบุในการศึกษา "โดยเฉพาะในช่วงคำถามแบบตัวเลือก โมเดลการให้เหตุผลมักจะมีปัญหาในการให้คำตอบที่กระชับ แม้จะมีคำสั่งชัดเจนให้ส่งคืนเฉพาะดัชนีตัวเลือกเท่านั้น ตัวอย่างเช่น Deepseek-R1 7B สร้าง token สูงถึง 14,187 token ในคำถามคณิตศาสตร์เพียงข้อเดียว ในขณะที่โมเดลมาตรฐานให้คำตอบเพียง token เดียวอย่างสม่ำเสมอ"

การใช้พลังงานยังแตกต่างกันไปตามคำสั่ง โดยพีชคณิตนามธรรมและปรัชญาต้องการการให้เหตุผลมากกว่าคำถามที่ตรงไปตรงมา นอกจากนี้ควรทราบว่าการศึกษานี้ดูเพียงตัวอย่างของ LLM ที่มีอยู่ในปัจจุบัน และไม่ได้ศึกษาผู้เล่นรายใหญ่บางราย รวมถึง ChatGPT ของ OpenAI, Gemini ของ Google, Grok ของ X และ Claude ของ Anthropic

ข้อเสนอแนะสำหรับอนาคต

แม้ว่า LLM จะอยู่ต่อไปอย่างแน่นอน และมีแนวโน้มที่จะถูกรวมเข้ากับชีวิตของเรามากขึ้น นักวิจัยหวังว่าการศึกษาของพวกเขาจะช่วยให้ผู้ใช้ตัดสินใจได้ดีขึ้น โดยสลับระหว่างโมเดลต่างๆ ขึ้นอยู่กับงานที่ต้องการ พวกเขาหวังว่าจะดึงดูดความสนใจไปที่ความจำเป็นในการพัฒนาโมเดลการให้เหตุผลที่ประหยัดพลังงานมากขึ้นในอนาคต

"ผู้ใช้สามารถลดการปล่อยมลพิษได้อย่างมีนัยสำคัญโดยการสั่งให้ AI สร้างคำตอบที่กระชับหรือจำกัดการใช้โมเดลความจุสูงสำหรับงานที่ต้องการพลังงานนั้นจริงๆ" Dauner กล่าว "หากผู้ใช้ทราบต้นทุน CO2 ที่แน่นอนของผลลัพธ์ที่สร้างโดย AI เช่น การแปลงตัวเองเป็นฟิกเกอร์แอคชั่นแบบไม่จริงจัง พวกเขาอาจจะเลือกสรรและคิดมากขึ้นเกี่ยวกับเวลาและวิธีการใช้เทคโนโลยีเหล่านี้"

Why it matters

💡 บทความนี้นำเสนอการศึกษาล่าสุดที่เปิดเผยข้อมูลสำคัญเกี่ยวกับผลกระทบด้านสิ่งแวดล้อมจากการใช้งาน AI โดยเฉพาะการปล่อยก๊าซคาร์บอนไดออกไซด์ที่เกิดจากการแชทกับ AI ซึ่งเป็นประเด็นที่หลายคนอาจไม่เคยตระหนักมาก่อน ข้อมูลนี้มีความสำคัญอย่างยิ่งสำหรับผู้ใช้งาน AI ในปัจจุบัน เพื่อให้สามารถตัดสินใจเลือกใช้งานได้อย่างเหมาะสมและคำนึงถึงผลกระทบต่อสิ่งแวดล้อม โดยเฉพาะในยุคที่การใช้งาน AI กำลังเติบโตอย่างรวดเร็ว

ข้อมูลอ้างอิงจาก https://newatlas.com/ai-humanoids/cost-chatbot-environment/

Read more

กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

news

กูรุผู้บุกเบิก AI เผยอาชีพเหล่านี้อาจถูกแทนที่ด้วย AI

บิดาแห่ง AI Geoffrey Hinton เตือนงานทางปัญญาที่จำเจเสี่ยงถูก AI แทนที่ โดยเฉพาะผู้ช่วยทนายและพนักงาน Call Center แนะให้หันมาทำงาน Blue-collar ที่ต้องใช้ทักษะทางกายภาพแทน

By
ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

news

ผู้บริหาร OpenAI เตือนความเสี่ยงที่เพิ่มขึ้นว่า AI อาจช่วยในการพัฒนาอาวุธชีวภาพ

OpenAI เตือนว่าโมเดล AI รุ่นใหม่อาจถูกใช้ในการพัฒนาอาวุธชีวภาพที่อันตราย แม้โดยผู้มีความรู้น้อย บริษัทเร่งเพิ่มมาตรการความปลอดภัยและการทดสอบเพื่อป้องกันการนำไปใช้ในทางที่ผิด

By
นักประสาทวิทยาอธิบายเหตุผลที่เป็นไปไม่ได้ที่ AI จะ 'เข้าใจ' ภาษาได้อย่างแท้จริง

news

นักประสาทวิทยาอธิบายเหตุผลที่เป็นไปไม่ได้ที่ AI จะ 'เข้าใจ' ภาษาได้อย่างแท้จริง

นักประสาทวิทยาศาสตร์เผย AI ไม่สามารถเข้าใจภาษาได้อย่างแท้จริง พร้อมอธิบาย 4 เหตุผลสำคัญ ได้แก่ ความแตกต่างระหว่างข้อความกับภาษา บริบท อารมณ์ และความแตกต่างระหว่าง Neural Networks กับเครือข่ายประสาทจริง

By
ChatGPT ทำให้คุณโง่ลงหรือไม่? ผลวิจัย MIT ชี้ผู้พึ่งพา AI มีแนวโน้มด้อยประสิทธิภาพลง

news

ChatGPT ทำให้คุณโง่ลงหรือไม่? ผลวิจัย MIT ชี้ผู้พึ่งพา AI มีแนวโน้มด้อยประสิทธิภาพลง

งานวิจัยจาก MIT Media Lab เผยการใช้ ChatGPT ส่งผลให้กิจกรรมในสมองลดลง ผู้ใช้มีภาระทางความคิดต่ำกว่าปกติ 32% และมีแนวโน้มสูญเสียทักษะการคิดวิเคราะห์ในระยะยาว

By