AI (ปัญญาประดิษฐ์) กลายเป็นเทคโนโลยีที่เปลี่ยนโลก ทั้งด้านการแพทย์ การเงิน การผลิต และการใช้ชีวิตประจำวัน แต่เบื้องหลังของเทคโนโลยีอัจฉริยะนี้ หลายคนอาจยังไม่รู้ว่า AI ต้องใช้พลังงานมหาศาล โดยเฉพาะในขั้นตอน การฝึกสอนโมเดล (training) และ การใช้งานจริง (inference) ซึ่งอาศัยศูนย์ข้อมูล (Data Center) ขนาดใหญ่ที่ต้องใช้ไฟฟ้าปริมาณมาก
AI กินไฟเท่าไหร่?
- การฝึกโมเดล AI ขนาดใหญ่ ต้องใช้ GPU หรือ TPU นับหมื่นตัว ทำงานตลอด 24 ชั่วโมงหลายสัปดาห์
- การประมวลผลแบบ real-time (เช่น ChatGPT, Google Bard, ระบบแนะนำสินค้า) ต้องใช้พลังงานทุกครั้งที่ผู้ใช้กดคลิก
ตัวอย่าง: การฝึก GPT-3 ใช้ไฟเกือบ 1,300 MWh เทียบเท่าการใช้ไฟของบ้านกว่า 100 หลังต่อปี
Data Center กินไฟเท่าไหร่?
- ศูนย์ข้อมูลทั่วโลกใช้ไฟฟ้า ประมาณ 1-2% ของการใช้ไฟทั้งโลก
- การเติบโตของ AI ทำให้บางศูนย์ข้อมูลต้อง ขยายพื้นที่ + ติดตั้งระบบระบายความร้อนขั้นสูง ซึ่งกินไฟเพิ่มเติม
- หลายบริษัทเทคโนโลยียักษ์ใหญ่ เช่น Google, Microsoft และ Amazon จึงลงทุนใน พลังงานหมุนเวียน เช่น โซลาร์เซลล์ และลม เพื่อลด carbon footprint
แนวทางแก้ไขในอนาคต
AI กำลังเร่งให้โลกเข้าสู่ยุคใหม่ของพลังงาน โดยมีแนวโน้มสำคัญ:
- บริษัทเทคโนโลยีจะมุ่งสู่ “AI with Clean Energy” เช่น Microsoft ตั้งเป้าใช้พลังงาน 100% จากแหล่งหมุนเวียนภายในปี 2025
- เกิดเทรนด์ใหม่อย่าง “Green AI” หรือการออกแบบโมเดลให้ประหยัดพลังงานตั้งแต่ต้นทาง
- ผู้ให้บริการ AI อาจต้องแสดง “AI Energy Transparency” เช่น ปริมาณ CO₂ ต่อคำถามหนึ่งครั้ง
บทสรุป
แม้ AI จะช่วยเพิ่มประสิทธิภาพให้กับหลายอุตสาหกรรม แต่ในขณะเดียวกันก็ต้องเผชิญกับความท้าทายด้านพลังงาน เพราะ AI กินไฟและน้ำมหาศาล หากเราต้องการโลกที่ “อัจฉริยะอย่างยั่งยืน” เราจำเป็นต้องให้ความสำคัญกับ พลังงานสะอาด, ติดตั้งโซล่าเซลล์, และ ระบบจัดการพลังงานอัจฉริยะ มากขึ้นกว่าเดิม