
Apabila OpenAI melancarkan ChatGPT pada akhir 2022, ia mencetuskan kegembiraan dan kebimbangan. AI Generatif menunjukkan potensi yang luar biasa—membuat esei, menyelesaikan masalah pengekodan, dan juga mencipta seni. Tetapi ia juga menimbulkan penggera di kalangan ahli alam sekitar, penyelidik, dan teknologi. Kebimbangan terbesar? Penggunaan tenaga besar yang diperlukan untuk melatih dan menjalankan Model Bahasa Besar (LLM), menimbulkan persoalan tentang kemampanan jangka panjangnya.
Memandangkan LLM terus membentuk semula industri seperti pendidikan dan penjagaan kesihatan, impaknya tidak boleh diabaikan. Makalah ini menimbulkan persoalan penting: Bolehkah sistem pintar ini mengoptimumkan diri mereka sendiri untuk mengurangkan penggunaan kuasa dan meminimumkan jejak alam sekitar mereka? Dan jika ya, bagaimana ini boleh mengubah landskap AI?
Kami akan memecahkan cabaran tenaga LLM, daripada latihan kepada inferens, dan meneroka strategi penalaan kendiri yang inovatif yang boleh menjadikan AI lebih mampan.
Latihan Google untuk model bahasa besar seperti GPT-4 atau PaLM memerlukan sejumlah besar sumber pengiraan. Sebagai contoh, latihan GPT-3 mengambil beribu-ribu GPU berjalan selama berminggu-minggu, menggunakan tenaga sebanyak beratus-ratus isi rumah AS dalam setahun. Jejak karbon bergantung pada campuran tenaga yang menjanakan pusat data. Walaupun selepas latihan, fasa inferens—di mana model mengendalikan tugas dunia sebenar—menambah penggunaan tenaga. Walaupun tenaga yang diperlukan untuk satu pertanyaan adalah kecil, apabila kami menganggap bahawa terdapat berbilion-bilion interaksi sedemikian berlaku merentasi pelbagai platform setiap hari, ia menjadi masalah yang ketara.
Saiz Model: LLM hari ini adalah sensitif parameter; mereka mempunyai berbilion malah bertrilion parameter yang memerlukan banyak sumber untuk diproses, dikemas kini dan disimpan.
Kekangan Perkakasan: Penggunaan cip berasaskan silikon dihadkan oleh kapasiti pemprosesannya dan oleh itu keperluan untuk kelompok GPU atau TPU untuk meningkatkan penggunaan tenaga secara eksponen.
Kos dari segi alam sekitar termasuk pelepasan karbon serta penggunaan air dalam penyejukan manakala perbelanjaan operasi menjadi masalah bagi syarikat AI yang lebih kecil. Kos tahunan mungkin mencecah berbilion-bilion, yang menjadikan kelestarian penting bukan sahaja isu alam sekitar tetapi juga ekonomi.
Untuk memahami cara LLM menggunakan tenaga, mari kita pecahkan:
Operasi AI | Penggunaan Tenaga (%) |
---|---|
Fasa Latihan | 60% |
Inferens (Pertanyaan Menjalankan) | 25% |
Penyejukan Pusat Data | 10% |
Operasi Perkakasan | 5% |
Pengambilan Utama: Fasa latihan kekal sebagai penyumbang terbesar kepada penggunaan kuasa.
Penyelidik sedang meneliti cara LLM boleh mengoptimumkan penggunaan tenaga mereka, menggabungkan kerja perisian dengan perubahan perkakasan.
Pengkuantitian dan Pemangkasan berguna tetapi apabila digunakan dengan gelung maklum balas di mana model dapat menentukan bahagian mana yang penting dan bahagian mana yang boleh dikuantisasi maka ia menjadi agak berkesan. Ini adalah kawasan baharu, tetapi potensi wujud dalam rangkaian mengoptimumkan diri.
Idea pengiraan bersyarat membolehkan model hanya menggunakan neuron atau lapisan yang berkaitan dengan tugasan tertentu. Sebagai contoh, pendekatan Campuran Pakar (MoE) Google membahagikan rangkaian kepada subrangkaian khusus yang meningkatkan latihan dan pengurangan penggunaan tenaga dengan mengehadkan bilangan parameter aktif.
Pembelajaran pengukuhan boleh mengoptimumkan hiperparameter seperti kadar pembelajaran dan saiz kelompok, mengimbangi ketepatan dan penggunaan tenaga untuk memastikan model beroperasi dengan cekap.
Selain mengoptimumkan ketepatan, LLM juga boleh mengoptimumkan untuk objektif lain: ketepatan, kependaman dan penggunaan kuasa, menggunakan alatan seperti Google Vizier atau Ray Tune. Baru-baru ini, kecekapan tenaga telah menjadi objektif penting dalam rangka kerja ini.
Sistem AI yang dicipta melalui reka bentuk bersama perkakasan dengan perisian membolehkan pelarasan serentak algoritma perisian dan sumber perkakasan.
Teknik | Pengurangan Tenaga (%) | Faedah Utama |
---|---|---|
Pemangkasan Model | 30% | Mengurangkan parameter model yang tidak diperlukan |
Kuantisasi | 40% | Merendahkan ketepatan pengiraan |
Pengiraan Bersyarat (KPM) | 25% | Aktifkan model yang diperlukan sahaja |
Pembelajaran Pengukuhan | 15% | Melaraskan penggunaan kuasa secara dinamik |
Pengkomputeran Neuromorfik | 50% | Meniru kecekapan otak |
Reka Bentuk Bersama Perkakasan (ASIC, Cip Optik) | 35% | Membangunkan perkakasan khusus AI untuk kecekapan maksimum |
Model AI masa depan berkemungkinan akan menggabungkan pelbagai teknik untuk mencapai 60-70% pengurangan tenaga keseluruhan.
LLM yang mengoptimumkan sendiri boleh mengurangkan penggunaan tenaga sebanyak 20% atau lebih untuk berbilion-bilion pertanyaan, yang akan membawa kepada penjimatan kos dan pelepasan yang sangat besar. Ini selaras dengan sasaran sifar bersih global dan memberi kesan kepada beberapa sektor:
LLM telah membawa tahap kecanggihan baharu dalam pemprosesan bahasa tetapi masalah penggunaan tenaga mereka adalah kebimbangan utama. Walau bagaimanapun, kecerdasan yang sama yang menimbulkan model ini menyediakan penyelesaiannya. Teknik seperti pemangkasan, pengkuantitian, pengiraan bersyarat dan reka bentuk bersama perkakasan menunjukkan bahawa adalah mungkin untuk mereka bentuk LLM yang mengurus penggunaan tenaga mereka sendiri. Apabila penyelidikan semakin maju, isu menjadi kurang sama ada AI yang mampan adalah mungkin dan lebih kepada seberapa cepat industri teknologi boleh bersatu untuk mencapainya-tanpa mengorbankan inovasi untuk alam sekitar.
Rujukan