Július 4. Péntek, Ulrik

Kiderült, mennyi energiát fogyaszt az AI, amikor válaszol nekünk

A mesterséges intelligencia sok területen megkönnyíti az életünket. Az azonban biztos, hogy az AI nyújtotta lehetőségekért nagy árat fizetünk.

Az AI, amelyet ma már szinte mindenhol használunk a keresőmotoroktól kezdve a chatbotokon át a képgeneráló programokig, nem csak az életünket alakítja át, hanem a bolygónkra is komoly hatással van. Egy új tanulmány szerint minden egyes alkalommal, amikor leírunk egy kérdést a mesterséges intelligenciának, és választ kapunk rá, azzal nemcsak adatokat, hanem jelentős mennyiségű energiát is felhasználunk, és ez az energia bizony karbonkibocsátással jár.

Az AI túl sokba kerül: és nem pénzben
Az AI túl sokba kerül: és nem pénzben Fotó: Shutterstock/ Chaosamran_Studio

Az AI kifejezetten környezetszennyező lehet

A CNN által idézett Electric Power Research Institute (EPRI) friss kutatása azt vizsgálta, mekkora energiafogyasztással és környezeti lábnyommal jár egy-egy AI válasz. Az eredmények meglepőek: egyetlen összetettebb kérdésre adott válasz akár 2.9 watt energiát is igényelhet, és ez körülbelül annyi, mintha három percig néznénk egy HD-videót egy okostelefonon. A pontos érték persze függ az adott modell méretétől, a futtatásához szükséges számítási teljesítménytől és attól is, hogy felhőalapú rendszer vagy helyi számítógép dolgozik-e rajta.

Ha egy ilyen válasz karbonkibocsátását nézzük, az EPRI szerint egyetlen nagy nyelvi modell (mint például a ChatGPT vagy a Google Gemini) használata során leadott válasz akár 0.5–1.0 gramm szén-dioxid kibocsátással is járhat. Ez elsőre nem tűnik soknak, de ha figyelembe vesszük, hogy naponta emberek milliói használják ezeket a rendszereket több milliárd kérdés és válasz erejéig, akkor már egészen más képet kapunk: egy év alatt a mesterséges intelligencia által generált tartalmak karbonlábnyoma elérheti a kisebb országok teljes kibocsátását.

Ebben a tempóban nem fenntartható az AI

A probléma lényege tehát nem az, hogy néha rákérdezünk egy receptre vagy csevegünk egy chatbot segítségével, hanem az, hogy ez a technológia villámgyorsan terjed, miközben az infrastruktúra, főként az adatközpontok hatalmas mennyiségű áramot igényelnek. Az AI-modellek tanítása különösen energiaigényes folyamat, egy nagy nyelvi modell betanítása több millió kilowattórányi energiát emészt fel, ami felér több ezer háztartás éves energiafogyasztásával.

A kutatók most arra hívják fel a figyelmet, hogy a mesterséges intelligencia terjedése mellett szükség van az energiatudatos fejlesztésre és működtetésre is. Egyre több techóriás próbálja megújuló energiaforrásokra helyezni az adatközpontokat, de a jelenlegi trendek mellett ez sem lesz elég. Az EPRI egyik szakértője úgy fogalmazott: „Ha mindenki naponta több tucat kérdést intéz az AI-hoz, miközben a válaszokat gigászi szerverek számítják ki, akkor hosszú távon az egész rendszer fenntarthatósága kérdésessé válik.”

Nyitókép: Shutterstock/ Chaosamran_Studio

 

Google News
A legfrissebb hírekért kövess minket a Köpönyeg Google News oldalán is!

Ezek is érdekelhetik