Generativ AI og bæredygtighed: En kompleks udfordring

Generativ AI har potentiale til at revolutionere mange aspekter af vores liv, men det har også betydelige miljømæssige konsekvenser. Uden en grundig overvejelse af dens energiforbrug og klimabelastning kan denne teknologi bidrage til en alvorlig forværring af den globale opvarmning. Dette skaber et paradoks, hvor en teknologi, der har potentiale til at skabe enorme fordele, også kan være ekstremt skadelig for miljøet, hvis ikke anvendt bæredygtigt

Generativ AI’s energiforbrug

Generativ AI-modeller kræver enorme mængder computerkraft. Træning af store sprogmodeller som GPT-3 kan kræve hundredtusindvis af GPU-timer, hvilket oversættes til en stor mængde elektricitet. Denne energi kommer ofte fra ikke-bæredygtige kilder, hvilket resulterer i betydelige CO2-udledninger. En undersøgelse fra University of Massachusetts, Amherst, viste, at træning af én stor AI-model kan producere CO2-udledninger svarende til fem biler over deres levetid.

Anvendelse af bæredygtighed i AI

For at AI-teknologi kan forsvares som bæredygtig, skal følgende tiltag overvejes:

  1. Effektivisering af algoritmer: Forbedring af AI-algoritmer for at reducere energiforbrug og træningstid.
  2. Grønne datacentre: Anvendelse af datacentre, der er drevet af vedvarende energikilder, såsom sol- og vindenergi. Her er VANDKØLING som vores danske selskab NNDC laver et must i alle datacentre. De kan nemlig nedbrige 90% af alle omkostninger i et datacenter sammenlignet med luftkøling og CRAC enheder, der bruger meget strøm og køler meget ineffektivt.
  3. Regulering og certificering: Implementering af standarder og certificeringer for bæredygtig AI-praksis.
  4. Genbrug af varme: Udnyttelse af varmeproduktion fra datacentre til andre formål, såsom opvarmning af bygninger.

Fremtidsperspektiver

Det er nødvendigt at skabe et globalt samarbejde for at sikre bæredygtig udvikling og anvendelse af generativ AI. Investering i forskning og udvikling af energieffektive AI-systemer er afgørende. Desuden skal regeringer og virksomheder tage ansvar for at implementere miljøvenlige praksis og politikker.

Problemet med AI er at den ikke er en grøn teknologi, den er kulsort og AI er heller ikke intelligent. En ny rapport fra Københavns Universitet afslører, at kunstig intelligens (AI) langt fra er bæredygtig. Ifølge rapporten er AI hverken grøn, revolutionerende eller bæredygtig. KU-forskeren konkluderer, at AI forbruger mere energi end kul, hvilket betyder, at teknologien ikke er en løsning for fremtidens energibehov.

Begrænsninger i AI

Der er naturlige grænser for, hvor avanceret kunstig intelligens som ChatGPT kan blive. Både Elon Musk og Mark Zuckerberg har påpeget, at udviklingen af AI ikke kan fortsætte i den forventede hastighed på grund af enorme energikrav. AI’s høje energiforbrug gør det umuligt for verdens samlede energiproduktion at følge med. Skal vi bygge atomreaktorer eller datacentre? De fylder det samme.

Øget energiforbrug

Det Internationale Energiagentur (IEA) forudser, at AI’s energiforbrug vil fordobles fra 2022 til 2026. Dette betyder en betydelig stigning i det globale energiforbrug, især i datacentre, der understøtter AI og kryptovaluta. Ifølge IEA vil energiforbruget til datacentre i 2026 være på niveau med Japans årlige energiforbrug.

Nye kølingsteknologier

For at imødekomme det stigende energiforbrug har virksomheder som NVIDIA skiftet fra luftkøling til vandkøling i deres datacentre. Danmark forventer, at elforbruget til datacentre vil være tredoblet i 2030 sammenlignet med i dag, svarende til en fjerdedel af landets nuværende elproduktion.

AI’s miljøpåvirkning

KU-forskeren Raghavendra Selvan har beregnet, at en enkelt forespørgsel til ChatGPT bruger lige så meget strøm som 40 mobilopladninger, svarende til 0,19 kilowatt-timer. Selvan understreger, at AI’s energiforbrug er enormt, og at der er behov for mere præcise data fra virksomheder som OpenAI.

Industriens udfordringer

It-giganter som Microsoft og Meta arbejder på at bygge større datacentre for at træne fremtidens AI-modeller. Mark Zuckerberg har nævnt, at et datacenter med en kapacitet på én gigawatt er nødvendigt for at træne avancerede AI-modeller, hvilket svarer til størrelsen på en atomreaktor.

Behov for regulering

Selvan mener, at AI allerede har ramt en mur på grund af dens store energibehov. Han påpeger, at der er brug for mere lovgivning og udvikling af “grønne” AI-modeller for at reducere CO₂-aftrykket og gøre AI mere bæredygtig.

På Københavns Universitet har nu fået en ny rapport der får selv de fleste til at løfte et øjebryn eller to. AI er nemlig hverken bæredygtig, grøn eller en revolution.

KU forskeren er er mægtig god til at regne, og konklusionen er at AI er sort. Sortere end kul.

Der er helt naturlige grænser for, hvor »klog« kunstig intelligens som ChatGPT kan blive, og it-giganterne er fuldt ud klar over det.

Elon Musk sagde det, Mark Zuckerberg sagde det også: Kunstig intelligens (ai) kan slet ikke udvikle sig i den rasende fart, som mange ellers har forudsagt. Panden mod muren er alle nået. Murens navn er energi, for det kræver ualmindeligt meget energi blot at svare på simple spørgsmål. Ikke noget med at det er meget. Det er mere end vi alle kan acceptere.

Dertil kommer at Jordens samlede kraftværker, vind, sol og atomkraft IKKE kan følge med.

Kurven på efterspørgslen er simpelthen også for stor og kan ikke løses med grøn energi, der må meget mere kulfyring til, og det er jo ikke noget hverken samfundet eller virksomhederne kan forsvare.

Det er allerede blevet forudsagt at der alene i årene fra 2022 til 2026 at AI skal have dobbelt så meget strøm som nu. Det siger det Internationale Energiagentur (IEA) ifølge en ny rapport. Det betyder altså en fordobling af det globale energiforbrug i datacentre, herunder til kunstig intelligens og til digital kryptovaluta, der også er voldsomt energiforbrugende.

2 af tidens største megatrends er altså en kulsort løsning for alle.

Det Internationale Energiagentur (IEA), siger også, at verden i 2026 vil skulle bruge lige så meget strøm på at holde liv i datacentre, som hele Japan – verdens tredjestørste økonomi – i dag forbruger på et år.

Det betyder at hele verdens datacentre sluger lige så meget strøm som hele Japan, og en central del af forklaringen er den eksplosive vækst i generativ kunstig intelligens og til dels Krypto valuta.

Den eksplosive vækst i generativ kunstig intelligens. Iagttagere siger at centrale forklaring er it-giganters datacentre. De vil have flere og hurtigere svar. Og det koster kassen, så vi fremtiden ikke vil kunne have energi nok. Datacentre mere energitørstig end det klassiske internet. Ai er derfor kulsort. NVIDIA, der er på vej til at være verdens største firma leverer processorer der sluger så meget strøm, at alle nybyggede datacentre har måtte skifte fra luftkøling til vandkøling, blot for at følge med.

Elon Musk sagde dette. Og der vælter frem med nye datacentre og de lægger sig i et stigende omfang i Nordeuropa, fordi vi kan generere mere grøn strøm end andre steder. Og vi har nye teknologier med databagdøre der bruger vand i stedet for luft. Dermed køler man mange gange bedre og samtidigt kan man skrotte den almindelige luftkøling i datacentre.

Fremtidens Internet løsninger er altså baseret på super vandkølede datacentre hvor der i stigende grad installeres NDVIDIA udstyr. Alt dette så vi kan sende forespørgsler til generativ kunstig intelligens som ChatGPT.

Her i Danmark har man fået øje på problemet. Hos Energistyrelsens seneste fremskrivning forudsiger man, at elforbruget til super datacentre herhjemme vil være tredoblet i 2030 i forhold til i dag og til den tid udgøre cirka otte terawatt-timer.

Vi fristes til at sige 10 terawatt-timer fordi NVIDIA og andre udviklere af chips er kommet på markedet med flere produkter der efterspørges. Alene de otte terawatt-timer svarer omtrent til en fjerdedel af Danmarks nuværende elproduktion hvert eneste år, men stærkt stigende.

Desværre er det også sådan at vi har nået grænsen for DPI Density Per Inch og det betyder at datacentre ikke bliver mindre.

40 mobilopladninger

Raghavendra Selvan har sat tal på det. Det var forskeren fra KU. Han er en ekspert i den kunstige intelligens strømforbrug umættelige energiforbrug. Han er en indiskfødte forsker i maskinlæring og computervidenskab ved Københavns Universitet.

Han har gjort det enkelt at forstå, hvad det koster at sende en enkelt kommando til ChatGPT som f.eks. Hvad koster en forespørgsel AI i energiforbrug pr. svar.

Han siger at et enkelt prompt, at hvis et enkelt spørgsmål genererer et svar på 230 ord, så bruger man lige så meget strøm, som hvis man skal oplade sin mobiltelefon 40 gange. Dette svarer ca. til en hel måneds opladninger af ens mobiltelefon.

Helt præcist svarer det til 0,19 kilowatt timer, vurderes det eller et almindeligt 55 tommer smart-tv i 2 timers brug. Det er altså mere end en søgning på Google. Langt mere.

Raghavendra Selvan siger selv i udregningerne at data ikke er så præcise fordi data om energiforbrug fra OpenAI, ikke offentliggøres i årsregnskabet, men det kommer måske snart med de stigende ESG Krav hvor ESG revisorer skal dokumentere dette i regnskaberne.

Derfor er udregningen foretaget på basis af målinger, af det gennemsnitlige energiforbrug i 100 prompts, en lignende sprogmodel. Det er ellers nemt at lave en udregning via CUDA som er det integrerede programsprog i mange produkter fra NVIDIA.

»Jeg kan ikke udelukke, at konklusionen i min analyse er et worst case scenario. Men det kan også sagtens tænkes, at det svarer til 40 opladninger,«

Microsoft er til dels ved at bygge mange nye datacentre men drømmer om at bygge et ubegribeligt strømslugende datacenter til at træne fremtidens kunstige intelligens, men hvor skal de massive mængder strøm komme fra?

Microsoft drømmer om at bygge et ubegribeligt strømslugende datacenter til at træne fremtidens kunstige intelligens, men hvor energien så skal komme fra er mere usikkert.

Forskeren forklarer, hvorfor ai er så umådeligt energislugende.

»Hovedforklaringen er, at de her sprogmodeller, som generativ kunstig intelligens er bygget på, skal udføre ekstremt komplekse ting – for eksempel at oversætte eller skabe billeder ud fra tekstforespørgsler. Det betyder virkelig meget data, for de skal fodres med milliarder af eksempler,«

siger Raghavendra Selvan.

For at kunne lave bare en nogenlunde sprogmodel, skal der benyttes et stort datacenter i flere måneder. Sprogmodeller tager dog oftest op til 1 år at udvikle, og kilderne er oftest internettet eller aftaler som de forskellige AI udbydere har med andre f.eks. typiske abonnementstjenester. Generelt er der ikke noget AI i AI produkter, det er alene hvad en AI sprogmodel fødes med der giver kvaliteten.

Først derefter kan den lanceres for brugere, som yderligere vil øge energiforbruget, når de sender forespørgsler til den.

Industriens bekymringer

Raghavendra Selvan er computerforsker ved Københavns Universitet og mener, at kunstig intelligens allerede har ramt en mur på grund af dens umættelige energihunger. I en række af klodens største it-virksomheder river man sig allerede i håret som følge af den massive energiudfordring med kunstig intelligens.

I en nylig podcast har den uhyre ai-fokuserede Facebook-grundlægger og Meta-topchef Mark Zuckerberg fastslået, at hvis Meta kunne få adgang til mere energi, ville man bygge væsentligt større datacentre end i dag.

I podcasten forklarer han, at alene for at kunne træne en ai-model i den størrelse, han har vision om, bør et datacenter få en størrelse på omkring én gigawatt, hvilket er langt større end noget eksisterende af slagsen. Som Zuckerberg siger:

»For at sætte det i perspektiv, så tror jeg, at en gigawatt er på størrelse med en meningsfuld atomreaktor – kun for at træne en model.«

Meta-topchef og Facebook-grundlægger Mark Zuckerberg har erkendt, at elforbruget i kunstig intelligens udgør en markant flaskehals for den fortsatte ai-udvikling.

Hos Apple vil man indbygge AI i alle computere og dermed også iPhone, f.eks. vil man kunne bruge SIRI som AI, uden at skrive, og det kræver først en omdannelse af vokale filer lokalt til en generativ tekststreng so SIRI kan svare med. Man vil dermed kunne sige “jeg vil gerne bestille en kop kaffe på spansk of føre en dialog med tjeneren på spansk uden at kunne sproget.

En anden it-gigant er Microsoft, der på mange måder har yderligere interesse i kunstig intelligens, ikke mindst fordi megavirksomheden har købt sig adgang til kræfterne i ChatGPT via en samarbejdsaftale med OpenAI.

Ifølge teknologisitet The Information har Microsoft og OpenAI planer om at bygge en kolossal supercomputer ved navn Stargate, som skal kunne træne den nære fremtids ai-modeller.

Projektet er stadig i udviklingsfasen, men planen er angiveligt i løbet af få år at bygge Stargate op, men det vil i givet fald kræve et datacenter med en kraft på helt ekstreme fem gigawatt. Eller deromkring.

Fem gigawatt svarer til fem milliarder watt – nok til at tænde lys i over 80 millioner gammeldags 60 watt glødepærer eller i omkring en milliard gængse led-pærer.

Endelig er der superiværksætteren Elon Musk, der i fjor spåede, at ai i løbet af et år eller to vil løbe ind i en energiflaskehals.

AI er ikke bæredygtig

Raghavendra Selvan kender disse historier og mener, at ai allerede i dag er begyndt at ramme en barriere på grund af dens umådelige energihunger – en barriere, som i væsentlig grad sætter en bremse på vedvarende styrkelse af kræfterne i kunstig intelligens.

»Kraftig opskalering af AI er ikke bæredygtig, og det skyldes ikke kun energiforbruget, men også for eksempel den materialemæssige infrastruktur, der skal til for at kunne understøtte den,« siger Raghavendra Selvan.

Samtidig peger han på, at der i udviklingslande er et akut og enormt behov for mere energi og vel at mærke ikke energi til kunstig intelligens, men til millioner af ganske almindelige menneskers daglige behov.

Raghavendra Selvan anerkender dog også, at mere ai styrke kan være afgørende for den grønne omstilling. Der nævnes her bedre batterier, nye og mere effektive former for energilagring og til udbygning af hele den elektriske infrastruktur.

Faktum er imidlertid at vi i Danmark og resten af verden har brug for mere og mere strøm, men skal AI have første prioriteten? Tør vi stole på at AI engang bliver til kunstig intelligens?

Facebook-stifteren er ikke i tvivl, og sammen med Elon Musk sås der tvivl om strømforbruget kan forsvares, og især Elon Musk har sagt at AI begrænses samtidigt med at han siger at vi alle bliver arbejdsløse.

Microsoft-stifteren Bill Gates har en noget mere konservativ linje i forholdet til AI, hvor han siger at AI erstatter trivielle gøremål, og at AI ikke er magi.

AI kommer i hvert fald ikke til at kunne konkurrere med menneskelig intelligens. Mennesker begår fejl, men det har vist sig at AI gør langt flere fejl. Med ChatGPT kan du f.eks. ikke tegne den samme tegning 2 gange, da ChatGPT ikke kan gentage sig.

Med fremkomsten af ChatGPT forudså mange at modellen ville erstatte programmører, men det viser sig at AI laver mange fejl, at man ikke kan stole på de programmeringer den laver og at man til stadighed ikke kan stole på de anbefalinger AI selv laver. Utallige skadelige eksempler er kommet frem i verdenspressen fra at spise små sten hver dag til stegetemperaturer der er forkerte og give salmonella.

Når vi anvender AI skal vi huske at bede AI om at angive kilder, på den måde kan vi kontrollere bedre. Vi stoler i hvert fald ikke på ChatGPT og vil aldrig gøre det. Men vi bruger det da til understøtning af vores egen intelligens, da ChatGPT ikke har nogen intelligens.

»Jeg ser under alle omstændigheder ikke en sådan fremtid for mig – i hvert fald ikke inden for en overskuelig årrække. Ai-modeller bliver mere og mere kompetente, men de engagerer sig ikke direkte i verden. Det, der først og fremmest er behov for, er i mine øjne mere lovgivning på området,«

siger Raghavendra Selvan

Raghavendra Selvan har imidlertid medvirket i et studie, der anviser en mulig vej ud af energifælden for kunstig intelligens.

I studiet viser forskerne på baggrund af en »grøn« ai-model, at det er muligt at reducere CO₂-aftrykket til træning af kunstig intelligens med 70 til 80 procent – stort set uden at gå på kompromis med ydeevnen.

Men uanset hvad skal vi ud i en yderst fjern fremtid, før en kunstig hjerne måtte blive lige så energieffektiv som den toptunede biologiske hjerne bag skallen på den dominerende art her på jordkloden.

Det skriver bl.a. Agil Udvikling A/S.

Kilde: KU, Berlingske og AGILUDVIKLING.DK
Fotokredit: ai genereret “lav en smilende robot der læser bøger”
Personer/Firmaer: Raghavendra Selvan, NVIDIA, ChatGPT, AI
Copyrights: Ⓒ 2024 Copyright by https://agiludvikling.DK – kan deles ved aktivt link til denne artikel.


Similar Posts