Klima­hysteriet begrunnes ikke sjelden med en slags plikt til å «stole på viten­skapen», men er det egentlig viten­skap som ligger til grunn? Fysikeren Steven Koonin går langt i å avvise det.

Problemet er at her ligger djevelen virkelig i detaljene.

Prognosene for temperatur­stigning som har skremt mange til å tro at verden blir et uutholdelig sted hvis menneske­heten fortsetter å slippe ut CO2, bygger på data­maskin­beregninger som bare et knøttlite antall mennesker i verden har full innsikt i, nærmere bestemt noen titalls fagmiljøer verden rundt som ikke er noen slags ufeilbarlige viten­skapelige titaner.

Men mange flere som har dyp innsikt i skjærings­punktet mellom fysikk, matematisk modellering og data­maskin­beregninger, ser klart at de katastrofale prognosene har et syltynt faglig grunnlag. Og den som mer enn noen annen har anstrengt seg for å forklare det til et bredere publikum, er nettopp Steven Koonin, selv en pioner innen data­maskin­assistert beregnings­orientert fysikk.

Hoover Institution, en konservativ tenketank ved Stanford-universitetet, spilte i august inn en video der den amerikanske fysikeren forsøker å vise publikum hvordan klima­modeller lages – en innsikt som er egnet til å svekke natte­søvnen like mye som kunnskaper om pølse­produksjon.

Klimamodellering begynner alltid med å lage en modell av Jordens atmosfære bestående av et tre­dimensjonalt gitter, der avstanden mellom gitter­punktene typisk er 100 kilometer over landjorden og 10 kilometer over havet.

Stillbilde: Hoover Institution / YouTube.

Problemet er at når man formulerer de fysiske lovene matematisk og anvender dem på et slikt gitter, så er det flere klima­relevante fenomener, for eksempel skyer, som ikke fanges opp godt nok når tilstanden antas å være homogen innenfor hver enkelt boks definert av åtte gitter­punkter.

Og det er nettopp idet klima­forskere forsøker å bøte på den mangelen at de tar steget fra vitenskap og over i modell­bygging. Det er en aktivitet som krever skjønn, og den egenskapen er langt fra ufeilbarlig.

Når kan en modell sies å være god nok til å fortjene betegnelsen vitenskap? For klima­modellenes vedkommende er det når de har demonstrert evne til å forutse klimaet. Men det har de ikke gjort, og hva verre er: Modellene er innbyrdes motstridende, slik at man gjerne benytter et gjennom­snitt av modell­beregninger som prognose.

Men det Koonin også går langt i å antyde, er at modell­byggerne jukser idet de estimerer størrelsen på de mange fysiske parametrene i modellene de har bygd. For å få modell­beregningene til å stemme overens med det historiske klimaet, skrur de på disse parametrenes tall­størrelser for å gjenskape historikken, uten at det nødvendigvis finnes noen fysisk berettigelse for det foretrukne tallet.

Og da er det at matematikere og statistikere verdt sitt salt bør reagere: Er det sånn at en veldig kompleks modell med mange parametre som gjenskaper fortiden, er egnet til å forutse fremtiden?

Mange i bransjen vil da svare «nei» fordi de er oppmerksome på fenomenet som på fagspråket kalles overfitting, eller «overtilpasning».

Dette er ikke enkelt å forklare for allmenn­heten, men det er interessant at Hoover Institution, hvor man åpenbart trekker klima­modellenes pålitelighet i sterk tvil, lar Koonin gi publikum et glimt av det som skjer i disse fagmiljøenes kulisser.

Tenketanken har siden spilt inn et lengre intervju med den kjente fysikeren.

Man skal ikke dykke så langt ned i denne materien før man innser at det å forsøke å revolusjonere energi­systemene, økonomien og hele samfunnet på bakgrunn av en avansert lek med tall som ikke er ordentlig vitenskap, er et komplett galehus.

Men nå er det engang et slikt vi lever i. Og jo før vingene smelter på både de kvasi­viten­skapelige og de politiske Ikaros’ene, jo bedre.

 

Kjøp «Usikker vitenskap» av Steven E. Koonin som papirbok og som e-bok.

 

Vi i Document ønsker å legge til rette for en interessant og høvisk debatt om sakene våre. Vennligst les våre retningslinjer for debattskikk før du deltar.