Szukanie dziury w całym

Niektórzy „sceptycy” globalnego ocieplenia uparcie powtarzają argument, że mierzony wzrost temperatury nie jest wiarygodny, gdyż jest on oparty na pomiarach ze stacji pogodowych ulokowanych na parkingach, w miastach lub w pobliżu klimatyzatorów.  Argument ten został wielokrotnie wzięty pod uwagę i obalony przez naukę, o czym mówi na przykład opublikowany niedawno na tym portalu Przewodnik do Sceptycyzmu Globalnego Ocieplenia  Niemniej, nie wygląda na to, że dyskusja na ten temat została zakończona.

Richard Muller, profesor fizyki Uniwersytetu Kalifornijskiego w Berkeley, zeznawał 31 marca przed Komisją kongresu amerykańskiego do spraw nauki, przestrzeni kosmicznej i technologii.  Tematem jego raportu była jeszcze jedna naukowa analiza danych temperatury ze stacji pogodowych.  Nasuwa się natychmiast pytanie: dlaczego grupa poważnych naukowców powtarza analizę, która była już zrobiona i zweryfikowana kilka razy przez inne grupy naukowców?  Czyżby nie dowierzali innym?  Najkrótsza odpowiedź brzmi „tak”, ale żeby lepiej zrozumieć tło tego przedsięwzięcia należy cofnąć się o kilka lat.

Do nagłośnienia potencjalnego problemu ze stacjami meteorologicznymi przyczynił się w ogromnym stopniu były telewizyjny prognostyk pogody Anthony Watts , od kilku lat prowadzący popularny portal promujący sceptycyzm względem globalnego ocieplenia.  W czerwcu 2007 roku Watts zorganizował imponującą kampanię opartą na crowdsourcingu, mającą na celu sprawdzenie jakości amerykańskich stacji meteorologicznych.  Armia woluntariuszy szybko odkryła dużą ilość niewłaściwie ulokowanych instrumentów.  Na konspiracyjne teorie denialistów globalnego ocieplenia nie trzeba było długo czekać.  Oczywiście jednym z najbardziej zatwardziałych promotorów rzekomego braku wiarygodności pomiarów temperatury był pan Watts.  Nie pomogły nawet analizy jego własnych danych przeprowadzone już w sierpniu 2007 roku przez - jak na ironię - jego kolegę z obozu „sceptyków”, które pokazały, że wyniki uzyskane na podstawie danych ze stacji „złych” czy „dobrych” są w granicach błędu identyczne.  Również  zignorowane przez denialistów zostały podobne analizy zrobione przez renomowane instytucje naukowe.  Jeszcze nie tak dawno, bo w sierpniu 2010 roku, Watts i drugi emerytowany meteorolog Joseph D’Aleo, opublikowali poprawioną wersję ich ponad 200-stronicowego raportu pod złowrogim tytułem: „Dane Temperatur Lądowych: Politycznie Sterowane Oszustwo?” (tytuł angielski: „Surface Temperature Record: Policy-Driven Deception?”).  Do chóru denialistów przyłączyli się nawet niektórzy naukowcy, między innymi wyżej wspomniany profesor Muller.

Oddajmy zatem głos profesorowi Mullerowi.  Oto tłumaczenie początku jego wystąpienia przed Komisją kongresu USA:

Projekt „Berkeley Earth Surface Temperature” (BEST) został stworzony w celu wykonania najlepszych możliwych ocen globalnych zmian temperatur, w oparciu o jak najbardziej kompletne dostępne zestawy pomiarów i nowoczesne metody oszacowania wyników i eliminacji błędów systematycznych.  Projekt ten został zorganizowany pod auspicjami non-profitowej organizacji Novim.  Nasze podejście kontynuuje wcześniejsze analizy grup z NOAA, NASA i z Wielkiej Brytanii (Hadley Center – Climate Research Unit, lub HadCRU).

Projekt BEST zgromadził 1,6 mld pomiarów temperatury, które wkrótce będą dostępne publicznie w łatwym do wykorzystania formacie.

Trudną kwestią w zrozumieniu globalnego ocieplenia są potencjalne błędy systematyczne.  Mogą one wynikać z wielu kwestii technicznych, takich jak wybór danych, stacji pomiarowych nie spełniających standardów wymogów technicznych, efektów stacji miejskich w porównaniu z wiejskimi, przemieszczanie stacji i zmiany metod i czasu pomiarów.

Dokonaliśmy wstępnego badania problemu wyboru stacji pomiarowych.  Zamiast wybrać stacje z długimi okresami pomiarów (tak jak to zrobiły wcześniejsze badania) wybraliśmy stacje losowo z całego dostępnego zbioru.  Takie podejście eliminuje problem stronniczego wyboru stacji.  Nasze wyniki, pokazane na poniższym rysunku, pokazują trend globalnego ocieplenia bardzo podobny do opublikowanego wcześniej przez inne grupy.  Wiele położonych w USA stacji według analizy przeprowadzonej pod kierownictwem Anthony Watts’a jest niskiej jakości.  Jednakże, nasze wyniki ze „złych” stacji są praktycznie nie do odróżnienia od tych ze stacji „dobrych”.

Średnie temperatury lądowe z trzech poprzednich badań porównane ze wstępnymi wynikami analizy Berkeley Earth.

Średnie temperatury lądowe z trzech poprzednich badań porównane ze wstępnymi wynikami analizy Berkeley Earth. Około 2% stacji meteorologicznych zostało losowo wybranych spośród wszystkich 39.028 dostępnych stacji.  Dane Berkeley zostały oznaczone jako wstępne, ponieważ nie biorą one pod uwagę obróbki danych w celu eliminacji błędów systematycznych.

Jak łatwo z rysunku zauważyć zastosowanie nowej metody analizy danych nie wpłynęło znacząco na końcowy wynik.  Warto też zacytować podsumowanie swojego wystąpienia przez Muller’a:

Pomimo błędów systematycznych mogących ukrywać się w pomiarach temperatury, używając odpowiednich metod analitycznych można te błędy odfiltrować na tyle, aby zmierzyć długoterminowe zmiany temperatury Ziemi.  Jakość danych jest wystarczająco dobra.  Opierając się na wstępnych wynikach projektu Berkeley Earth, najbardziej niepokojące potencjalne błędy są, moim zdaniem, znacznie mniejszym problemem niż wcześniej sądziłem.

Wygląda na to, że profesor Muller będzie w przyszłości bardziej powściągliwy w podsycaniu wątpliwości fabrykowanych przez denialistów.  A jaka była reakcja ze strony Anthony Watts’a?  Niecały miesiąc temu Watts entuzjastycznie popierał projekt Berkeley i nawet napisał na swoim blogu:

Jestem gotowy zaakceptować ich wyniki jakiekolwiek one będą, nawet jeśli dowiodą one, że moja hipoteza była błędna.  Robię ten śmiały krok, ponieważ stosowana przez BEST metoda ma sens.  Nie zwracajmy zatem uwagi na małych ujadaczy, którzy chcieliby rozerwać projekt na strzępy, zanim zobaczą jego wyniki.  Nikt, włącznie ze mną, nie widział jeszcze wyników, ale metoda nie jest szaleństwem, tak jak to, co widzieliśmy z NOAA, NCDS, GISS i CRU.  Poza tym, o ile mi wiadomo, projekt nie jest w żaden sposób skrępowany finansowo.  Nawet, jeśli ten projekt zostałby zakończony jutro, to nikt nie straci pracy, żaden duży rządowy program nie zostanie zamknięty i żaden pokrewny program też się nie zawali. Brak powiązań finansowych oraz szeroki wachlarz uczestniczących w projekcie ludzi, zwłaszcza tych z doświadczeniem w analizie dużych zbiorów danych, upewniają mnie, że wyniki będą bliższe sedna prawdy niż cokolwiek, co widzieliśmy do tej pory.

Kiedy wstępne wyniki grupy Mullera wyszły na światło dzienne – i w istocie rzeczy pokazały, że wysiłek wielu ludzi zmobilizowanych przez Watts’a był monumentalną stratą czasu – entuzjazm Watts’a do projektu BEST wyraźnie przygasł.  Nie chcąc zostać w tyle Watts przedłożył przed tą samą Komisją swój własny dokument, z ilustracjami kilku „podejrzanych” stacji meteorologicznych, zakończony apelem o następne, bardziej precyzyjne i systematyczne analizy danych.  (Ktoś powinien mu przypomnieć angielskie powiedzenie o biciu zabitego konia.)  Na wszelki wypadek pierwszego kwietnia na portalu Watts’a ukazała się też notatka „sceptycznego” klimatologa Rogera Pielke Sr. argumentująca, że globalne anomalie temperatury są w gruncie rzeczy nieistotne z punktu widzenia społeczeństwa i środowiska naturalnego.

Ciekawostką jest też fakt, że projekt BEST został wsparty finansowo przez fundację braci Koch, amerykańskich miliarderów słynących z finansowania grup podważających prawdziwość globalnego ocieplenia i blokowania wszelkich inicjatyw mających na celu ograniczenie ilości dwutlenku węgla pompowanego przez ludzi do atmosfery.  Pomimo wielu aspektów humorystycznych całej tej afery, trochę przygnębiająca jest świadomość, że tak wiele energii naukowców jest marnowane na bezsensowną pogoń za nieistniejącymi problemami, zamiast koncentrować się na prawdziwych problemach stojących przed ludzkością.  Co więcej, ostatnia salwa w sprawie anomalii temperatury bynajmniej nie została wystrzelona.  Zarówno Watts jak i grupa Mullera są w trakcie publikacji recenzowanych artykułów naukowych w tej kwestii.  Ciąg dalszy bicia piany (niestety) nastąpi.

Autor: Irek Zawadzki

pl Na podstawie: The Economist

Komentarze

12.04.2011 13:50 Pieszko

Hm.. Czytam te wszystkie artykuły o konieczności ograniczenia emisji CO2, o peak oil, planach ograniczenia emisji Co2 do roku 2030 czy 2050. Limitach .Tylko mam pytanie.. jak to się ma do faktu, że ropy wystarczy jeszcze na ok 40 lat. Niedobór a następnie brak ropy oznacza automatyczne załamanie gospodarki a co za tym idzie emisji gazów cieplarnianych. Choćbyśmy się nie wiem jak starali spalać paliwa kopalne to i tak spadek emisji jest tylko kwestią czasu.

12.04.2011 18:38 DERYL

Jak byśmy spalili całe zapasy węgla, ropy i gazu to wyemitowali byśmy około 3mld ton CO2. Doprowadziło by to do powtórki z okresu 55 - 60 milionów lat temu czyli Paleoceńsko-eoceńskiego maksimum termicznego, głębiny oceanów ogrzały by się o 2 c -3 c co by niewątpliwie doprowadziło do destabilizacji pokładów hydratów metanu. Do tego obecnie złoża hydratu są znacznie bardziej obfitsze niż kilkadziesiąt milionów lat temu. W okresie PETM ocieplenie trwało około 1000 lat, gdzie flora i fauna miała czas żeby się przystosować do znacznie cieplejszego świata obecnie osiągamy to samo w ciągu mniej niż 100 lat. Podsumowując, jeśli podniesiemy średnią globalną temperaturę planety o ponad 2c, przekroczymy poziom krytyczny co doprowadzi do nieodwracalnych zmian klimatycznych na jakieś 100 tysięcy lat. A według mnie i nie tylko mnie jest to nieuniknione. Uważam, że punk krytyczny zostanie osiągnięty, kiedy Arktyka będzie w okresie letnim wolna od lodu.
Paliw kopalnych jest więcej, są jeszcze łupki bitumiczne, piaski roponoośne gaz łupkowy itd. więc na moje mamy wystarczająco paliw kopalnych do końca XXI wieku i najlepiej było by z nich nie korzystać tak łapczywie jak ma to miejsce obecnie dla naszego dobra chyba że komuś bardzo odpowiada klimat np Andaluzji albo Sycylii i brać prysznic góra raz w tygodniu.

12.04.2011 19:52 T.K.

Zgadzam się z Derylem co do wniosków. Ale chyba całkowita ilość uwolnionego CO2 ze spalania wszystkich paliw kopalnych to znacznie, znacznie więcej niż 3 mld ton , skoro roczna emisja to około 30 mld ton.

12.04.2011 20:34 DERYL

T.K. Dzięki za uwagę, to miało być 3000 miliardów ton CO2 a nie tylko 3 miliardy jak napisałem. Oczywiście te 3000 mld ton było w okresie PERM, teraz byłoby więcej.

Dodaj komentarz

Kod
grakalkulator kalkulator zuzycia ciepla

Informacje

Linkownia

Wykonanie PONG, grafika GFX RedFrosch.



logowanie | nowe konto