Autor: Jarosław Janecki

Ekonomista, adiunkt w Szkole Głównej Handlowej w Warszawie, członek TEP

więcej publikacji autora Jarosław Janecki

Badania warto powtarzać

Powtarzanie czynności jest czymś naturalnym. A powtarzanie badań, które były już przeprowadzone? Wbrew pozorom takie czynności nie są pozbawione sensu.
Badania warto powtarzać

(©Pixabay)

Jednak w tym celu potrzebujemy odpowiednich informacji, które złożą się na określoną procedurę. W wielu dziedzinach codziennego życia nasze działania sprowadzają się do wykonywania zestawu czynności tworzących procedury, które w konsekwencji prowadzą do z góry określonego efektu. W naukach ścisłych jest to sprawa o wiele prostsza niż w naukach społecznych.

Malowanie z fizyką w tle

Z wystandaryzowanymi procedurami mamy do czynienia na każdym kroku. Richard P. Feynman w swojej autobiografii przywołuje historię z okresu jego studiów w Princeton. Spotkał wówczas malarza pokojowego, ich rozmowa zeszła na temat uzyskania odpowiedniego koloru po zmieszaniu odpowiednich rodzajów farb. Sprawiający wrażenie fachowca malarz stwierdził, że aby uzyskać żółty kolor należy zmieszać czerwoną i białą farbę. Feynman miał inne zdanie, z podstaw fizyki wiedział, że w ten sposób uzyska się kolor różowy. Wiedział również, że mieszanie kolorów światła zielonego i czerwonego daje kolor żółty. Pojawiła się jednak u niego niepewność odnośnie zachodzących reakcji chemicznych podczas mieszania farb. Feynman na prośbę malarza kupił czerwoną i białą farbę, gdy doszło do mieszania farb malarz otrzymywał kolor różowy. W końcu po kilku nieudanych próbach, malarz dodał: „zawsze miałem jeszcze tubkę żółtej, żeby złamać kolor; wtedy zrobi się żółty.” Feynmann miał oczywiście rację, jednak historia ta pokazuje, jak bardzo ważne jest opisanie procedury wykonywanej czynności w celu uzyskania powtarzalności otrzymywanych wyników. Błędne wskazówki lub nieprzekazane do końca procedury prowadzą z jednej strony do niepewności, a z drugiej do błędów.

Kłopot z powtarzalnością badań

Stosowanie procedur jest sprawą oczywistą w przypadku nauk ścisłych, np. w fizyce, mikrobiologii, pracach laboratoryjnych. W naukach społecznych problem ten jest poważniejszy, między innymi z uwagi na to, że poszczególne fazy badań trudno ująć w ramach procedur. Od momentu sformułowania problemu naukowego do otrzymania wyników i ewentualnie rekomendacji dla decydentów podejmujących decyzję droga jest długa i niekoniecznie prosta i jednoznaczna. Wyniki przeprowadzanych badań w sposób naturalny mogą się różnic między sobą w zależności od empirycznych metod, rodzaju zastosowanych danych czy próbek. Decyzje podejmowane w trakcie przeprowadzania badań mogą w oczywisty sposób wpływać na ich wyniki. Przykładowo, wykluczenia niektórych zmiennych z modelu, które następnie w tekście nie są opisane, pomimo, że wpływa to na ostateczne wyniki badań. Wreszcie sam sposób prezentacji wyników może wpłynąć również na postrzeganie odbiorcy odnośnie uzyskanych przez autorów badania wyników. Należy również podkreślić, że ważną rolę odgrywają nie tylko autorzy badań, ale również ich recenzenci oraz inne osoby, które są zainteresowane zastosowaniem podobnej metodologii. W interesie każdej z tych grup jest możliwość uzyskania powtarzalności przeprowadzanych badań. Jest to z pewnością duży problem w naukach społecznych, badaniach przeprowadzanych w ekonomii, socjologii i psychologii.

Doskonalenie metod badania inflacji

Zdarza się, że naukowcy dokonują weryfikacji wcześniej przeprowadzonych i opublikowanych wyników badań. Testowane są te same hipotezy, przy wykorzystaniu tych samych danych, ale za pomocą nowej metody. Może to wiązać się również z dyskusją nad kontrowersyjnymi tezami lub zastosowaniem zmienionej metodologii, prowadzącej do innych wyników. Generalnie replikacja wcześniejszych, oryginalnych badań w niektórych dziedzinach nauki, na przykład w psychologii, jest wręcz niemile widziana. Krytycy uważają, że w psychologii elastyczność badaczy w projektowaniu eksperymentalnym i analizie danych pozwala na poparcie niemal każdej hipotezy.

Powtarzalność zastosowanej metodologii świadczy o jakości przeprowadzonych badań, jak i samej publikacji naukowej. W świecie nauki jednym z podstawowych wymogów opublikowania artykułu naukowego, jest nie tylko opisanie metodologii badań, ale również dołączenie wszystkich danych, na podstawie których były one przeprowadzone. Pozwala to ograniczyć przeprowadzanie ewentualnych manipulacji na danych, dokonywanych wyborów w trakcie przeprowadzania badań, które wpływają ostatecznie na ich wyniki.

Merytoryczna dyskusja na argumenty

Powtarzanie wcześniej przeprowadzonych badań nie jest częste. Jednak w sytuacji, gdy pojawiają się interesujące tezy, niektórzy ekonomiści decydują się na powiedzenie – sprawdzam. Głośnym echem wśród ekonomistów odbiła się przykładowo praca wykonana przez Thomasa Herndona, Michaela Asha i Roberta Pollina, w której to powtórzono badania przeprowadzone przez Carmen M. Reinhart i Kennetha S. Rogoffa. Przypomnijmy, że w efekcie badań przeprowadzonych w 2010 roku na danych z 44 krajów, Reinhart i Rogoff stwierdzili, że zidentyfikowali ważną zależność wskazującą, że zarówno w krajach rozwiniętych, jak i na rynkach wschodzących, wysoki poziom relacji długu do PKB (90 procent i więcej) wiąże się ze znacznie niższą dynamiką PKB.

Herndona, Asha i Pollin zdecydowali się na powtórzenie badania. Zauważyli, że selektywne wykluczanie dostępnych danych i stosowane metody statystyczne prowadzą do poważnych błędów w ocenie związku między długiem publicznym a wzrostem PKB. Okazało się, że średnia dynamika PKB w sytuacji, gdy relacja długu do PKB wynosi powyżej 90 procent, nie różni się wyraźnie od sytuacji, kiedy występują niższe relacje długu do PKB. Co więcej, wykazano również, że związek między długiem publicznym a wzrostem PKB różni się znacznie w zależności od okresu i kraju. Zatem powtórzenie badań dostarczyło dowodów sprzecznych z pierwotnym twierdzeniem Reinhart i Rogoffa.

Powtórzenie badań Reinhart i Rogoffa o związku między długiem publicznym a wzrostem PKB dostarczyło dowodów sprzecznych z pierwotnym twierdzeniem

Skrótowość nie zawsze opłacalna

Przykład badań Reinhart i Rogoffa wskazuje na problem związany z danymi i stosowaną metodologią. Często autorzy w sposób świadomy lub nieświadomy pomijają znaczące fakty, które jak się później okazuje, wpływają na wyniki badań. Skrótowość będąca wyborem stopnia szczegółowości opisywanych w artykule badań stanowi często jeden z podstawowych problemów. Zwracają na niego uwagę Nick Huntington-Klein z zespołem jedenastu ekonomistów w opracowaniu The Influence of Hidden Researcher Decisions in Applied Microeconomics. Zauważają oni, że „tylko niewielka część tych wyborów może być w sposób wyraźny opisana w artykule. Recenzenci mogą nie być w stanie ocenić wszystkich tych wyborów, czytelnicy mogą nie być świadomi, w jaki sposób dokonano tych wyborów, a zatem być w stanie uwzględnić je w swoim toku zrozumienia wyników”. Wszystko to prowadzi do tego, że ponowne sprawdzenie wszystkich dokonanych przez autorów wyborów po publikacji artykułu jest rzadko, o ile w ogóle, możliwe.

Po pierwsze przejrzystość

Prawdopodobieństwo pojawienia się różnic w wynikach badań zwiększa się w przypadku, gdy badacze, oprócz możliwości wyboru zastosowania metodologii, mają również swobodę w konstruowaniu zbioru danych (w tym przetwarzanie i „czyszczenie” szeregów). Biorąc pod uwagę te same dane wejściowe, analitycy różnią się podejściem do sposobu czyszczenia i przygotowywania danych oraz projektowania całej analizy. Musi to w konsekwencji prowadzić do znacznych różnic w wynikach. Dokonywane przez analityków wybory nie powinny być traktowane w kategoriach błędów. Problemem jest raczej brak przejrzystych informacji na temat całej procedury, która została zastosowana w badaniach. Tylko wówczas będzie można uniknąć pojawienia się dodatkowego źródła niepewności, jakim są niewątpliwie różne wyniki badań i rekomendacje z nich wynikające. Główny problem odnosi się do „niewidzialnych” lub „ukrytych” wyborów, które dokonywane są przez autorów badań.

Czy COVID-19 odbuduje, czy zmniejszy zaufanie do nauki?

Powoli można zaobserwować pojawienie się działań zmierzających w kierunku standaryzacji fazy przygotowywania danych. Jest to możliwe w przypadku najbardziej popularnych danych, które są ogólnie dostępne. Tego rodzaju działanie prowadzi na przykład National Bureau of Economic Research. Przejrzystość na każdym etapie przeprowadzanych analiz powinna być priorytetem każdego naukowca, gdyż prowadzi do wysokiej wiarygodności otrzymywanych wyników. Jest to ważne z punktu widzenia decydenta, który na podstawie wniosków z przeprowadzonych badań może podejmować decyzje, które okażą się błędne.

W literaturze poruszającej ten temat znajdziemy kilka ważnych wskazówek. Przykładowo Simmons, Nelson i Simonsohn postulują szereg rozwiązań, które odnoszą się zarówno do autorów publikacji, jak i ich recenzentów. Odnoszą się one do obszaru psychologii, ale mogą częściowo być również stosowane w innych naukach humanistycznych, w tym również i w ekonomii. Wśród zaleceń dla autorów badań znalazły się między innymi rekomendacje w odniesieniu do zbierania danych, które są przedmiotem badań – należy ex ante ujawniać przyjęte arbitralne zasady w odniesieniu do zbierania danych, zasad ich gromadzenia i zasad związanych z zakończeniem ich zbierania (przykładowo, że: postanowiliśmy zebrać x obserwacji). W sytuacji wyeliminowania niektórych obserwacji, autorzy powinni przedstawić wyniki w sytuacji, jeśli byłyby one uwzględnione w badaniu lub opisać konsekwencje pominięcia ich w badaniu i wpływu na uzyskane wyniki. Zalecenia kierowane są nie tylko do autorów, ale również do recenzentów badań naukowych. Dotyczą one m.in. weryfikacji, czy autorzy przestrzegają wszystkich wymagań oraz czy ​​ich wyniki nie zależą od arbitralnych decyzji analitycznych.

Analiza różnic metodologicznych między badaczami pozwala zorientować się, na ile zmienność wyników może wynikać z podejmowanych w dobrej wierze decyzji wśród świadomych badaczy. Przynajmniej z tego powodu warto badać jeszcze raz to, co było już kiedyś zbadane.

(©Pixabay)

Otwarta licencja


Tagi


Artykuły powiązane

Doskonalenie metod badania inflacji

Kategoria: Analizy
Doskonalenie metod badania inflacji

Badania ekonomiczne: Obniżanie podatków dla firm nie opłaca się

Kategoria: Raporty
Badania ekonomiczne: Obniżanie podatków dla firm nie opłaca się

Za mało przeznaczamy na badania i rozwój

Kategoria: Ekologia
Za mało przeznaczamy na badania i rozwój

Popularne artykuły

Gdzie będzie polska gospodarka za lat 5, 10

Kategoria:
Gdzie będzie polska gospodarka za lat 5, 10

Finanse publiczne: Brak długofalowego myślenia

Kategoria: Rynki kapitałowe
Finanse publiczne: Brak długofalowego myślenia

Bankowość pod okiem Allaha

Kategoria: Rynek bankowy
Bankowość pod okiem Allaha

Jak rozwijał się kryzys 2007-2009 - infografika, kalendarium

Kategoria: Polityka pieniężna
Jak rozwijał się kryzys 2007-2009 - infografika, kalendarium

Łosoś nie zastąpi ropy. Norwegia w kryzysie

Kategoria: Wskaźniki ekonomiczne
Łosoś nie zastąpi ropy. Norwegia w kryzysie

Pracownicy widmo, czyli jak komputery wynajmują ludzi do prostych prac

Kategoria: Trendy gospodarcze
Pracownicy widmo, czyli jak komputery wynajmują ludzi do prostych prac