Jerzy Spława-Neyman (1894 - 1981)
Jerzy Neyman jest uważany za jednego z twórców współczesnej statystyki, dziedziny określającej standardy dedukcyjne w tych obszarach badawczych, gdzie z natury rzeczy pojawia się przypadkowość, lub tam, gdzie badanie dużych zbiorowości (populacji) wymaga ograniczenia się do ich reprezentatywnych części, pozyskiwanych drogą losowania. Największa wartość jego wyników leży w klarownym przełożeniu luźno funkcjonujących na początku dwudziestego wieku idei rozumowania indukcyjnego, związanego z wnioskowaniem statystycznym, na ścisły język prawdopodobieństwa częstościowego. Otworzyło to drogę do świadomego planowania eksperymentów losowych, do obiektywizacji oceny ich wyników, a także do określenia i weryfikacji jakości samych procedur statystycznych. Wprowadzone przez niego pojęcia i procedury związane z testowaniem hipotez statystycznych, estymacją przedziałową, metodami pobierania prób i planowaniem eksperymentów są dziś obecne w pracach badawczych z zakresu socjologii, psychologii, medycyny, profilaktyki, biologii, rolnictwa, ekonomii, inżynierii, a także fizyki i chemii.
Powszechny w latach dwudziestych kryzys i nieład społeczny po I wojnie światowej wymuszał ciągłą aktualizację wiedzy o poziomie zamożności społeczeństwa, o stopniu jego zagrożenia ubóstwem i głodem. Spisy powszechne uwzględniające aktualny stan materialny i demograficzny były kosztowne, pracochłonne i nie mogły odbywać się często. Skłaniano się więc ku znacznie tańszym badaniom reprezentatywnym. Wykonywano je metodami statystycznymi, gdzie równolegle proponowano metody losowe, polegające na całkowicie przypadkowym wyborze jednostek do próby oraz na celowym wyborze elementów do próby. Rekomendacje te nie miały ścisłego uzasadnienia i nie wiedziano, jak je porównywać. Co więcej, same metody dedukcji statystycznej, pozwalające na uogólnienie wniosków z próby na całą populację, także nie były ustalone.
W roku 1934, na posiedzeniu Brytyjskiego Królewskiego Towarzystwa Statystycznego, Neyman przedstawił matematyczne ujęcie tego problemu, które z czasem uznano za rozstrzygające. Wprowadził on przedziałową metodę estymacji dla charakterystyk populacji (charakterystyką może być na przykład średni dochód domostw, odsetek osób posiadających dochody poniżej ustalonego progu, itp.) i związał jej efektywność z metodą pobierania próby. Zbadał różne schematy losowania przy podziale populacji na tak zwane warstwy i wykazał, że próba, która jest sumą próbek losowych z poszczególnych warstw, spełnia warunek reprezentatywności.
Metody probabilistyczne uważano początkowo za kontrowersyjne, ponieważ jednostki wybrane drogą losowania mogły być bardzo nietypowe w badanej populacji i nie realizować naturalnego postulatu reprezentatywności. Neyman wykazał, że próba wybrana metodą losowania bezpośredniego lub opartego na warstwach, jeśli jest dostatecznie liczna, pozwala na dokładne oszacowanie badanych charakterystyk z prawdopodobieństwem dowolnie bliskim jedności (pewności). Wykazał, że losowanie celowe jest na ogół mniej efektywne. Współczesne badania społeczne prowadzone przez urzędy statystyczne i ośrodki badania opinii społecznej stosują metody warstwowe, gdzie warstwami mogą być różne kategorie miejscowości, grupy wiekowe, rodzaj wykształcenia, itp. Liczne przypadki takich badań są zamieszczane w sprawozdawczości urzędów statystycznych na całym świecie. Jak drogie są spisy powszechne? Planowany w Polsce na rok 2021 spis (wykonuje się je co 10 lat) ma kosztować niemal 400 mln złotych.
Próba losowa, stanowiąca reprezentatywną, choć najczęściej niewielką część badanej populacji, zawiera informacje, które chcemy uogólnić na całą populację. Jak rozumiemy to uogólnienie? Ograniczając się do możliwie prostego przykładu rozważmy populację domostw w Polsce i ocenę ich średniego dochodu, powiedzmy D. W terminologii statystycznej powiedzielibyśmy, że mamy tutaj problem estymacji, i że naturalnym jego rozwiązaniem jest przyjęcie średniego dochodu domostwa w próbie, + , za dogodne oszacowanie nieznanej wartości D. Świadome i dobrze zaplanowane badanie wymagałoby ustalenia takiej liczności próby, która dałaby z dużym prawdopodobieństwem gwarancję małej wartości + . Otóż w przypadku próby celowej może to być praktycznie niemożliwe, choć jest to wykonalne dla próby losowej.
Jerzy Neyman, we wspomnianej pracy z roku 1934 i w publikacjach w latach 1935 i 1938, zaproponował i rozwinął metodę estymacji przedziałowej, tak zwane przedziały ufności, które mają tę własność, że pokrywają nieznaną wartość badanej cechy, w naszym przykładzie jest to średni dochód domostw w Polsce, z zadanym prawdopodobieństwem. Najczęściej wartość tego prawdopodobieństwa, nazywanego poziomem ufności, wynosi 0.95 i wtedy mówimy o 95% przedziałach ufności. Statystyk planujący badania eksperymentalne jest w stanie zaplanować liczność próby tak, żeby jednocześnie kontrolować długość przedziału ufności i poziom ufności.
Estymacja przedziałowa jest dziś kanonem wiedzy statystycznej, jest obecna w niemal każdej eksperymentalnej pracy badawczej z zakresu socjologii, psychologii, ekonomii czy medycyny. I choć Neyman nie był jedynym pomysłodawcą tej metody, to jemu zawdzięczamy jej współczesny, kompletny kształt, wyrażony w ramach prawdopodobieństwa częstościowego. Ktoś może kwestionować metodę przedziałów ufności jako niepewną. W końcu nigdy nie wiemy, czy przedział zawiera szukaną wartość charakterystyki, czy nie, znamy jedynie prawdopodobieństwo, że tak jest. To prawda, ale w badaniach reprezentatywnych lepiej tego celu osiągnąć nie można.
Drugim filarem wnioskowania statystycznego, zbudowanym w latach 1928 - 1936 przez Jerzego Neymana i brytyjskiego statystyka Egona Pearsona, jest teoria testowania hipotez statystycznych. Inspirującym dla nich przykładem dyskusji o hipotezach były uwagi J. Bertranda i E. Borela, wybitnych matematyków francuskich, na temat słynnej wtedy hipotezy Michella związanej z pytaniem: „Czy niewielka odległość kątowa sześciu widocznych gołym okiem gwiazd w gromadzie Plejady, mając na uwadze rozproszenie wszystkich gwiazd na niebie, może być czystym przypadkiem?”
Wyjaśniając istotę osiągnięć Neymana i Pearsona odniesiemy się do znacznie prostszego przykładu, gdzie na podstawie próby losowej weryfikujemy hipotezę, nazwijmy ją hipotezą zerową, orzekającą, że proporcja domostw o dochodzie poniżej pewnego ustalonego progu nie przekracza 25%. Naturalnym kryterium byłoby sprawdzenie czy proporcja domostw w próbie o dochodzie poniżej zadanego progu nie przekracza 25%. Taki tok postępowania byłby trudny do zaakceptowania przez praktyków, bowiem dla niektórych prób proporcja ta może przekroczyć 25%, mimo że w całej populacji leży ona poniżej tej wartości - sytuację tą nazwalibyśmy błędem pierwszego rodzaju i maksymalną wartość prawdopodobieństwa tego błędu można obliczyć. Co więcej, faktyczna proporcja w populacji mogłaby być większa niż 25%, a w próbie mniejsza od tej ¯x |D − ¯x | wartości. Popełnilibyśmy wtedy błąd drugiego rodzaju. Pojęcie błędu drugiego rodzaju jest w istocie związane z koniecznością określenia hipotezy alternatywnej, mówiącej, że omawiana proporcja w populacji jest większa niż 25%. Neyman i Perason akcentują, że jawne sformułowanie alternatywy daje nie tylko możliwość oceny prawdopodobieństwa błędu drugiego rodzaju, ale także wprowadza jasne kryterium budowy testów mnimalizujących błąd drugiego rodzaju przy zadanym ograniczeniu na poziom istotności, czyli na prawdopodobieństwo błędu pierwszego rodzaju. Wskazują oni także postać najlepszego testu przy tak zwanych prostych hipotezach (słynny lemat Neymana Pearsona). W praktyce statystycznej przyjmuje się, że poziom istotności jest zwykle równy 0.05, zakładając niejako, że raz na dwadzieścia razy błędnie odrzuci się hipotezę zerową. Tak sformułowany problem testowania zakłada celową asymetrię w roli hipotez - w praktyce bowiem alternatywą zwykle jest nowa hipoteza naukowa. Jej przyjęcie oznacza, że gdyby nawet prawdziwa była hipoteza zerowa to miałoby to miejsce z prawdopodobieństwem nie większym niż poziom istotności, który kontrolujemy budując test.
Mamy więc jasny tok postępowania, kontrolujemy szansę błędnego przyjęcia nowej hipotezy i co więcej, mamy jasne kryterium jakości testów. Teoria testowania hipotez zapoczątkowana przez Neymana i rozwinięta przez niego w latach 1937 - 1959 miała ogromny wpływ na dalszy rozwój metod statystycznych i także teorii prawdopodobieństwa, a kluczowa praca Neymana i Pearsona z 1933 roku o konstrukcji testów optymalnych znalazła się w wydanym w 1992 roku tomie największych osiągnięć w zakresie podstaw statystyki w XX wieku.
Kolejną intensywnie rozwijaną po I wojnie światowej dziedziną, realizującą pilne potrzeby społeczne było doświadczalnictwo rolnicze. Szukano coraz lepszych odmian roślin i coraz lepszych metod ich uprawy. Wymagało to setek doświadczeń polowych i dużej ilości czasu. Ich efektywną organizację zawdzięczamy statystyce i metodom, których pionierem był Jerzy Neyman i Ronald Fisher. Podstawowa idea badania jakości odmian polegała na alokacji, powiedzmy, k różnych odmian pszenicy na nk poletkach. Neyman w roku 1923 wykazał, że jeśli alokacja odmian odbywa się drogą losowania (randomizacji), to można oszacować różnice wydajności poszczególnych odmian. Udowodnił, że zaproponowana metoda prowadzi do estymatorów, których oczekiwana wartość jest równa wspomnianej różnicy i co więcej, zaproponował metodę obliczania dokładności tych estymatorów. W roku 1935 wspólnie z K. Iwaszkiewicz i S. Kołodziejczykiem Neyman opublikował w Anglii istotne rozwinięcie swoich wcześniejszych, polskich wyników.
Wyjaśniając wagę pomysłu Neymana z 1923 roku łatwiej odnieść ją do współczesnej statystycznej analizy przyczynowości, dla której praca Neymana mogłaby być pierwowzorem. Przypuśćmy, że dla grupy pacjentów sprawdzamy działanie nowego leku. Dla wylosowanej osoby u, niech + będzie czasem od wykrycia choroby do jej wyleczenia. Każdej jednostce eksperymentalnej możemy więc przypisać dwie zmienne, dwa potencjalne skutki, + i + , gdzie pierwszy oznacza czas leczenia, gdy lek został podany, a drugi wartość kontrolną tego czasu, gdy pacjent otrzyma placebo zamiast leku. Wyniki eksperymentu nazwany potencjalnymi, ponieważ dla każdego pacjenta biorącego udział w badaniu obserwować możemy tylko jedną z tych wartości. Celem jest oszacowanie wartości oczekiwanej różnicy + , którą rozumiemy jako zagregowany efekt przyczynowy dla przyczyn l - lek i p - placebo, ale której de facto nie obserwujemy na żadnej jednostce badanej populacji. Przenosząc wyniki Neymana na Y(u) Yl(u) Yp(u) Yl(u) − Yp(u) ten przykład powiedzielibyśmy, że Neyman udowodnił, iż zgodna estymacja tej wielkości jest możliwa, jak również, że możliwa jest ocena dokładności estymacji, pod warunkiem, że alokacja pacjentów do obu grup jest całkowicie przypadkowa lub mówiąc inaczej, przydział pacjentów do poszczególnych grup odbywa się drogą randomizacji.
Znany amerykański statystyk D. Rubin, w komentarzu do tłumaczenia wyżej wzmiankowanej pracy Neymana z roku 1923, pisze: „Prośba zabrania głosu w dyskusji o tym dokumencie jest dla mnie zaszczytem. Umieszcza on bowiem Neymana w gronie największych myślicieli dziedziny i wyjaśnia współczesnym statystykom zainteresowanym analizą przyczynowości, ile mają mu do zawdzięczenia.”
Omówione powyżej osiągnięcia naukowe stawiają Jerzego Neymana, obok Ronalda Fishera, w roli współtwórcy wnioskowania statystycznego - fundamentu indukcyjnego rozumowania dla wielu dziedzin nauki, gdzie charakter eksperymentu, bądź mechanizm losowy zjawiska skłaniają nas do konkluzji, których prawdziwość zmuszeni jesteśmy opisać językiem prawdopodobieństwa. Neyman miał wiele innych znaczących osiągnięć naukowych. Jego badania z zakresu entomologii, bakteriologii, niezawodności, modelowania mechanizmów powstawania nowotworów, charakterystyki rozkładu galaktyk, wpływu promieniowania na mutacje komórek, skutków modyfikacji pogody na wielkość plonów, a także późniejsze teoretyczne wyniki w statystyce matematycznej czynią go jednym z gigantów nauki światowej.
Biografia
Udokumentowana historia rodziny Jerzego Neymana ze strony ojca sięga XVII wieku, kiedy to przybyła ona do Polski z Holandii lub Niemiec. W roku 1775 król Stanisław Poniatowski za okazaną pomoc nadał jej herb Spława (Neyman zaniechał używania rodzinnego herbu po osiedleniu się w USA w 1938 roku). Jerzy Spława-Neyman urodził się 16 kwietnia 1894 roku w mieście Bendery, nazywanym bramą Besarabii, położonym we wschodniej Mołdawii nad Dniestrem. Jego dziadek, za udział w powstaniu w 1863 roku został zamordowany, majątek uległ konfiskacie, a synowie, oprócz najmłodszego Czesława, ojca Jerzego, zostali zesłani na Syberię. Czesławowi pozwolono pozostać ze starszymi siostrami pod warunkiem, że w miejscu zamieszkania ich kontakty z innymi rodzinami polskimi byłyby ograniczone. Czesław ukończył prawo na Uniwersytecie Kijowskim i poślubił Kazimierę Lutosławską, matkę Jerzego. Dziadek Kazimiery także uczestniczył w powstaniu styczniowym, w wyniku czego utracił polski majątek i wraz z rodziną został zesłany.
Jerzy Neyman, mimo że urodził się w Rosji, uważał się za Polaka i jego rodzinnym językiem był polski, choć ze zrozumiałych względów językiem rosyjskim zaczął posługiwać się równie wcześnie.
Po śmierci ojca w 1906 roku rodzina Neymana przeniosła się do Charkowa, gdzie w roku1912 rozpoczął on studia na tamtejszym uniwersytecie. Początkowe zainteresowania fizyką wyewoluowały w kierunku matematyki - teorii miary i teorii prawdopodobieństwa, nowych, silnie rozwijających się dyscyplin matematycznych. Neyman podkreślał istotną rolę profesora S. Bernsteina, na którego wykłady uczęszczał, we wprowadzeniu go w arkana teorii prawdopodobieństwa. Pierwsza wojna światowa i rewolucja bolszewicka pogrążyły rosyjskie społeczeństwo w nędzy i głodzie. W 1919 roku stwierdzono u Neymana gruźlicę, którą leczył na Kaukazie, gdzie poznał swoją przyszłą żonę, malarkę Olgę Sołodownikową. W roku 1920 zdał egzamin magisterski i rozpoczął pracę na uniwersytecie, współpracując z profesorem M. Jegorowem nad doświadczalnictwem rolniczym.
Okres polski w życiu Neymana rozpoczął się w roku 1921, kiedy po traktacie ryskim pojawiła się możliwość przeniesienia się do ojczyzny rodziców. Początkowo rodzina osiedliła się w Bydgoszczy. Neyman, w nadziei związania się w przyszłości z którymś z kluczowych uniwersytetów polskich i kontynuacji swoich zainteresowań matematycznych, przedstawił swoje pierwsze wyniki naukowe wybitnemu matematykowi Uniwersytetu Warszawskiego, profesorowi W. Sierpińskiemu. Mimo pomocy Sierpińskiego perspektywa takiego zatrudnienia wymagała czasu, dlatego trudna sytuacja materialna zmusiła Neymana do podjęcia pracy najpierw w Państwowym Instytucie Naukowo-Rolniczym w Bydgoszczy, a następnie w Państwowym Instytucie Meteorologicznym w Warszawie. W roku 1924 Neyman otrzymał tytuł doktora nauk matematycznych na Uniwersytecie Warszawskim. Pracował tam jakiś czas jako asystent i prowadził wykłady z matematyki i statystyki w SGGW. W 1928 roku powierzono mu organizację Laboratorium Biometrycznego w Instytucie im. M. Nenckiego w Warszawie, a w roku 1929 dla potrzeb tego laboratorium założył czasopismo „Statistica”. Ze względu na swoje doświadczenie statystyczne współpracował także z Instytutem Spraw Społecznych i GUS-em. Rok 1924 wydaje się przełomowy w naukowym życiu Neymana. Dzięki wsparciu profesora Sierpińskiego i dyrektora Państwowego Instytutu Naukowo-Rolniczego w Bydgoszczy profesora Bassalika, otrzymał roczne stypendium rządu polskiego na pobyt w University College w Londynie u Karola Pearsona, gdzie mógł przedstawić wyniki badań prowadzonych w Polsce i w dalszej perspektywie rozpocząć intensywną współpracę naukową z Egonem Pearsonem, synem Karola Pearsona. Neyman otrzymał także stypendium fundacji Rockefellera, które wykorzystał na roczny pobyt w Paryżu na Sorbonie u Borela i w Collége de France u Lebesgue’a. W latach 1934-1938 Neyman pracował na stanowisku wykładowcy w University College w Londynie, utrzymując bliski kontakt naukowy ze swoimi współpracownikami w Polsce. Okres londyński dał Neymanowi możliwość udziału w debatach naukowych dotyczących rodzącej się nowej ważnej dyscypliny jaką stawała się statystyka matematyczna, a bliskie kontakty z Ronaldem Fisherem, Williamem Gossetem, Karolem i Egonem Pearsonami oraz Georgem Udnym Yulem stawiały go w centrum tych narodzin. To był także okres powstania najważniejszych prac Neymana, bo określających ścisłe probabilistyczne ramy dla „nieuporządkowanych” jeszcze idei statystycznych.
Mimo niewątpliwych osiągnięć naukowych jego perspektywy zatrudnienia na stanowisku profesora w Polsce stawały się, jak się uważa, coraz bardziej wątpliwe i to z przyczyn niemerytorycznych. W roku 1938, w wieku 44 lat, Neyman zaakceptował propozycję Griffitha Evansa, kierującego Wydziałem Matematyki na Uniwersytecie Kalifornijskim w Berkeley, aby objął stanowisko profesora matematyki, celem zbudowania ośrodka statystycznego. Neyman w krótkim czasie utworzył Laboratorium Statystyczne. W czasie II wojny światowej Laboratorium było mocno zaangażowane we współpracę z wojskiem w przygotowywaniu efektywnych strategii bombardowań lotniczych. W roku 1943 Neymanowi osobiście zlecono opracowanie optymalnego rozkładu bomb zrzucanych z niskiego pułapu dla „oczyszczenia” zaminowanych płatów wybrzeża. Gdy Neyman z wielkim zaangażowaniem zabrał się do pracy, okazało się, że dla potrzeb jego modelu niezbędna jest dokładniejsza wiedza o charakterystyce wybrzeża. Członek wojskowej komisji, próbując Neymanowi pomóc, przy jednoczesnym zachowaniu tajemnicy wojskowej, zapytał czy kiedykolwiek odwiedził on Francję i tamtejsze wybrzeża. Neyman potwierdził. Z kolei na prośbę, żeby podał przykład, Neyman wskazał Normandię. Na to rozmówca rzucił: „To niech to będą plaże Normandii.”
W okresie powojennym, dzięki staraniom Neymana, udało się zatrudnić w laboratorium i na Wydziale Statystyki, który z tego laboratorium wyewoluował w latach 50. dwudziestego wieku, wielu wybitnych matematyków i statystyków, i w efekcie zbudować od podstaw jeden z najsilniejszych ośrodków statystyki matematycznej w USA. Realizując swoją pasję badawczą Neyman osobiście zainicjował i zaangażował się w organizację słynnych sympozjów berkelejskich, które stały się niezwykle ważnym forum wymiany międzynarodowej myśli naukowej w statystyce, probabilistyce i zastosowaniach metod statystycznych w innych dziedzinach. W 1969 roku Neyman otrzymał najwyższą amerykańską nagrodę naukową Medal Nauki „Za stworzenie podstaw nowoczesnej statystyki i wymyślenie testów i procedur, które stały się istotną częścią wiedzy każdego statystyka”.
W uznaniu jego zasług i bieżących badań wspieranych zewnętrznymi grantami, Uniwersytet umożliwił mu kontynuowanie pracy po osiągnięciu wieku emerytalnego, co było ewenementem w skali uczelni. Kierował Laboratorium Statystycznym i prowadził wykłady do ostatnich lat swojego życia. Dziś, otwierając witrynę Wydziału Statystyki na Uniwersytecie Kalifornijskim w Berkeley czytamy: „W roku 1938 Jerzy Neyman, jeden z intelektualnych gigantów dwudziestego wieku, założył w Berkeley jedno z pierwszych centrów badań statystycznych w kraju. Od momentu jego powstania, jego pracownicy i absolwenci kontynuowali kształtowanie podstawy statystyki. Spośród luminarzy nauki, którzy od nas odeszli był David Balckwell, Leo Breiman, David Freedman, Lucien LeCam i Erich Lehmann…” Jerzy Neyman zmarł 5 sierpnia 1981 roku w Oakland.