W ciągu ostatnich tygodni w internecie, a także w „tradycyjnych” mediach ogłoszono szereg analiz statystycznych, których autorzy formułowali wnioski (często radykalnie różne) dotyczące skali możliwych nieścisłości w ogłoszonych wynikach II tury wyborów prezydenckich. Techniką statystyczną stosowaną w części tych analiz była regresja liniowa, za pomocą której tworzono modele przewidywania wyniku w II turze w danym obwodzie na podstawie wyników głosowania w I turze. Wskaźnikiem sugerującym, że w danym obwodzie mogło dojść do ogłoszenia wyników obciążonych poważnym błędem, jest wysoka wartość odchylenia pomiędzy wynikiem podanym w protokole a wynikiem przewidzianym przez model.
Modele regresyjne stosowane przez poszczególnych autorów różniły się szczegółami, ale zasadniczo prowadziły do podobnych wniosków: choć można wskazać dziesiątki, a nawet setki komisji obwodowych, które mogły ogłosić błędne wyniki, to jednak nie przełożyły się one na znaczące zniekształcenie ostatecznego rezultatu wyborów – zwłaszcza że błędy z podobną częstotliwością sprzyjały obu kandydatom, co sprawiało, że ich wpływ na końcowy wynik głosowania wzajemnie się znosił.
Profesorowie Dominik Batorski i Jacek Haman w niniejszej, napisanej dla Fundacji Batorego, analizie tłumaczą zalety i ograniczenia regresji liniowej jako statystycznej metody poszukiwania fałszerstw wyborczych. Odpowiadają też najczęstsze zarzuty wobec zastosowania tej metody.
Zachęcamy do lektury całej analizy!