Opracowanie:
Regresja liniowa
Regresja liniowa
Temat : Regresja Liniowa
Regresja liniowa jest najprostszym z możliwych wariantem regresji w statystyce.
Mówi ona o tym że zależność pomiędzy zmienną objaśnianą a zmienną objaśniającą jest zależnością liniową.
I tak jak w analizie jeśli jedna wartość wzrasta to i druga wzrasta w dodatniej korelacji lub spada w ujemnej korelacji.
Zakłada się w regresji liniowej, że gdy wzrasta jedna zmienna to towarzyszy wzrostowi lub spadkowi drugiej zmiennej.
Przyjmuje się że funkcja regresji przyjmuje postać funkcji liniowej czyli
y = bx + a .
Regresja linowa jest po to żeby można było wyliczyć współczynniki regresji ( modelu liniowym ) gdy stworzymy taki model, chodzi w nim o to żeby jak najlepiej przewidywać wartość zmiennej zależnej.
Chodzi o to żeby błąd oszacowania był jak najmniejszy.
Analiza regresji musi być jak najbardziej dopasowana czyli być taką linią prostą do badanych aby było jak najmniej błędów losowych.
W Analizie regresji liniowej zmienne które są wprowadzane do modelu są: zmienna zależna i Predyktory które muszą mieć postać ilościowy.
Absolutnie nie mogą być zmienne nominalne czy zmienne porządkowe.
W innych rodzajach analiz te zmienne można modelować.
Natomiast nie można tego robić w regresji liniowej.
Ta analiza jest najczęściej spotykanym rodzajem analizy regresyjnej.
Dlatego że jest jedną z najprostszych sposobów analizy danych.
Interpretacja funkcji regresji dotyczy przydatności predyktorów w modelu regresji w celu przewidywania poziomu zmiennej zależnej.
Testy oparte na modelu liniowym to: test t Studenta dla jednej próby
( y = ) , test t Studenta dla par obserwacji ( ).
Są też testy Wilcoxona dla jednej próby ( _+ (y) = ) lub dla par obserwacji ( ranga _+ ( ) = ).
Oprócz tego znamy jeszcze korelacje Speamana ( ranga (y) = ) i korelacje r Pearsona ( y = ).
Należy wspomnieć też że są testy Manna – Whitneya ( ranga _+ ( y ) = ) i testy Kruskala Wallisa ( ranga _+ (y) ).
Analiza kowariancji ( ANCOVA ) stosujemy ją w tedy gdy na zmienną zależną wpływają także inne zmienne które nas nie interesują a ich wpływu na zmienną zależną nie chcemy badać.
przykład :
Jeśli chcemy zbadać wpływ nowej metody nauczania języka angielskiego na wynik egzaminu ósmoklasisty z tego przedmiotu, to uważamy że wynik egzaminu jest mocno powiązany z poziomem inteligencji.
Chodzi o to żebyś my mogli wy eliminować wpływ ilorazu inteligencji uczniów na wynik egzaminu ósmoklasisty.
Chodzi nam o to żebyśmy bardziej dokładnie mogli ocenić wpływ nowej metody nauczania na wynik egzaminu.
Iloraz inteligencji uczniów w tym konkretnym przykładzie jest kowariantem.
Bardzo ciekawym jest test statystyczny Carla Pearsona.
Jego twórca urodził się w Londynie w 1857 roku.
Był angielskim matematykiem prekursorem statystyki matematycznej.
Współczynnik nazwany jego imieniem określa poziom zależności liniowej między zmiennymi losowymi.
Korelacje mogą być silne, słabe lub ujemne interpretacji nie można traktować z byt ściśle
Przykład :
Współczynnik 0,7 dla ekonomisty będzie oznaczał silną korelacje a dla chemika który potrzebuje przy badaniu szczegółowych pomiarów z dokładnością do liczb tysięcznych oznacza korelację słabą .