Ask a question from expert

Ask now

3. MODELE DE REGRESIE CLASICE 3.1.

43 Pages27349 Words461 Views
   

Added on  2021-06-22

3. MODELE DE REGRESIE CLASICE 3.1.

   Added on 2021-06-22

BookmarkShareRelated Documents
1 3. MODELE DE REGRESIE CLASICE 3.1. Modelul unifactorial de regresie liniarăAnaliza de Regresie Analiza de regresie se ocupă cu descrierea şi evaluarea legăturii dintre o variabilă dependentă sau explicată şi una sau mai multe variabile independente sau explicative, cu scopul de a estima şi de a previziona valoarea medie a variabilei dependente, cunoscându-se valorile fixate ale variabilelor independente (valori fixate în urma unor eşantionări repetate). Regresia este o metodă de modelare a legăturilor dintre variabile. Este cel mai important instrument de lucru al econometriei. Originea termenului de regresie Termenul de regresie provine din studiile efectuate, în domeniul eredităŃii, de statisticianul englez Francis Galton (1822-1911). Acesta a observat că înălŃimea fiilor proveniŃi din taŃi foarte înalŃi se apropie mai mult de înălŃimea medie a fiilor decât de înălŃimea taŃilor. Galton a constatat că avea loc o regresie sau o revenire la înălŃimea medie. Obiectivele Analizei de Regresie 1. Estimarea valoarii medii a variabilei dependente, date fiind valorile var. indep. 2. Testarea de ipoteze despre natura dependenŃei (ipoteze sugerate de teoria ec.) 3. Previzionarea valoarii medii a variabilei dependente, cunoscând valorile viitoare ale variabilelor independente. Denumiri ale variabilelor în analiza de regresie Variabila Y Variabilele X1,X2,...,Xk1 2 3 4 5 6 7 Variabilă dependentă Variabilă explicată Regresand Variabilă estimată Variabilă efect Variabilă edogenă Variabilă Ńintă Variabile independente Variabile explicative Regresori Estimatori Variabile cauzale Variabile exogene Variabile de control Aceşti termeni sunt relevanŃi pentru o anumită situaŃie a folosirii regresiei. 1,2,3 – în discuŃii despre modele de regresie 4 – dacă intenŃia este de a prognoza valoarea unei variabile 5 – în studii de cauzalitate 6 – terminologie specifică econometriei 7 – terminologie specifică în probleme de control optimal. Modelul este instrumentul de bază din analiza de regresie Modelul econometric: – una sau mai multe ecuaŃii care descriu relaŃii statistice. Modelul unifactorial de regresie, în care o variabilă dependentă Y este explicată printr-o singură variabilă independentă X, este cel mai simplu model econometric. DependenŃa deterministă vs. dependenŃa statistică DependenŃa deterministă dintre variabilele Y şi X este o legătură ce poate fi descrisă complet prin intermediul unei ecuaŃii de tip determinist, adică printr-o ecuaŃie ce conŃine toŃi termenii care intervin în procesul studiat. DependenŃa statistică (stochastică, aleatoare) dintre Y şi X este acea legătură care nu generează valori unice pentru Y, în cazul unor valori date ale lui X, ci o mulŃime de valori pentru Y. Această legătură poate fi descrisă în termeni probabilistici. Regresie vs. cauzalitate Deşi Analiza de regresie se ocupă cu relaŃiile dintre o variabilă dependentă şi una sau mai multe variabile independente, ea nu implică, în mod necesar, cauzalitate, adică nu înseamnă neapărat că
3. MODELE DE REGRESIE CLASICE 3.1._1
2 variabilele independente sunt cauza şi variabila dependentă este efectul. Dacă există cauzalitate între o variabilă independentă şi variabila dependentă, aceasta trebuie justificată pe baza unei anumite teorii economice. De exemplu, legea cererii sugerează că există o relaŃie inversă între cantitatea cerută dintr-un anumit produs şi preŃul său, cu condiŃia ca toate celelalte variabile care influenŃează cererea, să fie menŃinute constante. Aici, teoria microeconomică sugerează că preŃul poate fi cauza, iar cantitatea cerută ar fi efectul. ReŃinem că: - regresia nu implică neapărat cauzalitate. - cauzalitatea trebuie justificată de teoria economică care fundamentează fenomenul care este testat empiric. Regresie vs. corelaŃie Analiza de corelaŃie măsoară gradul de asociere dintre două variabile. Analiza de regresie estimează valoarea medie a unei variabile, cunoscând valorile fixate ale altei variabile. Analiza de corelaŃie Analiza de regresie Tratarea variabilelor simetrică asimetrică Tipul variabilelor Variabile aleatoare Var.dependentă este var.aleatoare Variabilele independente: fixate 3.1.1. Specificarea modelului unifactorial de regresie Definim modelul unifactorial de regresie printr-o relaŃie matematică ce presupune că variabila Y este rezultatul a două categorii de factori: - un factor esenŃial, X -mai mulŃi factori neesenŃiali, specificaŃi printr-o variabilă aleatoare de perturbaŃie ε. Specificarea modelului constă în precizarea variabilei dependente Y şi a variabilei independente X, pe baza teoriei economice a fenomenului observat şi în identificarea unei funcŃii matematice care descrie legătura dintre variabilele Y şi X. Exemple de relaŃii de dependenŃă: Cheltuieli de Consum – Venit ÎnălŃime - Vârstă Cererea pentru un produs – PreŃul produsului Venituri din vânzări – Cheltuieli cu publicitatea Cheltuieli pentru apărare – PIB Rata şomajului – Rata inflaŃiei Considerăm două variabile economice X şi Y pentru care cunoaştem n perechi de observaŃii:),(),...,,(),,(2211nnyxyxyx. Ne interesează cum se modifică variabila Y sub acŃiunea variabilei X. Reprezentarea grafică a datelor de observaŃie, într-o diagramă a împrăştierii, poate da informaŃii despre existenŃa unei relaŃii între cele două variabile şi despre tipul de relaŃie, în caz că aceasta există. Coeficientul de corelaŃie de selecŃie poate indica, de asemenea, existenŃa unei relaŃii. O funcŃie de regresie, este o funcŃie care leagă valorile lui X, de mediile condiŃionate corespunzătoare )|(1xXYE=,..., )|(nxXYE=. )()|(iixfxXYE==este funcŃia de regresie la nivelul populaŃiei (FRP). Forma ei este dată de teoria economică. Ex: Consumul depinde liniar de Venit. iixxXYEβα+==)|(- dacă funcŃia de regresie f este liniară Exemplu. Considerăm modelul lui Keynes privind consumul. Consumul=f(Venit,AlŃi factori) ; Consumul=α+β*Venit+ε
3. MODELE DE REGRESIE CLASICE 3.1._2
3 Legea psihologică fundamentală că «o persoană este dispusă, de regulă şi în medie, să îşi crească consumul pe măsură ce creşte venitul, dar nu în aceeaşi măsură», este sintetizată în relaŃia 10<<dVenitdConsumşi este reprezentată prin parametrul βal modelului de regresie. βeste înclinaŃia marginală spre consum(variaŃia consumului împărŃită la variaŃia venitului). Pe baza unui ansamblu de observaŃii referitoare la Consum şi Venit, se pot estima parametrii αşiβ. Rezultatele anticipate sunt 0>αşi 10<<β. Termenul eroare. Pentru o pereche de valori observate ),(iiyx, trebuie să atragem atenŃia că valoarea observată iy nu va coincide cu media condiŃionată )|(ixXYE=Definim termenul eroare aleatoare: )|(iiixXYEy==ε- abaterea valorii individuale iy , de la media condiŃionată. iεeste termenul eroare (eroarea aleatoare) (perturbaŃia)la observaŃia i. PerturbaŃiile reale iεsunt necunoscute. ObŃinem iiixXYEyε+==)|(sau iiixyεβα++=EcuaŃia nixyiii,...,2,1,=++=εβαeste numită ecuaŃia de regresiea populaŃiei. Această ecuaŃie defineşte modelul unifactorialde regresie liniară.Modelul include o componentă deterministă ixβα+şi o componentă stochastică, ε. Variabilele X şi Y sunt variabile observabile, adică valorile lor pot fi măsurate. Variabila εeste numită eroare aleatoaresautermen eroaresau variabilă de perturbaŃieşi reprezintă efectul tuturor factorilor, în afara factorului X, care îl afectează pe Y şi care sunt consideraŃi neobservabili. Variabila εcaptează erorile de măsurare a valorilor variabilelor şi caracterul aleator al comportamentului uman. Termenul eroare εreprezintă acea parte din valoarea variabilei Y care nu poate fi măsurată printr-o relaŃie sistematică cu variabila X. Parametrul αse numeşte parametru de interceptare(intercepŃia)(interceptul). Exprimă valoarea variabilei dependente când variabila independentă este egală cu zero, deci reprezintă punctul de intersecŃie al dreptei de regresie cu axa Oy, adică porŃiunea fixată a lui Y, care nu poate fi explicată prin variabila independentă. Parametrulβreprezintă panta dreptei de regresieşi indică cu cât se modifică, în medie, variabila Y atunci când variabila X se modifică cu o unitate. dXdY /=β. Semnul parametrului pantă βarată dacă dependenŃa dintre cele două variabile este directă sau inversă. FuncŃia de regresie a populaŃiei(FRP) descrieprocesul de generare a datelor(PGD). Ea este distribuŃia de probabilitate comună presupusă a caracteriza întrega populaŃie din care au fost extrase datele. În practică nu cunoaştem FRP şi trebuie să o estimăm din datele de selecŃie, obŃinând conceptul de FuncŃie de regresie de selecŃie(FRS). Dacă reprezentăm grafic perechile de valori observate ),(),...,,(),,(2211nnyxyxyx, se va obŃine o diagramă a împrăştieriinorului de puncte şi se va pune problema de a trasa o dreaptă care să descrie norul de puncte. Este posibil să trasăm numeroase drepte printr-un nor de puncte. Care este “cea mai bună” dreaptă care descrie comportamentul datelor? Considerăm doi estimatori aşi b(sau αˆşi βˆ) ai parametrilor reali αşi β. Putem înlocui aceşti estimatori în funcŃia de ajustare: nixbayii,...,2,1,ˆ=+=. ObŃinem funcŃia de regresie a selecŃiei(FRS). iyse numeşte valoarea observată(reală sau adevărată). iixbay+=ˆse numeşte valoarea ajustată a luiiy.
3. MODELE DE REGRESIE CLASICE 3.1._3
4 Definim iiiiyyeˆˆ==εabaterea dintre valoarea observată şi valoarea ajustată. iieεˆ=se numeşte reziduusau eroare estimatăsau variabilă de perturbaŃie ajustată. Erorile aleatoare iεsunt neobservabile, dar reziduurile iεˆ, sunt observabile. RelaŃia dintre FRP şi FRS este dată de ecuaŃiaiiiyyεˆˆ+=. Primul obiectiv al analizei de regresie este de a estimaFRP, iiixyεβα++=, pe baza FRS, iiixyεβαˆˆˆ++=, deoarece analiza se bazează, de cele mai multe ori, pe un singur eşantion extras din populaŃie. Fiecare selecŃie determină o FRS diferită, adică sunt determinate valori numerice diferite pentru αşi β. Nici una din FRS nu este identică cu FRP. Fiecare este doar o aproximare a FRP reale. Cum putem alege cea mai bună dreaptă?Căutăm dreapta care face distanŃele verticale de la puncte la dreaptă, cât mai mici posibil. -Valoarea ajustată = distanŃa verticală de la axa orizontală la dreaptă, iar -reziduul = distanŃa verticală de la dreaptă la punctul considerat. Reziduurile arată cât de mult diferă valorile observate de valorile ajustate. ObservaŃie. În discutarea modelelor de regresie, s-a dovedit incomod să se facă distincŃie, din punct de vedere al notaŃiei, între variabile aleatoare şi realizări ale acestora, aşa încât practica standard este de a folosi litere miciîn ambele situaŃii. Interpretarea termenului de regresie „liniară”1) Liniaritatea în variabile. ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente este o funcŃie liniară de variabilele independente. O funcŃie )(xfy=este liniară în raport cu variabila X dacă variabila X apare doar la puterea 1 şi nu apare înmulŃită sau împărŃită prin altă variabilă, Z. 2) Liniaritatea în parametri.ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente este o funcŃie liniară de parametrii ce apar în ecuaŃie, dar poate să nu fie liniară în variabilele explicative. Vom folosi termenul de regresie liniară pentru modelele care sunt liniare în parametrii lor. 3.1.2. Estimarea parametrilor modelului prin metoda celor mai mici pătrate(MCMMP): Se minimizează suma pătratelor abaterilor dintre valorile reale iyşi valorile ajustate iyˆ. Se foloseşte şi notaŃia OLS (Ordinary Least Squares). Suma pătratelor reziduurilor sau erorilor estimate este o funcŃie de două necunoscute, aşi b, în raport cu care se va face minimizarea. Avem:
3. MODELE DE REGRESIE CLASICE 3.1._4
5 =======niiiniiiniixbayyyebaS121212min)()ˆ(),(),(baSeste minimă când derivatele parŃiale ale funcŃiei în raport cu aşi bsunt egale cu zero, adică: ======niiiiniiixbxaybbaSbxayabaS110))((2),(0)1)((2),(=======nininiiiiininiiixbxayxxbnay11121100Rezultă sistemul de ecuaŃii normaleale lui Gauss: =+=+iiiiiiyxxbxayxban2SoluŃiile sistemului se pot obŃine folosind metoda determinanŃilor: 222)(==iiiiiiiaxxnyxxxya(1) 22)(==iiiiiibxxnyxyxnb(2) Dacă împărŃim prima ecuaŃie normală prin n, obŃinem: xbya=(3) După înlocuirea estimatorului a în a doua ecuaŃie normală, obŃinem: 22xnxyxnyxbiii=(4) Avem nevoie de câteva rezultate privind însumările: 22222222)2()(xnxxxxxxxxxxxiiiiii=+=+=(5) 0)(===yxnynxyxyxyyxii(6) yxnyxyxxyyxyyxxiiiiiiii===)()()()((7) RelaŃia (4) devine: =2)()()(xxbyyxxiiiCu condiŃia ca 0)(2>xxi, panta estimată va fi dată de relaŃia 22)())((xxyxxxyiiiSSSSxxyyxxb===(8) nyyxxSiixy=))((şi nxxSix=22)(reprezintă covarianŃa de selecŃiedintre X şi Y, respectiv dispersia (varianŃa) de selecŃie a lui X. Notăm că estimaŃiile pentru aşi bsunt unice. Arătăm că soluŃia obŃinută este un minim. Considerăm derivatele parŃiale de ordinul doi ale sumei pătratelor reziduurilor: nabaS2),(22=, =2222),(ixbbaS, =ixbabaS2),(2. Matricea hessiană =22222iiixxxnHeste pozitiv definită, pentru că avem: 021>=n====)(4))((444422222xnxnxnxnxnxxxniiiii0)(42>xxni. Înseamnă că soluŃia obŃinută este un minim.
3. MODELE DE REGRESIE CLASICE 3.1._5
6 Valorile aşi bobŃinute prin MCMMP, pentru un anumit eşantion s.n. estimaŃii ale parametrilor reali αşi β. Pentru eşantioane diferite rezultă estimaŃii diferite. Ansamblul lor descrie estimatorii parametrilor αşi β. 3.1.3. Ipoteze în fundamentarea modelului de regresie liniară unifactorialăEstimarea parametrilor prin MCMMP a condus la obŃinerea estimatorilor parametrilor modelului. Cea mai bună dreaptă pentru a aproxima norul de puncte de observaŃie este cea care minimizează suma pătratelor erorilor estimate. Ea se numeşte dreapta de regresie a lui Y în raport cu X.Valorile aşi bobŃinute prin MCMMP, pentru un anumit eşantion se numesc estimaŃii ale parametrilor reali αşi β. Pentru eşantioane diferite rezultă estimaŃii diferite. Ansamblul lor descrie estimatorii parametrilor αşi β. Întrebare: Cât de bune sunt estimaŃiile obŃinute şi câtă încredere putem avea în previziunile pe care le vom face?Cum putem fi siguri, pe baza unui singur eşantion, că funcŃia de regresie estimată (FRS) este o bună aproximaŃie a funcŃiei de regresie a populaŃiei (FRP)? Ar trebui să cunoaştem procesul de generare a erorilor aleatoare. Unui model de regresie i se asociază o serie de ipoteze pentru a obŃine proprietăŃi speciale, dorite, pentru estimatorii parametrilor modelului. În statistică se utilizează numai estimaŃii de maximă verosimilitate, care se obŃin doar în contextul satisfacerii anumitor condiŃii. Se fac, de obicei, 6 ipoteze standard pentru modelul clasic de regresie liniară. I1)Forma funcŃională este liniară: nixyiii,...,2,1,=++=εβα. I2)Erorile aleatoare au media zero: .,...,2,1,0)(niEi==εI3)Homoscedasticitatea erorilor aleatoare: niVari,...,2,1,)(22===σσεε. I4)Erorile aleatoare nu sunt autocorelate: 0),cov(=jiεεpentru jiI5)Necorelarea între regresor şi erorile aleatoare: 0),cov(=iixεpentru orice işi j. I6)Erorile aleatoare au distribuŃie normală: ),0(~2σεNi. Comentariidespre ipoteze. I1) Ipoteza de liniaritate se referă la parametrii modelului. O funcŃie este liniară în parametrii αşi β, dacă fiecare din aceşti parametri apar numai la puterea întâi şi nu apar înmulŃiŃi sau împărŃiŃi prin alŃi parametri. ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente Y este o funcŃie liniară de parametrii ce apar în ecuaŃie, dar poate să nu fie liniară în variabilele independente. Vom folosi termenul de regresie liniară pentru modelele care sunt liniare în parametri. Modelul trebuie să fie de forma iiixyεβα++=fie în variabilele iniŃiale, fie după ce au fost făcute transformările potrivite. Un mod de a stabili dacă variabila Y depinde liniar de variabila explicativă X este de a vedea dacă rata de modificare a lui Y în raport cu variabila X este independentă de valoarea lui X. I2) Erorile aleatoare au media zero. .,...,2,1,0)()|(niExEiii===εεEroarea aleatoare εeste văzută ca suma efectelor individuale ale unor factori aleatori, cu semne diferite. Înseamnă că, în medie, factorii neînregistraŃi nu are efect asupra mediei variabilei Y, adică iixxXYEβα+==)|(. Valorile pozitive şi negative ale lui εse anulează între ele. Dacă în cadrul modelului au fost incluse acele variabile ce influenŃează în mod real valoarea lui Y, atunci ecartul sau abaterea dintre cele două tipuri de valori, reale şi estimate, tinde spre zero, iar în medie acesta este zero. I3) Erorile aleatoare au varianŃa constantă pentru toate observaŃiile, adică sunt homoscedastice: 222))(()()(σσεεεεε====iiiiEEDVarni,1)(=.
3. MODELE DE REGRESIE CLASICE 3.1._6
7 Deoarece 0)(=iEε, ipoteza de homoscedasticitate poate fi exprimată într-o formă echivalentă: 222)(σσεε==iEni,1)(=. Aceasta este proprietatea de homoscedasticitatea erorilor aleatoare. Pe baza acestei ipoteze se poate admite că legătura dintre variabilele Y şi X este relativ stabilă. Înseamnă că valorile individuale iyse situează în jurul valorii medii cu aceeaşi varianŃă. Deoarece valorile ixsunt fixate, singura sursă de variaŃie din Y este de la eroarea aleatoare ε. Deci, dat fiind ix, varianŃa lui iyeste aceeaşi cu a lui iε, adică 2)|()|(σε==iiiixVarxyVar, 2)|()|(σε==iiiixVarxyVarni,1)(=. Dacă ipoteza de homoscedasticitate nu este îndeplinită, erorile aleatoare sunt numite heteroscedastice. (Figuri cu erori aleatoare homoscedastice, respectiv heteroscedastice) I4) Erorile aleatoare nu sunt autocorelate. Nu există corelaŃie între doi termeni eroare. Înseamnă că termenii eroare sunt aleatori. Se scrie sub forma: 0),cov(=jiεεsau 0)(=jiEεεpentru ji. Această ipoteză nu implică faptul că iyşi jysunt necorelate ci faptul că abaterile valorilor observate de la valorile medii sunt necorelate. I5) Necorelarea dintre regresori şi erorile aleatoare: 0),cov(=iixεpentru orice işi j. Această proprietate poate fi exprimată într-o formă echivalentă: 0)(=iixEεpentru orice işi j. Erorile aleatoare sunt independente de variabilele explicative. Variabila X nu este stochastică, adică valorile ixsunt fixate în selecŃii repetate. Înseamnă că se regăsesc aceleaşi valori dacă se face o nouă selecŃie. În plus, se presupune că factorul X prezintă variabilitate şi deci, poate fi evidenŃiat rolul acestui factor. I6) Erorile aleatoare sunt presupuse a fi normal distribuite, pentru orice i. łinând seama de ipotezele precedente, erorile aleatoare pot fi reprezentate prin relaŃiile: ),0(~2σεNi, ni,1)(=. Teorema Limită Centrală: Dacă există un număr mare de v.a. independente şi identic distribuite (iid), atunci distribuŃia sumei lor tinde să fie o distribuŃie normală, atunci când numărul variabilelor creşte indefinit. Orice funcŃie liniară de variabile distribuite normal este distribuită normal. Se demonstrează că estimatorii aşi bsunt normal distribuiŃi. 3.1.4. Testarea validităŃii modelului de regresie (testarea calităŃii ajustării), folosind metoda analizei de varianŃă (ANOVA)După ce dreapta de regresie a fost estimată, este important să se evalueze rezultatele, să se ştie cât de bine ajustează sau aproximează această dreaptă datele de selecŃie. Utilizarea MCMMPasigură faptul că valorile găsite pentru βˆşi αˆsunt cele care aproximează cel mai bine datele de observaŃie, în sensul specific de minimizare a sumei pătratelor reziduurilor. Nu există nicio garanŃie că βˆşi αˆcorespund exact cu parametrii necunoscuŃi βşi αşi nici dacă dreapta de regresie, determinată ca fiind cea mai bună sau cea mai potrivită, aproximează corect datele observate. Un indicator ce poate descrie calitatea reprezentării, adică a liniei de regresie estimată, este coeficientul de determinaŃie, notat 2R. Analiza VarianŃei (ANOVA) este un procedeu statistic de testare a calităŃii modelului, procedeu bazat pe descompunerea variaŃiei totale în variaŃie datorată factorului de regresie şi variaŃie datorată factorilor neînregistraŃi. Variabilei dependente Y îi asociem două medii: media totală (y) şi media condiŃionată (iixbay+=ˆ).
3. MODELE DE REGRESIE CLASICE 3.1._7
8 )ˆ()ˆ(yyyyyyiiii+=yyieste abaterea totală, )ˆ(iiyyeste abaterea neexplicată deoarece atunci când se modifică ixse modifică atât iycât şi iyˆ, iar )ˆ(yyieste abaterea explicată, deoarece atunci când se modifică ixse modifică doar iyiar yrămâne constant. Ridicăm la pătrat şi însumăm după toate observaŃiile: +=222)ˆ()ˆ()(yyyyyyiiii=2)(yySSTise numeşte variaŃia totalăa valorilor variabilei Y, suma pătratelor abaterilor totale. SST este suma pătratelor abaterilor valorilor reale ale variabilei Yde la media lor de selecŃie, y. SST măsoară acŃiunea tuturor factorilor (de regresie şi neînregistraŃi). ===2222)(ˆ)ˆˆ()ˆ(xxyyyySSRiiiβeste variaŃia explicată prin factorul de regresie, este variaŃia datorată regresiei. Este suma pătratelor abaterilor valorilor ajustate ale variabilei Yde la media lor de selecŃie. SSR măsoară acŃiunea factorului de regresie. ==22ˆ)ˆ(iiiyySSEεeste variaŃia reziduală, variaŃia datorată erorilor.Este suma pătratelor reziduurilor (abaterilor valorilor reale ale variabilei Y de la valoarile ajustate). SSE măsoară acŃiunea tuturor factorilor neînregistraŃi. Cu aceste notaŃii avem relaŃia: SST=SSR+SSEPentru a testa validitatea modelului de regresie se foloseşte un Tabel de analiză a varianŃei. Tabelul ANOVA Sursa variaŃiei Suma pătratelor abaterilor (SS) Nr grade de libertate (df) Media pătratelor (MS) Statistica FRegresia Eroarea Total SSR SSE SST 1 n-2 n-1 MSR=SSR/1 MSE=SSE/(n-2) F=MSR/MSEPentru fiecare sumă se consideră numărul gradelor de libertate. Media pătratelor = suma pătratelor/număr grade de libertate. Se testeză ipotezele MSEMSRH=:0(modelul nu este validstatistic) MSEMSRH>:1(modelul este valid statistic) 2,1~)2/(1/ˆ==ncalculatFnSSESSRFFsau 2,122~)2(1ˆ=nFnRRFdacă se exprimă cele două sume cu ajutorul coeficientului de determinaŃie. Se compară valoarea calculată sau observată Fˆcu valoarea critică obŃinută din tabelele repartiŃiei F. Se aplică regula de decizie: dacă )2,1(;ˆ>nFFαse respinge ipoteza nulă în favoarea ipotezei alternative. Modelul este valid statistic. Dacă pentru calcFse obŃine o valoare mare, se acceptă H1: modelul este valid statistic. Dacă 1calcF, nu putem respinge H0: modelul nu este valid statistic. Aceasta înseamnă că variabila X nu are efect asupra variabilei Y. În acest caz 02=R22)ˆ(222===nenyysMSEiiieeste estimatorul varianŃei erorilor aleatoare. Este un estimator nedeplasat deoarece 22)(σ=esE. Abaterea medie pătratică a erorilor estimate este 2eess=. - Dacă abaterea medie pătratică a erorilor estimate, es, are o valoare mică, atunci se consideră că ajustarea datelor observate este foarte bună, iar modelul de regresie poate fi utilizat ca mijloc de analiză şi prognoză.
3. MODELE DE REGRESIE CLASICE 3.1._8

End of preview

Want to access all the pages? Upload your documents or become a member.

Related Documents
IMPORTANTA OCROTIRII ANIMALELOR FARA STAPAN.
|12
|492
|108

Evaluarea angajaților: Proces cheie pentru dezvoltare
|7
|1239
|109