3. MODELE DE REGRESIE CLASICE 3.1.

Added on - 22 Jun 2021

  • 43

    Pages

  • 27349

    Words

  • 71

    Views

  • 0

    Downloads

Trusted by +2 million users,
1000+ happy students everyday
Showing pages 1 to 8 of 43 pages
13. MODELE DE REGRESIE CLASICE3.1. Modelul unifactorial de regresie liniarăAnaliza de RegresieAnaliza de regresie se ocupă cu descrierea şi evaluarea legăturii dintre o variabilă dependentă sauexplicată şi una sau mai multe variabile independente sau explicative, cu scopul de a estima şi de apreviziona valoarea medie a variabilei dependente, cunoscându-se valorile fixate ale variabilelorindependente (valori fixate în urma unor eşantionări repetate).Regresia este o metodă de modelare a legăturilor dintre variabile.Este cel mai important instrument de lucru al econometriei.Originea termenului de regresieTermenul de regresie provine din studiile efectuate, în domeniul eredităŃii, de statisticianul englezFrancis Galton (1822-1911). Acesta a observat că înălŃimea fiilor proveniŃi din taŃi foarte înalŃi seapropie mai mult de înălŃimea medie a fiilor decât de înălŃimea taŃilor. Galton a constatat că avea loco regresie sau o revenire la înălŃimea medie.Obiectivele Analizei de Regresie1. Estimarea valoarii medii a variabilei dependente, date fiind valorile var. indep.2. Testarea de ipoteze despre natura dependenŃei (ipoteze sugerate de teoria ec.)3. Previzionarea valoarii medii a variabilei dependente, cunoscând valorile viitoare ale variabilelorindependente.Denumiri ale variabilelor în analiza de regresieVariabila YVariabilele X1,X2,...,Xk1234567Variabilă dependentăVariabilă explicatăRegresandVariabilă estimatăVariabilă efectVariabilă edogenăVariabilă ŃintăVariabile independenteVariabile explicativeRegresoriEstimatoriVariabile cauzaleVariabile exogeneVariabile de controlAceşti termeni sunt relevanŃi pentru o anumită situaŃie a folosirii regresiei.1,2,3 – în discuŃii despre modele de regresie4 – dacă intenŃia este de a prognoza valoarea unei variabile5 – în studii de cauzalitate6 – terminologie specifică econometriei7 – terminologie specifică în probleme de control optimal.Modelul este instrumentul de bază din analiza de regresieModelul econometric: – una sau mai multe ecuaŃii care descriu relaŃii statistice.Modelul unifactorial de regresie, în care o variabilă dependentă Y este explicată printr-o singurăvariabilă independentă X, este cel mai simplu model econometric.DependenŃa deterministă vs. dependenŃa statisticăDependenŃa deterministă dintre variabilele Y şi X este o legătură ce poate fi descrisă complet prinintermediul unei ecuaŃii de tip determinist, adică printr-o ecuaŃie ce conŃine toŃi termenii care intervinîn procesul studiat.DependenŃa statistică (stochastică, aleatoare) dintre Y şi X este acea legătură care nu genereazăvalori unice pentru Y, în cazul unor valori date ale lui X, ci o mulŃime de valori pentru Y. Aceastălegătură poate fi descrisă în termeni probabilistici.Regresie vs. cauzalitateDeşi Analiza de regresie se ocupă cu relaŃiile dintre o variabilă dependentă şi una sau mai multevariabile independente, ea nu implică, în mod necesar, cauzalitate, adică nu înseamnă neapărat că
2variabilele independente sunt cauza şi variabila dependentă este efectul. Dacă există cauzalitate întreo variabilă independentă şi variabila dependentă, aceasta trebuie justificată pe baza unei anumiteteorii economice.De exemplu, legea cererii sugerează că există o relaŃie inversă între cantitatea cerută dintr-unanumit produs şi preŃul său, cu condiŃia ca toate celelalte variabile care influenŃează cererea, să fiemenŃinute constante. Aici, teoria microeconomică sugerează că preŃul poate fi cauza, iar cantitateacerută ar fi efectul.ReŃinem că:- regresia nu implică neapărat cauzalitate.- cauzalitatea trebuie justificată de teoria economică care fundamentează fenomenul care este testatempiric.Regresie vs. corelaŃieAnaliza de corelaŃie măsoară gradul de asociere dintre două variabile.Analiza de regresie estimează valoarea medie a unei variabile, cunoscând valorile fixate ale alteivariabile.Analiza de corelaŃieAnaliza de regresieTratarea variabilelorsimetricăasimetricăTipul variabilelorVariabile aleatoareVar.dependentă este var.aleatoareVariabilele independente: fixate3.1.1. Specificarea modelului unifactorial de regresieDefinim modelul unifactorial de regresie printr-o relaŃie matematică ce presupune că variabila Y esterezultatul a două categorii de factori:- un factor esenŃial, X-mai mulŃi factori neesenŃiali, specificaŃi printr-o variabilă aleatoare de perturbaŃieε.Specificarea modelului constă în precizarea variabilei dependente Y şi a variabilei independente X,pe baza teoriei economice a fenomenului observat şi în identificarea unei funcŃii matematice caredescrie legătura dintre variabilele Y şi X.Exemple de relaŃii de dependenŃă:Cheltuieli de Consum – VenitÎnălŃime - VârstăCererea pentru un produs – PreŃul produsuluiVenituri din vânzări – Cheltuieli cu publicitateaCheltuieli pentru apărare – PIBRata şomajului – Rata inflaŃieiConsiderămdouăvariabileeconomiceXşiYpentrucarecunoaştemnperechideobservaŃii:),(),...,,(),,(2211nnyxyxyx.Ne interesează cum se modifică variabila Y sub acŃiunea variabilei X.Reprezentarea grafică a datelor de observaŃie, într-o diagramă a împrăştierii, poate da informaŃiidespre existenŃa unei relaŃii între cele două variabile şi despre tipul de relaŃie, în caz că aceastaexistă.Coeficientul de corelaŃie de selecŃie poate indica, de asemenea, existenŃa unei relaŃii.OfuncŃiederegresie,esteofuncŃiecareleagăvalorileluiX,demediilecondiŃionatecorespunzătoare)|(1xXYE=,...,)|(nxXYE=.)()|(iixfxXYE==este funcŃia de regresie la nivelul populaŃiei (FRP).Forma ei este dată de teoria economică. Ex: Consumul depinde liniar de Venit.iixxXYEβα+==)|(- dacă funcŃia de regresie f este liniarăExemplu. Considerăm modelul lui Keynes privind consumul.Consumul=f(Venit,AlŃi factori) ; Consumul=α+β*Venit+ε
3Legea psihologică fundamentală că «o persoană este dispusă, de regulă şi în medie, să îşi creascăconsumul pe măsură ce creşte venitul, dar nu în aceeaşi măsură», este sintetizată în relaŃia10<<dVenitdConsumşi este reprezentată prin parametrulβal modelului de regresie.βesteînclinaŃiamarginală spre consum(variaŃia consumului împărŃită la variaŃia venitului). Pe baza unui ansamblude observaŃii referitoare la Consum şi Venit, se pot estima parametriiαşiβ. Rezultatele anticipatesunt0>αşi10<<β.Termenul eroare. Pentru o pereche de valori observate),(iiyx, trebuie să atragem atenŃia căvaloarea observatăiy nu va coincide cu media condiŃionată)|(ixXYE=Definim termenuleroare aleatoare:)|(iiixXYEy==ε- abaterea valorii individualeiy , de la media condiŃionată.iεestetermenul eroare (eroarea aleatoare) (perturbaŃia)la observaŃia i.PerturbaŃiile realeiεsunt necunoscute.ObŃinemiiixXYEyε+==)|(sauiiixyεβα++=EcuaŃianixyiii,...,2,1,=++=εβαeste numităecuaŃia de regresiea populaŃiei.Această ecuaŃie defineştemodelul unifactorialde regresie liniară.Modelul include o componentă deterministăixβα+şi o componentă stochastică,ε.Variabilele X şi Y sunt variabile observabile, adică valorile lor pot fi măsurate.Variabilaεeste numităeroare aleatoaresautermen eroaresauvariabilă de perturbaŃieşireprezintă efectul tuturor factorilor, în afara factorului X, care îl afectează pe Y şi care suntconsideraŃi neobservabili. Variabilaεcaptează erorile de măsurare a valorilor variabilelor şicaracterul aleator al comportamentului uman. Termenul eroareεreprezintă acea parte din valoareavariabilei Y care nu poate fi măsurată printr-o relaŃie sistematică cu variabila X.Parametrulαse numeşteparametru de interceptare(intercepŃia)(interceptul).Exprimăvaloareavariabileidependentecândvariabilaindependentăesteegalăcuzero,decireprezintă punctul de intersecŃie al dreptei de regresie cu axa Oy, adică porŃiunea fixată a lui Y, carenu poate fi explicată prin variabila independentă.Parametrulβreprezintăpanta dreptei deregresieşiindică cu cât se modifică, în medie, variabila Y atunci când variabila X se modificăcu o unitate.dXdY /=β. Semnul parametrului pantăβarată dacă dependenŃa dintre cele douăvariabile este directă sau inversă.FuncŃia de regresie a populaŃiei(FRP)descrieprocesul de generare a datelor(PGD). Ea estedistribuŃia de probabilitate comună presupusă a caracteriza întrega populaŃie din care au fost extrasedatele.În practică nu cunoaştem FRP şi trebuie să o estimăm din datele de selecŃie, obŃinând conceptul deFuncŃie de regresie de selecŃie(FRS).Dacă reprezentăm grafic perechile de valori observate),(),...,,(),,(2211nnyxyxyx, se va obŃine odiagramă a împrăştieriinorului de puncte şi se va pune problema de a trasa o dreaptă care sădescrie norul de puncte. Este posibil să trasăm numeroase drepte printr-un nor de puncte.Care este “cea mai bună” dreaptă care descrie comportamentul datelor?Considerăm doi estimatoriaşib(sauαˆşiβˆ) ai parametrilor realiαşiβ. Putem înlocui aceştiestimatori în funcŃia de ajustare:nixbayii,...,2,1,ˆ=+=.ObŃinemfuncŃia de regresie a selecŃiei(FRS).iyse numeştevaloarea observată(reală sau adevărată).iixbay+=ˆse numeştevaloarea ajustată a luiiy.
4Definimiiiiyyeˆˆ==εabaterea dintre valoarea observată şi valoarea ajustată.iieεˆ=se numeştereziduusaueroare estimatăsauvariabilă de perturbaŃie ajustată. Erorilealeatoareiεsunt neobservabile, dar reziduurileiεˆ, sunt observabile.RelaŃia dintre FRP şi FRS este dată de ecuaŃiaiiiyyεˆˆ+=.Primul obiectiv al analizei de regresie este de a estimaFRP,iiixyεβα++=, pe baza FRS,iiixyεβαˆˆˆ++=, deoarece analiza se bazează, de cele mai multe ori, pe un singur eşantion extrasdin populaŃie.Fiecare selecŃie determină o FRS diferită, adică sunt determinate valori numerice diferite pentruαşiβ. Nici una din FRS nu este identică cu FRP. Fiecare este doar o aproximare a FRP reale.Cum putem alege cea mai bună dreaptă?Căutăm dreapta care face distanŃele verticale de lapuncte la dreaptă, cât mai mici posibil.-Valoarea ajustată = distanŃa verticală de la axa orizontală la dreaptă, iar-reziduul = distanŃa verticală de la dreaptă la punctul considerat.Reziduurile arată cât de mult diferă valorile observate de valorile ajustate.ObservaŃie. În discutarea modelelor de regresie, s-a dovedit incomod să se facă distincŃie, din punctde vedere al notaŃiei, între variabile aleatoare şi realizări ale acestora, aşa încât practica standard estede a folosilitere miciîn ambele situaŃii.Interpretarea termenului de regresie „liniară”1)Liniaritatea în variabile.ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente este ofuncŃie liniară de variabilele independente. O funcŃie)(xfy=este liniară în raport cu variabila Xdacă variabila X apare doar la puterea 1 şi nu apare înmulŃită sau împărŃită prin altă variabilă, Z.2)Liniaritatea în parametri.ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente esteo funcŃie liniară de parametrii ce apar în ecuaŃie, dar poate să nu fie liniară în variabilele explicative.Vom folosi termenul de regresie liniară pentru modelele care sunt liniare în parametrii lor.3.1.2. Estimarea parametrilor modelului prin metoda celor mai mici pătrate(MCMMP):Se minimizează suma pătratelor abaterilor dintre valorile realeiyşi valorile ajustateiyˆ. Se foloseşteşi notaŃia OLS (Ordinary Least Squares).Suma pătratelor reziduurilor sau erorilor estimate este o funcŃie de două necunoscute,aşib, în raportcu care se va face minimizarea. Avem:
5=======niiiniiiniixbayyyebaS121212min)()ˆ(),(),(baSeste minimă când derivatele parŃiale ale funcŃiei în raport cuaşibsunt egale cu zero, adică:======niiiiniiixbxaybbaSbxayabaS110))((2),(0)1)((2),(=======nininiiiiininiiixbxayxxbnay11121100Rezultăsistemul de ecuaŃii normaleale lui Gauss:=+=+iiiiiiyxxbxayxban2SoluŃiile sistemului se pot obŃine folosind metoda determinanŃilor:222)(==iiiiiiiaxxnyxxxya(1)22)(==iiiiiibxxnyxyxnb(2)Dacă împărŃim prima ecuaŃie normală prin n, obŃinem:xbya=(3)După înlocuirea estimatorului a în a doua ecuaŃie normală, obŃinem:22xnxyxnyxbiii=(4)Avem nevoie de câteva rezultate privind însumările:22222222)2()(xnxxxxxxxxxxxiiiiii=+=+=(5)0)(===yxnynxyxyxyyxii(6)yxnyxyxxyyxyyxxiiiiiiii===)()()()((7)RelaŃia (4) devine:=2)()()(xxbyyxxiiiCu condiŃia ca0)(2>xxi, panta estimată va fi dată de relaŃia22)())((xxyxxxyiiiSSSSxxyyxxb===(8)nyyxxSiixy=))((şinxxSix=22)(reprezintăcovarianŃadeselecŃiedintreXşiY,respectivdispersia (varianŃa) de selecŃie a lui X.Notăm că estimaŃiile pentruaşibsunt unice.Arătăm că soluŃia obŃinută este un minim. Considerăm derivatele parŃiale de ordinul doi ale sumeipătratelor reziduurilor:nabaS2),(22=,=2222),(ixbbaS,=ixbabaS2),(2.Matricea hessiană=22222iiixxxnHeste pozitiv definită, pentru că avem:021>=n====)(4))((444422222xnxnxnxnxnxxxniiiii0)(42>xxni.Înseamnă căsoluŃia obŃinută este un minim.
6ValorileaşibobŃinute prin MCMMP, pentru un anumit eşantion s.n. estimaŃii ale parametrilor realiαşiβ. Pentru eşantioane diferite rezultă estimaŃii diferite. Ansamblul lor descrie estimatoriiparametrilorαşiβ.3.1.3. Ipoteze în fundamentarea modelului de regresie liniară unifactorialăEstimarea parametrilor prin MCMMP a condus la obŃinerea estimatorilor parametrilor modelului.Cea mai bună dreaptă pentru a aproxima norul de puncte de observaŃie este cea care minimizeazăsuma pătratelor erorilor estimate.Ea se numeştedreapta de regresie a lui Y în raport cu X.ValorileaşibobŃinuteprinMCMMP,pentruunanumiteşantionsenumescestimaŃiialeparametrilor realiαşiβ. Pentru eşantioane diferite rezultă estimaŃii diferite. Ansamblul lor descrieestimatorii parametrilorαşiβ.Întrebare:Cât de bune sunt estimaŃiile obŃinute şi câtă încredere putem avea în previziunile pecare le vom face?Cum putem fi siguri, pe baza unui singur eşantion, că funcŃia de regresie estimată(FRS) este o bună aproximaŃie a funcŃiei de regresie a populaŃiei (FRP)?Ar trebui să cunoaştem procesul de generare a erorilor aleatoare.Unui model de regresie i se asociază o serie de ipoteze pentru a obŃine proprietăŃi speciale, dorite,pentru estimatorii parametrilor modelului. În statistică se utilizează numai estimaŃii de maximăverosimilitate, care se obŃin doar în contextul satisfacerii anumitor condiŃii. Se fac, de obicei, 6ipoteze standard pentru modelul clasic de regresie liniară.I1)Forma funcŃională este liniară:nixyiii,...,2,1,=++=εβα.I2)Erorile aleatoare au media zero:.,...,2,1,0)(niEi==εI3)Homoscedasticitatea erorilor aleatoare:niVari,...,2,1,)(22===σσεε.I4)Erorile aleatoare nu sunt autocorelate:0),cov(=jiεεpentrujiI5)Necorelarea între regresor şi erorile aleatoare:0),cov(=iixεpentru oriceişij.I6)Erorile aleatoare au distribuŃie normală:),0(~2σεNi.Comentariidespre ipoteze.I1) Ipoteza de liniaritate se referă la parametrii modelului.O funcŃie este liniară în parametriiαşiβ, dacă fiecare din aceşti parametri apar numai la putereaîntâi şi nu apar înmulŃiŃi sau împărŃiŃi prin alŃi parametri.ÎnŃelegem că valoarea medie condiŃionată a variabilei dependente Y este o funcŃie liniară deparametrii ce apar în ecuaŃie, dar poate să nu fie liniară în variabilele independente. Vom folositermenul de regresie liniară pentru modelele care sunt liniare în parametri.Modelul trebuie să fie de formaiiixyεβα++=fie în variabilele iniŃiale, fie după ce au fost făcutetransformările potrivite.Un mod de a stabili dacă variabila Y depinde liniar de variabila explicativă X este de a vedea dacărata de modificare a lui Y în raport cu variabila X este independentă de valoarea lui X.I2) Erorile aleatoare au media zero..,...,2,1,0)()|(niExEiii===εεEroarea aleatoareεeste văzută ca suma efectelor individuale ale unor factori aleatori, cu semnediferite. Înseamnă că,în medie, factorii neînregistraŃi nu are efect asupra mediei variabilei Y, adicăiixxXYEβα+==)|(. Valorile pozitive şi negative ale luiεse anulează între ele.Dacă în cadrul modelului au fost incluse acele variabile ce influenŃează în mod real valoarea lui Y,atunci ecartul sau abaterea dintre cele două tipuri de valori, reale şi estimate, tinde spre zero, iar înmedie acesta este zero.I3) Erorile aleatoare au varianŃa constantă pentru toate observaŃiile, adică sunt homoscedastice:222))(()()(σσεεεεε====iiiiEEDVarni,1)(=.
7Deoarece0)(=iEε, ipoteza de homoscedasticitate poate fi exprimată într-o formă echivalentă:222)(σσεε==iEni,1)(=.Aceasta esteproprietatea de homoscedasticitatea erorilor aleatoare. Pe baza acestei ipoteze sepoate admite călegătura dintre variabilele Y şi X este relativ stabilă.Înseamnă că valorile individualeiyse situează în jurul valorii medii cu aceeaşi varianŃă. Deoarecevalorileixsunt fixate, singura sursă de variaŃie din Y este de la eroarea aleatoareε. Deci, dat fiindix,varianŃaluiiyesteaceeaşicualuiiε,adică2)|()|(σε==iiiixVarxyVar,2)|()|(σε==iiiixVarxyVarni,1)(=.Dacăipotezadehomoscedasticitatenuesteîndeplinită,erorilealeatoaresuntnumiteheteroscedastice.(Figuri cu erori aleatoare homoscedastice, respectiv heteroscedastice)I4) Erorile aleatoare nu sunt autocorelate. Nu există corelaŃie între doi termeni eroare. Înseamnă cătermenii eroare sunt aleatori.Se scrie sub forma:0),cov(=jiεεsau0)(=jiEεεpentruji.Această ipoteză nu implică faptul căiyşijysunt necorelate ci faptul că abaterile valorilorobservate de la valorile medii sunt necorelate.I5) Necorelarea dintre regresori şi erorile aleatoare:0),cov(=iixεpentru oriceişij.Această proprietate poate fi exprimată într-o formă echivalentă:0)(=iixEεpentru oriceişij.Erorile aleatoare sunt independente de variabilele explicative. Variabila X nu este stochastică, adicăvalorileixsunt fixate în selecŃii repetate. Înseamnă că se regăsesc aceleaşi valori dacă se face o nouăselecŃie. În plus, se presupune că factorul X prezintă variabilitate şi deci, poate fi evidenŃiat rolulacestui factor.I6) Erorile aleatoare sunt presupuse a fi normal distribuite, pentru orice i.łinândseamadeipotezeleprecedente,erorilealeatoarepotfireprezentateprinrelaŃiile:),0(~2σεNi,ni,1)(=.Teorema Limită Centrală: Dacă există un număr mare de v.a. independente şi identic distribuite(iid), atunci distribuŃia sumei lor tinde să fie o distribuŃie normală, atunci când numărul variabilelorcreşte indefinit.Orice funcŃie liniară de variabile distribuite normal este distribuită normal. Se demonstrează căestimatoriiaşibsunt normal distribuiŃi.3.1.4. Testarea validităŃii modelului de regresie (testarea calităŃii ajustării), folosind metodaanalizei de varianŃă (ANOVA)După ce dreapta de regresie a fost estimată, este important să se evalueze rezultatele, să se ştie cât debine ajustează sau aproximează această dreaptă datele de selecŃie. UtilizareaMCMMPasigură faptulcă valorile găsite pentruβˆşiαˆsunt cele care aproximează cel mai bine datele de observaŃie, însensul specific de minimizare a sumei pătratelor reziduurilor. Nu există nicio garanŃie căβˆşiαˆcorespund exact cu parametrii necunoscuŃiβşiαşi nici dacă dreapta de regresie, determinată cafiind cea mai bună sau cea mai potrivită, aproximează corect datele observate.Unindicatorce poatedescrie calitateareprezentării,adică a linieideregresieestimată, estecoeficientul de determinaŃie, notat2R.Analiza VarianŃei (ANOVA) este un procedeu statistic de testare a calităŃii modelului, procedeubazat pe descompunerea variaŃiei totale în variaŃie datorată factorului de regresie şi variaŃie datoratăfactorilor neînregistraŃi.VariabileidependenteYîiasociemdouămedii:mediatotală(y)şimediacondiŃionată(iixbay+=ˆ).
8)ˆ()ˆ(yyyyyyiiii+=yyieste abaterea totală,)ˆ(iiyyeste abaterea neexplicată deoarece atunci când se modificăixsemodifică atâtiycât şiiyˆ, iar)ˆ(yyieste abaterea explicată, deoarece atunci când se modificăixse modifică doariyiaryrămâne constant.Ridicăm la pătrat şi însumăm după toate observaŃiile:+=222)ˆ()ˆ()(yyyyyyiiii=2)(yySSTise numeştevariaŃia totalăa valorilor variabileiY, suma pătratelor abaterilor totale.SST este suma pătratelor abaterilor valorilor reale ale variabileiYde la media lor de selecŃie,y. SSTmăsoară acŃiunea tuturor factorilor (de regresie şi neînregistraŃi).===2222)(ˆ)ˆˆ()ˆ(xxyyyySSRiiiβestevariaŃia explicatăprin factorul de regresie, estevariaŃia datorată regresiei. Este suma pătratelor abaterilor valorilor ajustate ale variabileiYde lamedia lor de selecŃie. SSR măsoară acŃiunea factorului de regresie.==22ˆ)ˆ(iiiyySSEεestevariaŃia reziduală, variaŃia datorată erorilor.Este suma pătratelorreziduurilor (abaterilor valorilor reale ale variabileiYde la valoarile ajustate). SSE măsoară acŃiuneatuturor factorilor neînregistraŃi.Cu aceste notaŃii avem relaŃia: SST=SSR+SSEPentru a testa validitatea modelului de regresie se foloseşte un Tabel de analiză a varianŃei.Tabelul ANOVASursavariaŃieiSuma pătratelorabaterilor(SS)Nr grade delibertate(df)Media pătratelor(MS)StatisticaFRegresiaEroareaTotalSSRSSESST1n-2n-1MSR=SSR/1MSE=SSE/(n-2)F=MSR/MSEPentru fiecare sumă se consideră numărul gradelor de libertate.Media pătratelor = suma pătratelor/număr grade de libertate.Se testeză ipotezeleMSEMSRH=:0(modelulnu este validstatistic)MSEMSRH>:1(modelul este valid statistic)2,1~)2/(1/ˆ==ncalculatFnSSESSRFFsau2,122~)2(1ˆ=nFnRRFdacă se exprimă cele două sume cu ajutorul coeficientului de determinaŃie.Se compară valoarea calculată sau observatăFˆcu valoarea critică obŃinută din tabelele repartiŃieiF.Se aplică reguladedecizie:dacă)2,1(;ˆ>nFFαse respingeipotezanulăîn favoareaipotezeialternative. Modelul este valid statistic.Dacă pentrucalcFse obŃine o valoare mare, se acceptă H1: modelul este valid statistic. Dacă1calcF,nu putem respinge H0: modelul nu este valid statistic. Aceasta înseamnă că variabila X nu are efectasupra variabilei Y. În acest caz02=R22)ˆ(222===nenyysMSEiiieesteestimatorulvarianŃeieroriloraleatoare.Esteunestimatornedeplasat deoarece22)(σ=esE. Abaterea medie pătratică a erorilor estimate este2eess=.- Dacă abaterea medie pătratică a erorilor estimate,es, are o valoare mică, atunci se consideră căajustarea datelor observate este foarte bună, iar modelul de regresie poate fi utilizat ca mijloc deanaliză şi prognoză.
desklib-logo
You’re reading a preview
Preview Documents

To View Complete Document

Click the button to download
Subscribe to our plans

Download This Document