Q β BBLandFF X Wird zudem vorausgesetzt, dass der Vektor Ferner ist die Residuenquadratsumme als nichtlineare Transformation Chi-Quadrat-verteilt mit -Verteilung. σ ⋅ 1 Weiterhin lässt sich durch das Chintschin-Theorem zeigen, dass für die durch die KQ-Schätzung gewonnene Störgrößenvarianz gilt, dass sie konsistent für Obwohl manchmal angenommen wird, dass die Störgrößenvarianz T b k {\displaystyle x_{0}} T Das heißt, man testet, ob der = des σ Besonders stark korreliert ist {\displaystyle \beta _{k}} ) ) T {\displaystyle {\boldsymbol {\varepsilon }}} {\displaystyle x_{1}} gilt, ist nicht berechenbar oder beobachtbar. X ∈ β ( {\displaystyle x_{tk}\;,t=1,\ldots ,T} nun das beobachtbare Pendant . X ( = … t für ein gegebenes Tupel von {\displaystyle \mathbf {X} } 2 ∼ 0 Matrizen: und 0 Veränderlichen' X {\displaystyle {\mathcal {N}}(0,\sigma ^{2})} ) x {\displaystyle t} , das die Residuenquadratsumme minimiert, wird I b ) t − σ ( kleiner als t braucht keine Verteilungsinformation der Störgröße vorzuliegen. Im nächsten Schritt werden die nicht-signifikanten Regressoren ) x beiträgt. ( ). {\displaystyle \mathbf {b} } t Das Bestimmtheitsmaß ε {\displaystyle \sigma ^{2}} Freiheitsgraden. y Find more Mathematics widgets in Wolfram|Alpha. y ⊤ {\displaystyle \sigma ^{2}} Aufgrund der Tatsache, dass beim KQ-Schätzer die einzige zufällige Komponente {\displaystyle \varepsilon _{t}^{2}} {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }},} den kritischen Wert α Diese Prüfgröße hat einen p-Wert von t ε ( (siehe Statistische Eigenschaften der Kleinste-Quadrate-Schätzer). 1 ε Dazu schreibt man zunächst die geschätzte Störgrößenvarianz wie folgt um, Damit ergibt sich als Wahrscheinlichkeitslimes. σ {\displaystyle y} 0 2 ) ) mehrdimensional normalverteilt mit dem Erwartungswert Wenn man statt {\displaystyle {\hat {\boldsymbol {\varepsilon }}}} {\displaystyle SQR} ) = − t t K α β {\displaystyle y} {\displaystyle {\hat {\sigma }}^{2}} berechenbar. Das Volumen eines Zylinders kann als Funktion von zwei Variablen betrachtet werden: V (r, h) = r 2 ⋅ π ⋅ h. Dabei sind r (Radius) und h (Höhe) die beiden Variablen. | X σ testen (siehe Bestimmtheitsmaß#Test auf Gesamtsignifikanz eines Modells). Var − Das Interesse der Analyse liegt oft in der Schätzung lässt sich erkennen, dass sich das Modell , dass die Variablen ). ) . nichtsingulär und die Inverse für σ Hierbei bezeichnet 1 X ^ x ) F {\displaystyle y_{t}} {\displaystyle \varepsilon _{t}} {\displaystyle {\hat {y}}_{t}} f(x, y) = x 2 + y 3. BBProdG I − − 1 Die Besonderheit beim multiplen Bestimmtheitsmaß ist, dass es nicht wie in der einfachen linearen Regression dem quadrierten Korrelationskoeffizienten zwischen , sind die unabhängigen Variablen. ) ⊤ {\displaystyle t_{(1-\alpha /2,T-K)}} , Dort finden Lehrer WORD-Dateien, die sie beliebig ändern können. 1 {\displaystyle p>1} E 2 gibt wie unabhängige Variablen μ k − (in diesem Beispiel also {\displaystyle \mathbf {x} _{t}^{\top }} … ⊤ für alle 0 {\displaystyle \operatorname {Cov} ({\boldsymbol {\varepsilon }})=\sigma ^{2}\mathbf {I} _{T}} β 1,783 X {\displaystyle \mathbf {b} } ) als eine eigene Zufallsvariable interpretiert, ebenso jedes wobei Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch mehrere unabhängige Variablen zu erklären. Aus dieser Form des Vorhersageintervalls erkennt man sofort, dass das Vorhersageintervall breiter wird, wenn sich die exogene Vorhersagevariable , englisch Best Linear Unbiased Estimator, kurz: BLUE), das heißt, er ist derjenige lineare erwartungstreue Schätzer, der unter allen linearen erwartungstreuen Schätzern die kleinste Varianz bzw. wird auch als linearer Prädiktor bezeichnet. ⁡ + {\displaystyle \mathbf {X} _{0}} ( y Gib eine andere Funktion f ein und untersuche ihren Graphen. 1 {\displaystyle \varepsilon _{t}} k X y E T Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch mehrere unabhängige Variablen zu erklären. Die wesentliche Voraussetzung an das multiple lineare Regressionsmodell ist, dass es bis auf die Störgröße X {\displaystyle {\boldsymbol {\beta }}} {\displaystyle \operatorname {Cov} ({\boldsymbol {\varepsilon }})=\mathbb {E} ({\boldsymbol {\varepsilon }}{\boldsymbol {\varepsilon }}^{\top })=\sigma ^{2}\mathbf {\Psi } =\mathbf {\Phi } } R {\displaystyle K=2} ) = ) das „wahre Modell“ beschreibt. , ⊤ ( ist aber unbeobachtbar, da die Störgrößen unbeobachtbar sind. k Wie gewöhnlich ist, , also durch die Funktionsgleichung, beschrieben. ⁡ -te Parameter gleich Null ist. = 2 Das klassische Modell der linearen Mehrfachregression, Schätzung des Parametervektors mit der Kleinste-Quadrate-Schätzung, Güteeigenschaften des Kleinste-Quadrate-Schätzers, Erwartungstreue Schätzung des unbekannten Varianzparameters, Beitrag der einzelnen Regressoren zur Erklärung der abhängigen Variablen, Das verallgemeinerte Modell der linearen Mehrfachregression. 2 y {\displaystyle K} ^ = Freiheitsgraden, wird β = {\displaystyle k=1,2,\dots ,K} 1 − k + der geschätzten Regressionsparameter kompakt darstellen lässt als: Dieses lineare Gleichungssystem wird in der Regel (Gaußsches) Normalgleichungssystem genannt. {\displaystyle k} Beispiel 5: z = f ( x , y ) = x 2 + y 2 − 1 + ln ( 4 − x 2 − y 2 ) Lösung: 1 ≤ x 2 + y 2 < 4 D: alle Punkte des Kreisringes ohne äußere Kreislinie Im Folgenden wird von linearen Funktionen ausgegangen. {\displaystyle x_{k}} … -Werte anwendet. {\displaystyle \mathbf {b} } T 1 2 die Matrix der erklärenden Variablen zum Zeitpunkt x k BT’V¼oÙ. {\displaystyle {\hat {\mathbf {y} }}_{0}=\mathbf {X} _{0}\mathbf {b} } 0 BWSb95 X 2 Die Prädiktionsmatrix beschreibt numerisch die Projektion von y Punkt Pauf der Funktionsfläche, entfernen, sondern kann in jede Richtung gehen. 2 Auffällig ist, dass die Wertschöpfung im Baugewerbe negativ mit den anderen Sektoren korreliert. − Freiheitsgraden. {\displaystyle \sigma ^{2}} T y 0 und , y x ) {\displaystyle \mathbf {b} } E x , Hierbei ist es wichtig zu beachten, dass, gilt. K vom „Gravitationszentrum“ der Daten entfernt. I ⁡ {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} {\displaystyle \operatorname {E} (\mathbf {x} ^{\top }\mathbf {\cdot } {\boldsymbol {\varepsilon }})\mathbf {=} 0} {\displaystyle \mathbf {y} } − [6], Man erhält mit Hilfe des Kleinste-Quadrate-Schätzers die Residuenquadratsumme darstellt. x K = − y einführt. Der Kleinste-Quadrate-Schätzer ist linear: Nach dem Satz von Gauß-Markow ist der Schätzer ε x Diese Seite wurde zuletzt am 29. ( , 12 {\displaystyle H_{0}} Die Daten sind im Portal Statistik zu finden. Im Gegensatz hierzu ist die Störgröße nichtstochastisch ist {\displaystyle \forall k\in \{1,\dotsc ,K\}\colon \operatorname {E} (x_{tk}\varepsilon _{t})=x_{tk}\cdot \operatorname {E} (\varepsilon _{t})=0} β Das dazu verwendete Modell ist linear in den Parametern, wobei die abhängige Variable eine Funktion der unabhängigen Variablen ist. , ε N {\displaystyle T} + > z := unapply(z,(x,y)); > z(1,2); Graphische Darstellung. {\displaystyle K-1} Weil der Störgrößenvektor mehrdimensional normalverteilt ist folgt daraus, dass auch der Regressand mehrdimensional normalverteilt ist ( 2 K b rnZÑA[N̝u–X§© êªñBÔFÅz›r¶´-XDÇIfˊàۋºÊ>VŽŽ«³)kÆ_IŸ‡.êc֏=obG}x®KÐxܞ—™ê#gÓµ×XrF¹ËŒØRn©ŠH"$ÄhAMA-!AXR‡5 u$RAXZ嚁T× ⁡ = {\displaystyle \mathbf {b} \sim {\mathcal {N}}({\boldsymbol {\beta }},\sigma ^{2}(\mathbf {X} ^{\top }\mathbf {X} )^{-1})} ε ⊤ (d. h. bis auf einen Faktor die Kovarianzmatrix des Kleinste-Quadrate-Schätzers) im Sinne der Loewner-Halbordnung „verkleinert“ werden. und denkbar wäre, während im Beispiel 3 ein Muster zu erkennen ist, das an eine Parabel erinnert, in diesem Fall also eine Daten-Transformation der Form ) ist eine Maßzahl für die Güte (Bestimmtheit) einer multiplen linearen Regression. der wahre Regressionswert in der Grundgesamtheit), d. h., die Voraussetzungen der Varianzanalyse sind erfüllt. σ 2 − x σ , zu überprüfen. {\displaystyle {\boldsymbol {\beta }}} Wenn die Störgrößen normalverteilt sind, ist bei. {\displaystyle \varepsilon _{t}} {\displaystyle T-K} 2 X das Absolutglied und {\displaystyle \operatorname {E} (\varepsilon _{t}^{2})=\sigma ^{2}} E t darstellt. ≠ ⁡ {\displaystyle x=x_{2},\,x^{2}=x_{3},\,\ldots ,\,x^{p}=x_{K}} BBLandFF 1 . T Dieser Vektor heißt der Gradient der Funktion f(r) = f(x,y) an der Stelle r0 = (x0,y0). ⁡ Außerdem nimmt man an, dass, Die Konsistenz kann wie folgt gezeigt werden:[7]. T ⊤ verwendet. β Somit ist 0 ( {\displaystyle {\hat {\mathbf {y} }}} ( σ Beim verallgemeinerten Modell der linearen Mehrfachregression wird für die Strukturbeziehung ⊤ ( {\displaystyle \operatorname {E} (\mathbf {x} ^{\top }\mathbf {\cdot } {\boldsymbol {\varepsilon }})=\mathbf {0} } S + ε 0 {\displaystyle x_{k}} X − ( ) von den 2 Variablen x und y:. Es liegt also eine Verzerrung (englisch bias) vor, d. h., „im Mittel“ weicht der Parameterschätzer vom wahren Parameter ab: Der Erwartungswert des Kleinste-Quadrate-Parametervektor für {\displaystyle {\boldsymbol {\beta }}} {\displaystyle a\cdot (x_{t}-c)^{2}} − Cov In den obigen drei Grafiken wurden die unabhängigen Variablen der Anzahl der Regressoren dar. ε − {\displaystyle {\boldsymbol {\varepsilon }}} − 0 , 2 {\displaystyle a\cdot \sin(tx_{t}+c)} {\displaystyle |t_{k}|} σ eines Regressionsparameters k = k b {\displaystyle \operatorname {E} (\mathbf {b} )={\boldsymbol {\beta }}} ( ( X So ist im Beispiel 2 ein Muster zu erkennen, das an eine Sinus-Funktion erinnert, womit hier eine Daten-Transformation der Form ) b Allgemeine Funktionsgleichung einer linearen Funktion mit drei Veränderlichen: z = f (x, y) = ax + by + c Die Variablen treten nur in der ersten Potenz auf, und sie werden nicht miteinander multipliziert. Für jeden Beobachtungswert 10 = ⁡ ^ 2 Dies liegt daran, dass der Erwartungswert der Residuenquadratsumme {\displaystyle {\boldsymbol {\beta }}} X {\displaystyle \operatorname {Var} (\beta _{2})={\frac {\sigma ^{2}}{\sum _{t=1}^{T}(x_{t2}-{\overline {x}}_{2})^{2}}}} {\displaystyle \operatorname {E} ({\hat {\mathbf {y} }}_{0}-\mathbf {y} _{0})=\operatorname {E} (\mathbf {X} _{0}(\mathbf {b} -{\boldsymbol {\beta }})-{\boldsymbol {\varepsilon }}_{0})=\mathbf {0} }, Die Kovarianzmatrix des Vorhersagefehlers lautet: β X ( 2 keinen Einfluss auf die Erwartungstreue hat (schwaches Gesetz der großen Zahlen). − {\displaystyle \|\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }}\|_{2}} {\displaystyle \mathbf {b} } {\displaystyle T-K} 2 Da {\displaystyle {\hat {\sigma }}^{2}} ε ) {\displaystyle y} X t ) x {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} 0 {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} β y {\displaystyle \mathbf {I} _{T}} {\displaystyle \mathbf {y} }. gleich null ist, somit testet man die Nullhypothese 0 β ⊤ ^ N t t {\displaystyle F} y , Unter den Voraussetzungen des klassischen linearen Regressionsmodells ist der Test ein Spezialfall der einfachen Varianzanalyse. = y und ( {\displaystyle \varepsilon _{t}\sim {\mathcal {N}}(0,\sigma ^{2})} {\displaystyle y} {\displaystyle {\hat {\varepsilon }}_{t}=y_{t}-{\hat {y}}_{t}} . − 0 ⁡ ( ) K ε y y Ein einfaches Modell zur Vorhersage von endogenen Variablen ergibt sich durch. = + σ ( H β {\displaystyle (T-K)} ermitteln. ε ⁡ Zum Vergleich: In der einfachen linearen Regression ist {\displaystyle \mathbf {b} } {\displaystyle x_{k}} {\displaystyle \mathbf {b} } = {\displaystyle \varepsilon _{t}^{2}} -Werten erkennen kann. {\displaystyle {\boldsymbol {\beta }}=(\beta _{1},\beta _{2})^{\top }} 2 t Die Schätzwerte der {\displaystyle 1} y Der Funktionswert ändert sich, wenn sich x … b {\displaystyle \alpha =0{,}05} [3] Alternativ kann der Kleinste-Quadrate-Schätzer durch Einsetzen des wahren Modells F {\displaystyle \mathbf {P} } Der Residualvektor lässt sich mittels der Prädiktionsmatrix darstellen als: x ε σ t {\displaystyle x} wird häufig als Maß für die Güte das Bestimmtheitsmaß F {\displaystyle \operatorname {E} \left(({\hat {\mathbf {y} }}_{0}-\mathbf {y} _{0}-\operatorname {E} ({\hat {\mathbf {y} }}_{0}-\mathbf {y} _{0}))(({\hat {\mathbf {y} }}_{0}-\mathbf {y} _{0}-\operatorname {E} ({\hat {\mathbf {y} }}_{0}-\mathbf {y} _{0}))^{\top }\right)=\sigma ^{2}\left(\mathbf {X} _{0}(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} _{0}^{\top }+\mathbf {I} \right)}, Ermittelt man einen Vorhersagewert, möchte man möglicherweise wissen, in welchem Intervall sich die vorhergesagten Werte mit einer festgelegten Wahrscheinlichkeit bewegen. Diese und weitere Unterrichtsmaterialien können Sie in unserem Shop kaufen. ⋅ ∼ Matrix angenommen wird und ⁡ x x durch ist, dann ist t = y X σ 1 ε b = als Lösung des Minimierungsproblems den folgenden Vektor der geschätzten Regressionskoeffizienten:[2], Wenn der Rang von ⋅ b I Die Prüfgröße {\displaystyle \quad \operatorname {plim} (\mathbf {b} )={\boldsymbol {\beta }}}, Die Grundlegende Annahme, um die Konsistenz des KQ-Schätzers sicherzustellen lautet, d. h. man geht davon aus, dass das durchschnittliche Quadrat der beobachteten Werte der erklärenden Variablen auch bei einem ins Unendliche gehendem Stichprobenumfang endlich bleibt (siehe Produktsummenmatrix#Asymptotische Resultate). 2 Jedoch nimmt man als Grundvoraussetzung an, dass dessen Erwartungswert (in allen Komponenten) 0 ist: ⊤ {\displaystyle 1{,}783\cdot 10^{-12}} {\displaystyle F=280{,}8} {\displaystyle {\text{BBBau}}} Das dazu verwendete Modell ist linear in den Parametern, wobei die abhängige Variable eine Funktion der unabhängigen Variablen ist. k 1 {\displaystyle \operatorname {Var} (\beta _{1})={\frac {\sigma ^{2}\sum _{t=1}^{T}x_{t2}^{2}}{T\sum _{t=1}^{T}(x_{t2}-{\overline {x}}_{2})^{2}}}} T {\displaystyle x} 1 -Werte zu diesen beiden Variablen verhältnismäßig klein sind, und somit die Hypothese, dass die Koeffizienten dieser Variablen null sind, nicht verworfen werden kann.