class: center, middle, inverse, title-slide .title[ # Chapitre 7: Inférence (Intervalles et tests) ] .subtitle[ ## Économétrie (ECON0212) ] .author[ ### Malka Guillot ] .date[ ### HEC Liège ] --- layout: true <div class="my-footer"><img src="../img/logo/logo_hec.png" style="height: 60px;"/></div> --- # Recap - Régression linéaire multiple & extensions ## Wooclap <img src="wooclap4-qrcode.png" width="25%" style="display: block; margin: auto;" /> <div style="text-align: center;"> <a href="https://app.wooclap.com/XQKNBT">Lien de participation</a> </div> --- # Aujourd'hui - Inférence statistique * *Rappels*: - Intervalles de confiance * Contient une ***plage*** de valeurs possibles - Tests d'hypothèse * Comparer les statistiques entre groupes * Inférence dans le cadre de la régression * Comprendre la totalité du ***tableau de régression*** <!-- * Comparer ***theory-based*** and ***simulation-based*** inference --> * Hypohtèses du ***model classique de régression*** assumptions --- layout: false class: title-slide-section-red, middle # Plan du cours ## [Rappels] Intervalles de confiance & tests d'hypothèse ## Inférence statistique dans le cadre de la régression ## Tests d'hypothèses en régression multivariée --- layout: false class: title-slide-section-grey, middle # Plan du cours <h2 style="color: #154E55 ;">[Rappels] Intervalles de confiance & tests d'hypothèse</h2> ## Inférence statistique dans le cadre de la régression ## Tests d'hypothèses en régression multivariée --- # [Rappels] Inférence statistique ## Intervalles de confiance * Les **intervalles de confiance** peuvent être considérés comme une extension de l'**estimation ponctuelle**. ## Tests d'hypothèse * Et si nous voulions **comparer** une statistique d'échantillon pour deux groupes ? * *Exemple* : différences entre les salaires moyens des hommes et des femmes. Les différences observées sont-elles ***significatives*** ? * Ces comparaisons relèvent du domaine des **tests d'hypothèse**. * Les tests d'hypothèse permettent de tirer des conclusions pour une population à partir d'informations provenant d'un échantillon. --- # Y a-t-il une discrimination fondée sur le sexe dans les promotions ? - ***Question de recherche*** : **les employées de banque sont-elles victimes de discrimination ?** * Données d'un [article](https://pdfs.semanticscholar.org/39f6/d40e907ff08af4ddd3280c2ceee55ee1ddb6.pdf) publié dans le *Journal of Applied Psychology* en 1974 * 48 superviseurs (masculins) ont reçu des CV de candidats *identiques*, ne différant que par le prénom, masculin ou féminin. * Chaque CV était "*sous la forme d'un mémorandum demandant une décision sur la promotion d'un employé au poste de directeur de succursale*". -- * ***Hypothèse*** à tester : *Y a-t-il une discrimination fondée sur le sexe ?* --- # Un indice de la discrimination ? .pull-left[ Combien d'hommes et de femmes se sont vus (ou pas) proposer une promotion ? <img src="../img/content/promotion-tab.png" width="70%" style="display: block; margin: auto;" /> Il y a une différence de ***29,2 points de pourcentage*** dans les promotions entre les hommes et les femmes ! ] -- .pull-right[ <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-4-1.svg" style="display: block; margin: auto;" /> ] -- ***Question*** : Cette différence est-elle une ***preuve concluante*** de différences dans les taux de promotion entre les hommes et les femmes ? Une telle différence aurait-elle pu être observée ***par hasard*** ? --- # Distribution d'échantillonage de 1000 tirages <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-5-1.svg" style="display: block; margin: auto;" /> * Nous avons besoin de connaître l'ensemble de la distribution d'échantillonnage sous l'hypothèse de l'*absence de discrimination*. 1. On simule la promotion selon l'hypothèse qu'elle est similaire pour hommes & femmes 2. On tire des échantillons aléatoires --- # Distribution d'échantillonage de 1000 tirages <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-6-1.svg" style="display: block; margin: auto;" /> Est il vraisemblable d'observer une différence de taux de promotion de 0.292 dans un monde sans discrimination ? --- # Que vient-on de faire ? * Nous venons de démontrer la procédure statistique connue sous le nom de ***test d'hypothèse*** à l'aide d'un ***test de permutation***. -- * On s'est demandé s'il était vraisemblable d'observer une différence de taux de promotion de 0.292 dans un monde sans discrimination. -- * Nous avons conclu ***plutôt pas***, c'est-à-dire que nous avons tendance à ***rejeter*** l'hypothèse de l'absence de discrimination. -- * Présentons maintenant le cadre formel des tests d'hypothèse. --- # Test d'hypothèse : notation & définition * Un ***test d'hypothèse*** consiste en un test entre ***deux hypothèses concurrentes*** concernant le paramètre de la population : -- * L'hypothèse ***nulle*** `\((H_0)\)` : hypothèse d'absence de différence ; -- * L'hypothèse ***alternative*** `\((H_A \textrm{ou }H_1)\)` : l'hypothèse de recherche. -- * Dans l'exemple précédent : `$$\begin{align}H_0&: p_m - p_f = 0\\H_A&: p_m - p_f > 0,\end{align}$$` où `\(p_m =\)` taux de promotion des hommes, et `\(p_f =\)` taux de promotion des femmes. -- * Ici, nous avons considéré une alternative *unilatérale*, affirmant que `\(p_m > p_f\)`, c'est-à-dire que les femmes sont victimes de discrimination. * La formulation *bilatérale* est simplement `\(H_A : p_m - p_f \neq 0\)`. --- # Test d'hypothèse : notation & définition * ***Statistique de test*** : Formule d'*estimation ponctuelle/de statistique d'échantillon* utilisée pour les tests d'hypothèse. -- * *Dans notre cas précédent* : différence dans les proportions de l'échantillon `\(\hat{p}_m - \hat{p}_f\)`. -- ***Statistique de test observée*** : valeur de la statistique de test que nous avons observée dans la réalité. -- * *Dans notre cas précédent* : on observe une différence `\(\hat{p}_m - \hat{p}_f = 0.292 = 29.2\)` points de pourcentage. -- * ***Distribution nulle*** : distribution d'échantillon de la statistique de test si *suppose que l'hypothèse `\(H_0\)` est vraie*. -- * *Cas précédent* : Toutes les valeurs possibles que `\(\hat{p}_m - \hat{p}_f\)` peut prendre en supposant qu'il n'y a pas de discrimination. * C'est la distribution que nous avons vue juste avant. --- # Distribution nulle <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-7-1.svg" style="display: block; margin: auto;" /> --- # Test d'hypothèse : notation & définition > ### ***p-value*** : probabilité d'observer une statistique de test *aussi ou plus extrême* que celle que nous avons obtenue, en supposant que l'hypothèse nulle `\(H_0\)` est vraie. 🤔 -- * Dans quelle mesure sommes-nous surpris d'observer une différence de taux de promotion de 0,292 dans notre échantillon en supposant que `\(H_0\)` est vrai, c'est-à-dire dans un monde sans discrimination ? Très surpris ? Un peu surpris ? -- * Qu'entendons-nous par "plus extrême" ? * Défini en termes d'hypothèse alternative : dans ce cas, les hommes ont ***plus de chances*** d'être promus que les femmes. Par conséquent, ***plus extrême*** dans notre cas signifie observer une différence dans les taux de promotion ***supérieure à 0,292***. -- * ***Interpretation***: plus la p-value est faible, *moins notre hypothèse nulle est cohérente avec la statistique observée*. -- * Quand décidons-nous de ***rejeter*** `\(H_0\)` ou non ? --- # Test d'hypothèse : notation & définition * Pour décider si nous rejetons `\(H_0\)` ou non, nous fixons un ***seuil de significativité*** pour le test. -- * ***Seuil de significativité `\((\alpha)\)`*** : *limite* de la p-value. * Les valeurs courantes sont `\(\alpha = 0.01\)`, `\(0.05\)`, ou `\(0.1\)`. -- * ***Décision*** : * Si la p-value est ***inférieure au seuil `\(\alpha\)`***, nous "***rejetons l'hypothèse nulle au seuil de significativité `\(\alpha\)`***". -- * Sinon, si la p-value est ***supérieure à `\(\alpha\)`***, nous disons que nous "***ne parvenons pas à rejeter l'hypothèse nulle `\(H_0\)` au niveau de significativité `\(\alpha\)`***". -- * ***Interprétation*** : Si notre observation *est trop peu probable pour se produire* sous l'hypothèse nulle, cela signifie que cette hypothèse est ***probablement fausse***. -- * Illustration avec notre exemple. --- # Visualisons la p-value <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-8-1.svg" style="display: block; margin: auto;" /> -- L'aire rouge correspond à la p-value! --- # Calcul de la p-value et décision * Rappel de la définition de la p-value : ***probabilité d'observer une statistique de test *aussi ou plus extrême* que celle observée, en supposant que l'hypothèse nulle `\(H_0\)` est vraie***. -- - p-value=0.007 * Dans un monde sans discrimination, nous obtiendrions `\(\hat{p_m} - \hat{p_f}\)` supérieur (ou égal) à 0,292 seulement 0.7% du temps. -- * Nous pouvons donc rejeter `\(H_0\)`, c'est-à-dire l'absence de discrimination, au seuil de significativité de 5%. * Nous disons également que `\(\hat{p_m} - \hat{p_f} = 0,292\)` est ***statistiquement significativement différent de 0*** au niveau de 5%. -- * ***Question*** : Supposons que nous ayons fixé `\(\alpha = 0,01 = 1\%\)`, aurions-nous rejeté l'absence de discrimination à ce niveau ? --- # [`Stata`] Test d'hypothèse `ttest decision_cat , by(female)` <img src="../img/content/ttest-promotion.png" width="70%" style="display: block; margin: auto;" /> ??? - Attention à ce qui est considéré comme la catégorie de référence (`male` or `female` ?) - Ne fonctionne pas avec une variable `string` --- # Comment tout cela se rapporte-t-il à la régression ? * Maintenant vous avez tous les outils pour faire de l'***inférence statistique*** "pour de vrai" ! -- * L'analyse de régression est basée sur un ***échantillon*** de données. -- * Votre coefficient de régression est donc sujet à des variations d'échantillonnage, il ne s'agit pas du véritable coefficient de la population. -- * ***Question*** : L'effet estimé est-il statistiquement différent d'une certaine valeur `\(z\)` ? --- layout: false class: title-slide-section-grey, middle # Plan du cours ## [Rappels] Intervalles de confiance & tests d'hypothèse <h2 style="color: #154E55 ;">Inférence statistique dans le cadre de la régression</h2> ## Tests d'hypothèses en régression multivariée --- # Retour sur la taille de la classe et la performance des élèves * Retour sur les données de l'experimentation ***STAR***, on se concentre sur: * les classes *petites* et *normales*, * le niveau *Kindergarten*. -- * On considère le modèle de régression suivant et on l'estime par MCO : $$ \text{math score}_i = \beta_0 + \beta_1 \text{small}_i + e_i$$ <img src="../img/content/star-reg-k-math-small.png" width="60%" style="display: block; margin: auto;" /> --- # Retour sur la taille de la classe et la performance des élèves <img src="../img/content/star-reg-k-math-small.png" width="60%" style="display: block; margin: auto;" /> * Si nous tirions un autre échantillon aléatoire d'écoles du Tennessee et refaisions l'expérience, trouverions-nous une valeur différente pour `\(\hat \beta_1\)` ? * Nous savons que la réponse est "oui", mais dans quelle mesure cette estimation serait-elle différente ? --- # [Inférence] Approche théorique * Les valeurs rapportées par les logiciels statistiques sont obtenues à partir de la théorie. -- * L'inférence théorique est basée sur des **approximations en grands échantillons**. * On peut montrer que les distributions d'échantillonnage *convergent* en distributions appropriées `\(\rightarrow\)` **Théorème central limite**. --- # [Inférence] Approche théorique * L'approche théorique s'appuie sur un *résultat fondamental* : - La distribution d'échantillonage de la statistique `\(\frac{\hat \beta - \beta}{\hat{\textrm{SE}(b)}}\)` *converge* vers une distribution normale ***centrée réduite*** avec l'augmentation de la taille de l'échantillon. `$$\frac{\hat \beta - \beta}{\hat{\textrm{SE}(b)}} \xrightarrow{d} \mathcal{N}(0,1)$$` * `\(\hat{\textrm{SE}(b)}\)` est l'estimateur de l'échantillon de l'écart-type de `\(\hat \beta\)`. * Il est également obtenu par une formule théorique (cf. [ici](https://scpoecon.github.io/ScPoEconometrics/std-errors.html#se-theory) !) mais nous la laisserons de côté. -- * Pas besoin de simuler une distribution d'échantillonnage ici: - La distribution est issue de la théorie - `\(\rightarrow\)` l'utilisons pour construire des intervalles de confiance ou pour effectuer des tests d'hypothèse. -- * Remarque: si `\(\frac{b - \beta}{\hat{\textrm{SE}(b)}}\)` *converge* vers une ***distribution normale centrée réduite***, alors `\(b\)` converge vers ***distribution normale*** de moyenne `\(\beta\)` et d'écart type `\(\hat{\textrm{SE}(b)}\)`. --- # Distribution normale : rappels .center[ <img src="../img/photos/standard_normal_distrib.png" width="850px" style="display: block; margin: auto;" /> ] --- # [Inférence] Approche théorique : Intervalle de confiance * Prenons l'exemple d'un intervalle de confiance à 95%. -- * Puisque la distribution d'échantillonnage de `\(\hat \beta\)` est supposée être de forme normale, nous pouvons utiliser la règle empirique des ***95%*** concernant les distributions normales. -- * Nous savons en effet que 95 % des valeurs d'une distribution normale se situent à environ 2 écarts types de la moyenne (exactement 1,96). -- * Nous pouvons donc calculer un IC à 95% pour `\(\beta\)` comme suit : `\(\textrm{CI}_{95\%} = [ b \pm 1.96*\hat{\textrm{SE}}(b)]\)` -- .pull-left[ <img src="../img/content/star-ci-inf.png" width="60%" style="display: block; margin: auto;" /> ] -- .pull-right[ <img src="../img/content/star-ci-sup.png" width="60%" style="display: block; margin: auto;" /> ] -- * Ceci peut facilement être généralisé à n'importe quel niveau de confiance en prenant le quantile approprié de la distribution normale. --- # Inférence et régression : `\(\hat \beta_k\)` vs `\(\beta_k\)` * `\(\hat \beta_0, \hat \beta_1\)` sont des ***estimations ponctuelles*** calculées à partir de notre échantillon. -- .pull-left[ * En fait, la prédiction de notre modèle `$$\hat{y} = \hat \beta_0 + \hat \beta_1 x_1$$` ] -- .pull-right[ ... est une **estimation** d'une **vraie droite de régression dans la population** (inconnue) `$$y = \beta_0 + \beta_1 x_1 + \epsilon$$` ] où `\(\beta_0, \beta_1\)` sont les ***paramètres de la population*** d'intérêt. -- * On a parfois écrit `\(b_k\)` au lieu de `\(\hat \beta_k\)`, les deux se référent à l'estimation dans notre échantillon. -- * Nous allons appliquer ce que nous savons sur les ***intervalles de confiance***, les ***tests d'hypothèse*** et les ***erreurs standard*** à ces `\(\hat{\beta_k}\)` ! --- # Comprendre les tables de régression <img src="../img/content/star-reg-k-math-small-coef.png" width="80%" style="display: block; margin: auto;" /> * Colonnes dont nous n'avons pas parlé : `Std. err.`, `t`, `P>|t|` and `[95% conf. interval]`. Terme | Signification ----- | ---- `Std. err.` | Erreur standard de `\(\hat \beta_k\)` `t` | Statistique de test associée à `\(H_0:\beta_k = 0,H_A:\beta_k \neq 0\)` <code>P > |t|</code> | p-value associée à `\(H_0:\beta_k = 0,H_A:\beta_k \neq 0\)` * On se concentre sur la ligne associée à la variable `small` pour étudier chacune des colonnes. --- # Erreur standard de `\(\hat \beta_k\)` > ***Erreur standard de `\(\hat \beta_k\)`:*** Ecart-type de la distribution d'échantillon de `\(\hat \beta_k\)`. -- Imaginons que nous exécutions 1000 fois cette expérimentations sur 1000 échantillons différents: * On ferait 1000 régressions et on obtiendrait 1000 estimations pour `\(\beta_k\)`, `\(\hat \beta_k\)`. -- * L'erreur standard de `\(\hat \beta_k\)` quantifies la variation dans les `\(\hat \beta_k\)` à laquelle on s'attendrait dans (*une infinité d'*) les échantillons. --- # Erreur standard de `\(b_\textrm{small}\)` * La table de régression donne `\(\hat{\textrm{SE}}(b_\textrm{small}) = 1.68\)` * *Remarque*: on écrit `\(\hat{\textrm{SE}}\)` et non `\({\textrm{SE}}\)` car 1.68 est une estimation de l'erreur standard réelle de `\(b_\textrm{small}\)` que l'on obtient dans notre échantillon. * On adorerait connaître cette erreur standard réelle `\({\textrm{SE}}\)`, mais nous n'avons qu'un échantillon! -- <img src="7-ci_hyptest_files/figure-html/unnamed-chunk-19-1.svg" style="display: block; margin: auto;" /> <!-- * [A SUPPRIMER] Simulons la distribution d'échantillonage de `\(b_\textrm{small}\)` pour voir d'où cette estimation vient. --> <!-- - Méthode utile = **bootstrap** : --> <!-- 1. tirer aléatoirement `\(N\)` observations de l'échantillon 100 fois --> <!-- 2. réaliser les 100 régressions --> <!-- 3. étudier la distribution bootsrap des `\(b_\textrm{small}\)` venant des 100 échantillons --> <!--# Bootstrap Distribution [A SUPPRIMER] ***Erreur standard:*** 1.71 `\(\rightarrow\)` très proche de celle de la table de régression (1.68)! --> <!-- Pas exactement égale : on a utilisé une approche par simulation bootstrap plutôt qu'une approche théorique comme dans la table Stata --> --- # Retour à nos résultats de régression <img src="../img/content/star-reg-k-math-small-coef.png" width="80%" style="display: block; margin: auto;" /> * On vient de s'intéresser à la colonne `Std. err.`. * Les 2 colonnes suivantes sont la statistique de test (`t`) et la p-value (`P>|t|`) * Cf. partie sur les tests d'hypothèse * Mais de quelle hypothèse parle-t-on ? --- # [Inférence] Approche théorique : Test d'hypothèse * La théorie nous dit que `\(\frac{\hat \beta_k - \beta_k}{\hat{\textrm{SE}(b)}}\)` converge vers une distribution normale centrée réduite. * Le test par défaut effectué par tout logiciel statistique est : `$$\begin{align}H_0:& \beta_k = 0\\H_A:& \beta_k \neq 0\end{align}$$` -- * Donc, **sous l'hypothèse nulle**, `\(\beta_k=0\)`, et la théorie nous apprend que la distribution d'échantillonnage de `\(\frac{b}{\hat{\textrm{SE}(b)}}\)` sera une distribution normale centrée réduite. -- * La *distribution normale centrée réduite* est donc la **distribution sous H0** de notre statistique de test. -- * La ***p-value*** associée à notre test est alors égale à l'aire de la *distribution normale centrée réduite* à l'extérieur de `\(\pm\)` la valeur observée de `\(\frac{\hat \beta_k}{\hat{\textrm{SE}(\hat \beta_k)}}\)`. -- * Règle de base : si l'*estimation* est ***deux fois la taille de l'erreur standard***, elle est significative au niveau de 5 %. Pourquoi ? --- # Tester si `\(\beta_\textrm{small} = 0\)` vs. `\(\beta_\textrm{small} \neq 0\)` Par défaut, le résultat de la régression fournit des résultats associatés au test d'hypothèse suivant: `$$\begin{align}H_0:& \beta_k = 0\\H_A:& \beta_k \neq 0\end{align}$$` -- * Il permet de tester statistiquement s'il existe une véritable relation entre la variable dépendante et la variable indépendante. -- * Si `\(H_0\)` est vrai, il n'y a **aucune** relation entre le résultat et notre régresseur. * Dans ce cas, l'observation de `\(b_1 \neq 0\)` n'est que le fruit du hasard. -- * Si `\(H_0\)` est faux, il **existe une vraie relation**. -- * ***Important:*** Il s'agit d'un test bilatéral ! --- # Test de student ## Statistique de test et `\(p-\)`value * Pour effectuer un tel test, nous devons : -- * Dériver la distribution d'échantillonnage de notre **statistique de test** (`t`) en supposant que `\(H_0\)` est vrai, c'est-à-dire l' *hypothèse nulle*. -- * Quantifier à quel point la **statistique de test observée** est extrême dans ce monde hypothétique. -- * Notre *statistique de test observée* (`t`) est égale à `\(\frac{b}{\hat{SE}(b)}\)`. * = **test de Student** * Suit une distribution de student sous H0. -- .pull-left[ <img src="../img/content/star-calcul-t.png" width="60%" style="display: block; margin: auto;" /> ] -- .pull-right[ * Très proche de la statistique de test donnée par la table: `t` = 5.3. ] -- * La **p-value** mesure l'aire qui est `\(\pm\)` autour de la *statistique observée de test* sous l'*hypothèse nulle*. -- * Enfin, on analyse si on rejette `\(H_0\)` aux **seuils de significativité** habituels : `\(\alpha\)` = 0,1, 0,05, 0,01. ??? On rejète quand la valeur de la statistique observée n'est pas du tout plausible pour suivre une distribution de student (centrée en 0) --- # [Stata] Commande `test` ### Tester si `\(\beta_\textrm{small} = 0\)` vs. `\(\beta_\textrm{small} \neq 0\)` <img src="../img/content/test_small_0.png" width="30%" style="display: block; margin: auto;" /> ### Tester si `\(\beta_\textrm{small} = \beta_{cons}\)` vs. `\(\beta_\textrm{small} \neq \beta_{cons}\)` <img src="test_small_cons.png" width="30%" style="display: block; margin: auto;" /> ??? * ***Question:*** Peut-on rejeter l'hypothèse nulle au niveau de 5% ? * ***Réponse:*** * Puisque la *p-value* est égale à 0, cela signifie que nous rejetterions `\(H_0\)` à n'importe quel niveau de significativité : la p-value serait toujours inférieure à `\(\alpha\)`. * En d'autres termes, nous pouvons dire que `\(b_\textrm{small}\)` est **statiquement différent de 0** à n'importe quel niveau de significativité. * Nous pouvons également dire que `\(b_\textrm{small}\)` est *statistiquement significatif* (à n'importe quel niveau de significativité). --- layout: false class: title-slide-section-grey, middle # Plan du cours ## [Rappels] Intervalles de confiance & tests d'hypothèse ## Inférence statistique dans le cadre de la régression <h2 style="color: #154E55 ;">Tests d'hypothèses en régression multivariée</h2> --- # Tests d'hypothèses pour un paramètre (1) `$$y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_k x_k + \varepsilon$$` - Tester si une variable explicative a un effet significatif sur `\(y\)`, conditionnellement aux autres variables explicatives - `\(H_0 : \beta_j = 0\)` - `\(H_1 : \beta_j \neq 0\)` - Statistique de test ( `\(t-\)`statistique) : `$$t_{\hat\beta_j} = \frac{\hat \beta_j}{\widehat{SE}(\hat \beta_j)}$$` ??? On teste une hypothèse à propos des paramètres dans la population et non à propos d'un échantillon particulier. Dès lors, on ne doit pas écrire `\(H_0 : \hat\beta_j = 0\)` --- # Tests d'hypothèses pour un paramètre (2) - Sous `\(H_0\)`, `\(t_{\hat\beta_j} \sim t_{n-k-1}\)` où `\(t_{n-k-1}\)` est la loi de Student à `\(n-k-1\)` degrés de liberté - *Hypothèse alternative* : `\(\beta_j \neq 0\)` (**test bilatéral**) - Règle de décision : rejeter `\(H_0\)` au seuil `\(\alpha\)` si `\(|t_{\hat\beta_j}| > t_{n-k-1,\alpha/2}\)` - *Hypothèse alternative* : `\(\beta_j > 0\)` (**test unilatéral**) - Règle de décision : rejeter `\(H_0\)` au seuil `\(\alpha\)` si `\(|t_{\hat\beta_j}| > t_{n-k-1,\alpha}\)` - **p-value** : probabilité d'observer une valeur de `\(t_{\hat\beta_j}\)` aussi extrême que celle observée, sous `\(H_0\)` - Règle de décision : rejeter `\(H_0\)` si `\(p-value < \alpha\)` --- # Tests d'hypothèses pour un paramètre (3) On peut aussi préciser d'autres hypothèses : - `\(H_0 : \beta_j = c\)` - La statistique de test devient: `$$t_{\hat\beta_j} = \frac{\hat \beta_j - c}{\widehat{SE}(\hat \beta_j)}$$` - De manière générale, on écrire la `\(t-\)`statistique ainsi : $$ t=\frac{\text{Paramètre estimé} - \text{valeur hypothétique}}{\text{Erreur standard}}$$ --- # Tests d'hypothèses : combinaison linéaire de paramètres (1) ***Question*** : est-ce que le rendement de l'éducation (en termes de salaire) est plus élevé pour les personnes ayant fait des études universitaires que pour celles ayant fait une haute école ? `$$\log(wage) = \beta_0 + \beta_1 \text{hc} + \beta_2 \text{univ} + \beta_3 \text{experience}+ \varepsilon$$` où - `\(\text{hc}\)` = nombre d'année dans une Haute école - `\(\text{univ}\)` = nombre d'année dans à l'université - `\(\text{experience}\)`= nombre d'année dans à l'université On teste `$$H_0 : \beta_1 = \beta_2$$` Contre `$$H_1 : \beta_1 < \beta_2$$` --- # Tests d'hypothèses : combinaison linéaire de paramètres (2) `$$H_0 : \beta_1 = \beta_2$$` La statistique de test est `$$t = \frac{\hat \beta_1 - \hat \beta_2}{SE(\hat \beta_1 - \hat \beta_2)}$$` - La seule difficulté vient du calcul de l'erreur standard de `\(\hat \beta_1 - \hat \beta_2\)` : `$$se(\hat \beta_1 - \hat \beta_2) = \sqrt{se(\hat \beta_1)^2 + se(\hat \beta_2)^2 - 2 \times \text{cov}(\hat \beta_1, \hat \beta_2)}$$` - `\(\text{cov}(\hat \beta_1, \hat \beta_2)\)` n est pas directement disponible dans la sortie de la régression. --- # Tests d'hypothèses : combinaison linéaire de paramètres (3) ## Méthode alternative - On redéfinit `$$\theta_1=\beta_1-\beta_2$$` - On teste `$$H_0 : \theta_1 = 0 \quad\text{ versus }\quad H_1 : \theta_1 < 0$$` - On estime la régression (remplacement de `\(\beta_1=\theta_1 + \beta_2\)`) : $$$$ $$ \begin{align} \log(wage) &=& &\beta_0 + (\theta_1+\beta_2)& \text{hc} + \beta_2& \text{univ}&+\beta_3 \text{experience}+ \varepsilon \\\\ &=& &\beta_0 + \theta_1& \text{hc} + \beta_2&(\text{jc}+ \text{univ})&+ \beta_3 \text{experience}+ \varepsilon \end{align} $$ - Il suffit d'utiliser la nouvelle variable explicative `\(\text{jc}+ \text{univ}\)` (à la place de `\(\text{univ}\)`) --- # Tests d'hypothèses : combinaison linéaire de paramètres (3) ## Résultat d'estimation $$ \begin{align} \widehat \log(wage) = &1.472& -&0.0102 \text{hc} + & 0.0769& (\text{hc}+ \text{univ}) + &0.0049& \text{experience}\\ (&0.021)& & (0.0069) & (0.023)& &(0.002)& \end{align} $$ Avec `\(n=6,763\)`, `\(R^2=0.222\)` - La statistique de test est `$$t = \frac{-0.0102}{0.0069}= -1.48$$` - La p-value est `\(0.07\)` (à 5%): `$$\text{p-value} = P(t_{6759} < -1.48) = 0.07$$` - On ne peut pas rejeter l'hypothèse nulle à 5% de niveau de signification, mais on pourrait le faire à 10%. --- # Tests d'hypothèses : combinaison linéaire de paramètres (3) ## Conclusion de cette stratégie - On réécrit le modèle pour faire apparaitre la combinaison linéaire de paramètres à tester - Cela fonctionne pour n'importe quelle combinaison linéaire de paramètres - Stratégie restreinte à une seule combinaison linéaire à la fois --- # Tests d'hypothèses en régression multivariée - Jusqu'à présent, nous avons testé des hypothèses sur un seul paramètre - ___"restriction simples"___ - On peut aussi tester des hypothèses sur plusieurs paramètres simultanément - ___"restriction multiples"___ - Par exemple, tester si l'ensemble des variables explicatives a un effet significatif sur `\(y\)` - On ne peut pas utiliser les statistiques de students individuelles `\(\rightarrow\)` On cherche à tester si un **groupe de variables explicatives** a un effet significatif *Exemple d'hypothèse jointes* (ou *multiples*): $$ H_0 : \beta_1 = \beta_2 = 0$$ --- # Tests d'hypothèses en régression multivariée ## Exemple : salaire des joueurs de baseball `$$\log(salary) = \beta_0 + \beta_1 \text{years} + \beta_2 \frac{\text{Games}}{\text{year}} + \beta_3 \text{#Frappes} + \beta_4 \frac{\text{Home run}}{\text{year}} + \beta_5 \frac{\text{Courses}}{\text{year}} + \varepsilon$$` Où - `\(\text{years}\)` = nombre d'années dans la ligue - \#Frappes = nombre de frappes moyennes (*batting average*) sur l'ensemble de la carrière On veut tester l'hypothèse que les statistiques de mesure de **la performances n'ont pas d'effet sur le salaire**, *conditionnellement aux années dans la ligue et au nombre de rencontres dispustées*. Ie `$$H_0 : \beta_3 = 0, \beta_4 = 0, \beta_5 = 0$$` (3 **restrictions d'exclusion** à tester) --- # Tests d'hypothèses en régression multivariée ## Estimation non contrainte <div style="font-size: 0.65em;"> `$$\begin{align} \widehat\log(salary) &= &11.19& + &0.0689& \text{years} + &0.0126& \frac{\text{Games}}{\text{year}} + &0.00098&\text{#Frappes} + &0.0144& \frac{\text{Home run}}{\text{year}} + &0.0108\frac{\text{Courses}}{\text{year}} \\ &= &(0.29)& &(0.0121)& &(0.0026)& &(0.00110)& &(0.0161)& &(0.0072) \\ \end{align}$$` `$$n=353, SCR=183.186, R^2=0.6278$$` </div> - Aucune des 3 variables de performance n'a d'effet statistiquement significatif sur le salaire -- [Idée] **Comment ce modèle s'ajusterait si on n'incluait pas ces variables dans la régression ?** --- # Tests d'hypothèses en régression multivariée ## Estimation contrainte `$$\begin{align} \widehat\log(salary) &= &11.22& + &0.0613& \text{years} + &0.0202& \text{Games}/\text{year} \\ &= &(0.11)& &(0.0125)& &(0.0013)& \end{align}$$` `$$n=353, SCR=198.311, R^2=0.5971$$` - La somme des carrés des résidus est plus élevée dans le modèle contraint, mais cette augmentation est elle statistiquement significative ? - On peut comparer les deux modèles en utilisant le test de Fisher (**F-test**) --- # Tests d'hypothèses en régression multivariée On parle de test d'hypothèse multiples ou de test d'hypothèse jointes: `$$H_0 : \beta_3 = 0, \beta_4 = 0, \beta_5 = 0$$` - On peut tester des hypothèses jointes en régression multivariée en utilisant le test de Fisher `$$F = \frac{(SCR_{\text{contraint}} - SCR_{\text{non contraint}})/q}{SCR_{\text{non contraint}}/(n-k-1)}$$` - Où `\(q\)` est le nombre de restrictions ( `\(3\)` ici) et `\(k\)` est le nombre de variables explicatives dans le modèle non contraint ( `\(6\)` ici) - `\(F\)` correspond çà l'augmentation relative de la SCR quand on passe de `\(H_1\)` à `\(H_0\)` - `\(F\)` suit une **loi de Fisher** à `\(q\)` et `\(n-k-1\)` degrés de liberté ie. `\(F-\)` distribution (si `\(H_0\)` est vraie): $$F \sim F_{q, n-k-1} $$ --- # Tests d'hypothèses en régression multivariée : le F-test ## Règle de rejection .pull-left[ - La distribution de Fischer n'a que des valeurs positives - Explication: la SCR est nécessairement plus petite dans le modèle contraint que dans le modèle non contraint - On choisi la valeur critique pour ne rejeter `\(H_0\)` de manière incorrecte que dans `\(\alpha\)` des cas - On rejette `\(H_0\)` si `\(F > F_{q, n-k-1, \alpha}\)` ] .pull-right[ <img src="img/wooldridge-4-7.png" width="95%" style="display: block; margin: auto;" /> ] --- # Tests d'hypothèses en régression multivariée : le F-test ## Example `$$F = \frac{(198.311 - 183.186)/3}{183.186/(353-5-1)} = 9.55$$` Où `\(353-5-1=347\)` est le nombre de degrés de liberté dans le modèle non contraint - Calcul de la valeur critique pour `\(\alpha=0.01\)` : `$$F\sim F_{3, 347} \rightarrow c_{0.01} =3.78$$` - *Règle de décision* : on rejète `\(H_0\)` au seuil de significativité de 1% si `\(F > 3.78\)` - On peut donc rejeter `\(H_0\)` --- # Tests d'hypothèses en régression multivariée : le F-test ## Conclusion - Exemple: - on rejète l'hypothèse que les variables de performances n'ont pas d'effet sur le salaire - elles ont une significativité jointe même si leur effet individuel n'est pas significatif - Ceci s'explique vraisemblablement par le fait que les variables de performance sont corrélées entre elles - Le F-test : - teste si un groupe de variables explicatives a un effet significatif sur `\(y\)` - teste si le modèle complet est significativement meilleur que le modèle contraint --- # Tests d'hypothèses en régression multivariée : le F-test ## Comme test de siginificativité de la régression `$$y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_k x_k + \varepsilon$$` - L'hypothèse nulle est que toutes les variables explicatives n'ont pas d'effet sur `\(y\)` `$$H_0 : \beta_1 = \beta_2 = \cdots = \beta_k = 0$$` - Modèle restreint : `$$y = \beta_0 + \varepsilon$$` `$$F = \frac{(SCR_{\text{contraint}} - SCR_{\text{non contraint}})/k}{SCR_{\text{non contraint}}/(n-k-1)} = \frac{(R_{\text{non contraint}}^2 - R_{\text{ contraint}}^2)/k}{(1-R_{\text{non contraint}}^2)/(n-k-1)}\sim F_{k, n-k-1}$$` ??? On utilise `\(SCR_c = SCT(1-R_c^2)\)` et `\(SCR_{nc} = SCT(1-R_{nc}^2)\)`. --- # [`STATA`] Formater une table de régression * Maintenant que nous avons appris à connaître tous les composants d'une table de régression, apprenons enfin à en créer une et à la lire ! <img src="../img/content/reg-etable.png" width="60%" style="display: block; margin: auto;" /> --- # Formater une table de régression
Math score
Math Score
Reading score
Reading score
Intercept
484.45 ***
488.85 ***
435.76 ***
439.62 ***
(1.15)
(1.43)
(0.75)
(0.93)
Small class
8.90 ***
8.94 ***
5.37 ***
5.41 ***
(1.68)
(1.67)
(1.09)
(1.09)
Male gender
-8.56 ***
-7.49 ***
(1.67)
(1.09)
N
3359
3359
3359
3359
R2
0.01
0.02
0.01
0.02
*** p < 0.001; ** p < 0.01; * p < 0.05.
--- # Lire une table de régression .center[ <img src="img/figure-html/reg_table.png" width="500px" style="display: block; margin: auto;" /> ] * Chaque colonne correspond à une régression. Pour la 1e régression, on a : * le **nom de la variable dépendante** en <span style="color: #2F528F;">bleu</span> * le **coefficient estimé associé au fait d'être dans une petite classe** `\(\hat{\beta}_\textrm{small}\)` en <span style="color: #70AD47;">vert</span> * l'**erreur standard estimée** en <span style="color: #FFC000;">jaune</span> * le **nombre d'observations** en <span style="color: #7030A0;">violet</span> * le **R carré** en <span style="color: #C00000;">rouge</span> * interpretation des étoiles en bas --- # Où en sommes nous de notre quête de la causalité ✅ Comment gérer les données? Lisez-les, ordonnez-les, visualisez-les... ✅ Comment résumer une relation entre plusieurs variables? Régression linéaire univariée... ✅ Qu'est ce que la causalité ? ✅ Comment faire si nous n'observons qu'une partie de la population ? Échantillonage ! 🚧 **Nos résultats sont ils uniquement dus au hasard?** Intervalle de confiance, test d'hypothèse et inférence ❌ Comment trouver de l'exogénéité en pratique ? --- class: title-slide-final, middle background-size: 250px background-position: 9% 19% # À LA SEMAINE PROCHAINE ! <a href="mailto:mguillot@uliege.be"> mguillot@uliege.be</a> # MERCI À <a href="mailto:florian.oswald@sciencespo.fr"> Florian Oswald</a> et à toute l'équipe de ScPoEconometrics pour le [livre](https://scpoecon.github.io/ScPoEconometrics) et leurs [ressources](https://github.com/ScPoEcon/ScPoEconometrics-Slides)