[WIP] Ajour correction pour l'examen de décembre 2023.

Stéphane Adjemian (Argos) 2024-01-02 09:37:16 +01:00
parent 5c76340172
commit aad3b6b1d6
Signed by: stepan
GPG Key ID: 295C1FE89E17EB3C
2 changed files with 224 additions and 1 deletions

View File

@ -1,12 +1,17 @@
LATEX = pdflatex
all: partiel-2023.pdf clean
all: partiel-2023.pdf correction-2023.pdf clean
partiel-2023.pdf: partiel-2023.tex
while ($(LATEX) partiel-2023.tex ; \
grep -q "Rerun to get cross" partiel-2023.log ) do true ; \
done
correction-2023.pdf: correction-2023.tex
while ($(LATEX) correction-2023.tex ; \
grep -q "Rerun to get cross" correction-2023.log ) do true ; \
done
clean:
rm -rf *.aux
rm -rf *.out

218
examens/correction-2023.tex Normal file
View File

@ -0,0 +1,218 @@
\documentclass[12pt,a4paper,notitlepage,twocolumn]{article}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{amsbsy}
\usepackage{float}
\usepackage[french]{babel}
\usepackage{palatino}
\usepackage[active]{srcltx}
\usepackage{scrtime}
\newcounter{qnumber}
\setcounter{qnumber}{0}
\newcounter{enumber}
\setcounter{enumber}{0}
\newcommand{\question}{\textbf{(\addtocounter{qnumber}{1}\theqnumber)}\,}
\newcommand{\exercice}{\textbf{\addtocounter{enumber}{1}\textsc{Exercice} \theenumber}.\,}
\setlength{\parindent}{0cm}
\begin{document}
\title{\textsc{Économétrie Approfondie}}
\date{Mercredi 13 décembre 2023}
\maketitle
\thispagestyle{empty}
\begin{quote}
\textit{Les réponses non commentées ou insuffisamment détaillées ne seront pas
considérées. Prenez le temps de faire des phrase.}
\end{quote}
\bigskip
\exercice On suppose que les données sont générées par le modèle suivant~:
\[
y_i = x_{1,i}\beta_1 + \ldots x_{K,i}\beta_K + \varepsilon_i
\]
$x_{k,i}$, pour $k=1,\ldots,K$ sont des variables explicatives
déterministes, $\beta_k$, pour $k=1,\ldots,K$, sont des paramètres
réels, $\varepsilon_i$ une variable aléatoire centrée de
variance $\sigma_{\varepsilon}^2$. \question On obtient la représentation matricielle de ce modèle en concatément (verticalement) les observations. On pose~: $Y = \left( y_1, y_2, \dots, y_N \right)'$, $\varepsilon = \left( \varepsilon_1, \varepsilon_2, \dots, \varepsilon_N \right)'$, $\beta = \left( \beta_1, \beta_2, \dots, \beta_K \right)$ et
\[
X =
\begin{pmatrix}
x_{1,1} & x_{2,1} & \ldots & x_{K,1}\\
x_{1,2} & x_{2,2} & \ldots & x_{K,2}\\
\vdots & \vdots & & \vdots \\
x_{1,N} & x_{2,N} & \ldots & x_{K,N}\\
\end{pmatrix}
\]
On peut alors réécrire le modèle sous la forme~:
\[
Y = X\beta + \varepsilon
\]
\question L'estimateur des MCO est le vecteur $\hat\beta$ qui minimise la somme des carrés des résidus :
\begin{equation*}
\begin{split}
\hat\beta &= \arg\min_{\{\beta\}} (Y-X\beta)'(Y-X\beta) \\
&= \arg\min_{\{\beta\}} Y'Y - \beta'X'Y - Y'X\beta + \beta'X'X\beta \\
&= \arg\min_{\{\beta\}} \beta'X'X\beta -2\beta'X'Y
\end{split}
\end{equation*}
La condition nécessaire d'optimalité est~:
\[
2X'X\hat\beta - 2X'Y = 0
\]
\[
\Leftrightarrow \hat\beta = \left( X'X \right)^{-1}X'Y
\]
en supposant que la matrice $X'X$ est inversible (c'est le cas si,
comme nous le supposons habituellement, $X$ est une matrice de
rang $K$). \question $\hat\beta$ est un estimateur sans biais
de $\beta$. Pour le montrer substituons le DGP dans l'expression de
l'estimateur :
\[
\begin{split}
\hat \beta &= \left( X'X \right)^{-1}X'\left( X\beta + \varepsilon \right)\\
&= \left( X'X \right)^{-1}X'X\beta +\left( X'X \right)^{-1}X'\varepsilon\\
&= \beta + \left( X'X \right)^{-1}X'\varepsilon
\end{split}
\]
En supposant que les variables exogènes sont déterministes (sinon il
faut recourrir au théorème des espérances itérées), on a donc :
\[
\begin{split}
\mathbb E\left[\hat\beta\right] &= \beta + \mathbb E\left[\left( X'X \right)^{-1}X'\varepsilon\right]\\
&= \beta + \left( X'X \right)^{-1}X'\mathbb E\left[\varepsilon\right]\\
&= \beta
\end{split}
\]
\question La variance de $\hat \beta$ est définie
par
$\mathbb V\left[\hat\beta\right] = \mathbb E\left[\left( \hat\beta-\mathbb E\left[ \hat\beta \right] \right)^2\right]$. En
substituant l'expression de $\hat\beta$ en fonction de $\beta$ (qui
est aussi l'espérance de $\hat\beta$), il vient (en supposant
que $\mathbb E\left[\varepsilon_i\varepsilon_j\right]=0$ pour
tout $i\neq j$)~:
\[
\begin{split}
\mathbb V\left[\hat\beta \right] &= \mathbb V\left[\left( X'X \right)^{-1}X'\varepsilon\right]\\
&= \left( X'X \right)^{-1}X'\mathbb V\left[\varepsilon\right] X\left( X'X \right)^{-1} \\
&= \left( X'X \right)^{-1}X'\sigma_{\varepsilon}^2 I_N X\left( X'X \right)^{-1} \\
&= \sigma^2_{\varepsilon}\left( X'X \right)^{-1}X'X\left( X'X \right)^{-1}\\
&= \sigma^2_{\varepsilon}\left( X'X \right)^{-1}
\end{split}
\]
Si la variance du vecteur $\varepsilon$ est différente
de $\sigma_{\varepsilon}^2I_N$ (autocorrélation ou hétéroscédasticité)
les matrices $X'X$ ne se simplifient plus et on obtient~:
\[
\mathbb V\left[\hat\beta \right] = \left( X'X \right)^{-1}X'\Sigma X\left( X'X \right)^{-1}
\]
$\Sigma$ est la matrice de variance covariance
de $\varepsilon$. \question L'estimateur des MCO est une variable
aléatoire, \emph{i.e.} a une variance, car $\hat\beta$ est une
fonction linéaire du vecteur aléatoire $\varepsilon$.
\setcounter{qnumber}{0}
\bigskip
\exercice On considère le modèle suivant~:
\[
y_i = \mu + \varepsilon_i
\]
pour $i=1,\ldots,N$ avec $\mu$ un paramètre réel et $\varepsilon_i$ une variable aléatoire réelle
d'espérance nulle et de variance $\sigma_{i}^2$ avec $\mathbb E\left[ \varepsilon_i\varepsilon_j \right]=0$ si $i\neq j$. On suppose que
$\lim_{N\rightarrow\infty}N^{-1}\sum_{i=1}^N \sigma_i^2 = \bar
\sigma^2<\infty$. Le modèle empirique est~:
\[
y_i = a + u_i
\]
\question On montre facilement que l'estimateur des MCO de $a$ est la moyenne des $y_i$. Le modèle peut s'écrire sous forme matricielle~:
\[
Y = X a + U
\]
avec $Y = \left( y_1,y_2,\dots,y_N \right)'$, $U = \left( u_1, u_2, \dots, u_N \right)'$ et $X = (1, 1, \dots, 1)'$ un vecteur $N\times 1$. K'estimateur des MCO est~:
\[
\begin{split}
\hat a_{\textsc{mco}} &= (X'X)^{-1}X'Y\\
&= N^{-1}\sum_{i=1}^Ny_i = \bar y
\end{split}
\]
\question L'espérance $\hat a_{\textsc{mco}}$, en substituant le processus générateur des données, est~:
\[
\begin{split}
\mathbb E \left[\hat a_{\textsc{mco}}\right] &= N^{-1}\sum_{i=1}^N\mathbb E[\mu + \varepsilon_i]\\
&= N^{-1}N\mu + 0 = \mu
\end{split}
\]
$\hat a_{\textsc{mco}}$ est donc un estimateur sans biais de $\mu$. \question On suit la même démarche pour le calcul de la variance de $\hat a_{\textsc{mco}}$\footnote{En retenant de la question 2 que $\hat a_{\textsc{mco}}=\mu+N^{-1}\sum_{i=1}^N$ et donc que $\hat a_{\textsc{mco}}-\mathbb E\left[ \hat a_{\textsc{mco}} \right]=N^{-1}\sum_{i=1}^N\varepsilon_i$.}. On a~:
\[
\begin{split}
\mathbb V\left[\hat a_{\textsc{mco}} \right] &= N^{-2}\mathbb E\left[\sum_{i=1}^N\sum_{j=1}^N\varepsilon_i\varepsilon_j \right]\\
&= N^{-2}\sum_{i=1}^N\sum_{j=1}^N\mathbb E\left[\varepsilon_i\varepsilon_j \right]\\
\end{split}
\]
comme les $\varepsilon_i$ sont non corrélés, il vient :
\[
\begin{split}
\mathbb V\left[ \hat a_{\textsc{mco}} \right] &= N^{-2}\sum_{i=1}^N\sigma_i^2\\
&= \frac{\bar \sigma^2}{N}
\end{split}
\]
\question La variance de $\hat a_{\textsc{mco}}$ tend vers 0 quand $N$ tend vers l'infini, l'estimateur tend donc, par la loi des frands nombres, en probabilité vers son espérance~:
\[
\hat a_{\textsc{mco}}\underset{N\rightarrow\infty}{\overset{\textrm{proba}}{\longrightarrow}}\mu
\]
\question Cet estimateur sans biais n'est pas efficace car la variance des résidus est spécifique à chaque observation (problème d'hétéroscédasticité). \question Définir et donner l'expression de l'estimateur des MCG de $a$. Cet estimateur est-il un estimateur sans biais de $\mu$~? \question Calculer la variance de $\hat a_{\textsc{mcg}}$. \question Comparer les variances de $\hat a_{\textsc{mco}}$ et $\hat a_{\textsc{mcg}}$. Conclure.\newline
\textbf{\textsc{Rappel}} \textit{Soient $\alpha_1, \ldots,\alpha_n$ des nombres réels positifs, alors la moyenne arithmétique des $\alpha_i$ est plus grande que la moyenne harmonique des $\alpha_i$:
\[
\frac{\alpha_1+\ldots+\alpha_n}{n} > \frac{n}{\frac{1}{\alpha_1}+\ldots+\frac{1}{\alpha_n}}
\]}
\setcounter{qnumber}{0}
\bigskip
\exercice Soit le modèle~:
\[
y_t = \beta x_t + \varepsilon_t
\]
avec $\beta$ un paramètre réel et
\[
\varepsilon_t = \varphi_1 \varepsilon_{t-1} + \varphi_2\varepsilon_{t-2} + \nu_t
\]
$\nu_t$ est une variable aléatoire centrée de variance $\sigma_\nu^2$ et les
paramètres réels $\varphi_1$, $\varphi_2$ sont tels que les moments d'ordre 2
(la variance et la fonction d'autocorrélation) de $\varepsilon_t$ sont bien
définis. On peut montrer, cela fera l'objet d'un cours au second semestre que la
fonction d'autocorrélation de $\varepsilon$, $\rho(k)$, est non nulle est tend
vers zero quand $k$ tend vers l'infini (la corrélation entre $\varepsilon_t$ et
$\varepsilon_{t-k}$ se rapproche de zéro quand $k$ devient assez grand). On suppose que
les valeurs de $\varphi_1$ et $\varphi_2$ sont connues. \question L'estimateur
des MCO pour $\beta$ est-il un estimateur efficace~? Pourquoi~? \question
Proposer une transformation des données, c'est-à-dire des variables $\tilde y_t$
et $\tilde x_t$, telle que l'estimation de~:
\[
\tilde y_t = b \tilde x_t + \eta_t
\]
par les MCO délivre un estimateur sans biais et efficace de $\beta$. \question
De quel estimateur s'agit-il~? \question Que faire si les paramètres $\varphi_1$
et $\varphi_2$ ne sont pas connus~?
\end{document}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: t
%%% End: