[WIP] Ajour correction pour l'examen de décembre 2023.
parent
5c76340172
commit
aad3b6b1d6
|
@ -1,12 +1,17 @@
|
|||
LATEX = pdflatex
|
||||
|
||||
all: partiel-2023.pdf clean
|
||||
all: partiel-2023.pdf correction-2023.pdf clean
|
||||
|
||||
partiel-2023.pdf: partiel-2023.tex
|
||||
while ($(LATEX) partiel-2023.tex ; \
|
||||
grep -q "Rerun to get cross" partiel-2023.log ) do true ; \
|
||||
done
|
||||
|
||||
correction-2023.pdf: correction-2023.tex
|
||||
while ($(LATEX) correction-2023.tex ; \
|
||||
grep -q "Rerun to get cross" correction-2023.log ) do true ; \
|
||||
done
|
||||
|
||||
clean:
|
||||
rm -rf *.aux
|
||||
rm -rf *.out
|
||||
|
|
|
@ -0,0 +1,218 @@
|
|||
\documentclass[12pt,a4paper,notitlepage,twocolumn]{article}
|
||||
\usepackage{amsmath}
|
||||
\usepackage{amssymb}
|
||||
\usepackage{amsbsy}
|
||||
\usepackage{float}
|
||||
\usepackage[french]{babel}
|
||||
|
||||
\usepackage{palatino}
|
||||
|
||||
\usepackage[active]{srcltx}
|
||||
\usepackage{scrtime}
|
||||
|
||||
\newcounter{qnumber}
|
||||
\setcounter{qnumber}{0}
|
||||
|
||||
\newcounter{enumber}
|
||||
\setcounter{enumber}{0}
|
||||
|
||||
\newcommand{\question}{\textbf{(\addtocounter{qnumber}{1}\theqnumber)}\,}
|
||||
\newcommand{\exercice}{\textbf{\addtocounter{enumber}{1}\textsc{Exercice} \theenumber}.\,}
|
||||
\setlength{\parindent}{0cm}
|
||||
|
||||
|
||||
\begin{document}
|
||||
|
||||
\title{\textsc{Économétrie Approfondie}}
|
||||
\date{Mercredi 13 décembre 2023}
|
||||
|
||||
\maketitle
|
||||
|
||||
\thispagestyle{empty}
|
||||
|
||||
\begin{quote}
|
||||
\textit{Les réponses non commentées ou insuffisamment détaillées ne seront pas
|
||||
considérées. Prenez le temps de faire des phrase.}
|
||||
\end{quote}
|
||||
|
||||
\bigskip
|
||||
|
||||
\exercice On suppose que les données sont générées par le modèle suivant~:
|
||||
\[
|
||||
y_i = x_{1,i}\beta_1 + \ldots x_{K,i}\beta_K + \varepsilon_i
|
||||
\]
|
||||
où $x_{k,i}$, pour $k=1,\ldots,K$ sont des variables explicatives
|
||||
déterministes, $\beta_k$, pour $k=1,\ldots,K$, sont des paramètres
|
||||
réels, $\varepsilon_i$ une variable aléatoire centrée de
|
||||
variance $\sigma_{\varepsilon}^2$. \question On obtient la représentation matricielle de ce modèle en concatément (verticalement) les observations. On pose~: $Y = \left( y_1, y_2, \dots, y_N \right)'$, $\varepsilon = \left( \varepsilon_1, \varepsilon_2, \dots, \varepsilon_N \right)'$, $\beta = \left( \beta_1, \beta_2, \dots, \beta_K \right)$ et
|
||||
\[
|
||||
X =
|
||||
\begin{pmatrix}
|
||||
x_{1,1} & x_{2,1} & \ldots & x_{K,1}\\
|
||||
x_{1,2} & x_{2,2} & \ldots & x_{K,2}\\
|
||||
\vdots & \vdots & & \vdots \\
|
||||
x_{1,N} & x_{2,N} & \ldots & x_{K,N}\\
|
||||
\end{pmatrix}
|
||||
\]
|
||||
|
||||
On peut alors réécrire le modèle sous la forme~:
|
||||
\[
|
||||
Y = X\beta + \varepsilon
|
||||
\]
|
||||
\question L'estimateur des MCO est le vecteur $\hat\beta$ qui minimise la somme des carrés des résidus :
|
||||
\begin{equation*}
|
||||
\begin{split}
|
||||
\hat\beta &= \arg\min_{\{\beta\}} (Y-X\beta)'(Y-X\beta) \\
|
||||
&= \arg\min_{\{\beta\}} Y'Y - \beta'X'Y - Y'X\beta + \beta'X'X\beta \\
|
||||
&= \arg\min_{\{\beta\}} \beta'X'X\beta -2\beta'X'Y
|
||||
\end{split}
|
||||
\end{equation*}
|
||||
|
||||
La condition nécessaire d'optimalité est~:
|
||||
\[
|
||||
2X'X\hat\beta - 2X'Y = 0
|
||||
\]
|
||||
\[
|
||||
\Leftrightarrow \hat\beta = \left( X'X \right)^{-1}X'Y
|
||||
\]
|
||||
en supposant que la matrice $X'X$ est inversible (c'est le cas si,
|
||||
comme nous le supposons habituellement, $X$ est une matrice de
|
||||
rang $K$). \question $\hat\beta$ est un estimateur sans biais
|
||||
de $\beta$. Pour le montrer substituons le DGP dans l'expression de
|
||||
l'estimateur :
|
||||
\[
|
||||
\begin{split}
|
||||
\hat \beta &= \left( X'X \right)^{-1}X'\left( X\beta + \varepsilon \right)\\
|
||||
&= \left( X'X \right)^{-1}X'X\beta +\left( X'X \right)^{-1}X'\varepsilon\\
|
||||
&= \beta + \left( X'X \right)^{-1}X'\varepsilon
|
||||
\end{split}
|
||||
\]
|
||||
En supposant que les variables exogènes sont déterministes (sinon il
|
||||
faut recourrir au théorème des espérances itérées), on a donc :
|
||||
\[
|
||||
\begin{split}
|
||||
\mathbb E\left[\hat\beta\right] &= \beta + \mathbb E\left[\left( X'X \right)^{-1}X'\varepsilon\right]\\
|
||||
&= \beta + \left( X'X \right)^{-1}X'\mathbb E\left[\varepsilon\right]\\
|
||||
&= \beta
|
||||
\end{split}
|
||||
\]
|
||||
|
||||
\question La variance de $\hat \beta$ est définie
|
||||
par
|
||||
$\mathbb V\left[\hat\beta\right] = \mathbb E\left[\left( \hat\beta-\mathbb E\left[ \hat\beta \right] \right)^2\right]$. En
|
||||
substituant l'expression de $\hat\beta$ en fonction de $\beta$ (qui
|
||||
est aussi l'espérance de $\hat\beta$), il vient (en supposant
|
||||
que $\mathbb E\left[\varepsilon_i\varepsilon_j\right]=0$ pour
|
||||
tout $i\neq j$)~:
|
||||
\[
|
||||
\begin{split}
|
||||
\mathbb V\left[\hat\beta \right] &= \mathbb V\left[\left( X'X \right)^{-1}X'\varepsilon\right]\\
|
||||
&= \left( X'X \right)^{-1}X'\mathbb V\left[\varepsilon\right] X\left( X'X \right)^{-1} \\
|
||||
&= \left( X'X \right)^{-1}X'\sigma_{\varepsilon}^2 I_N X\left( X'X \right)^{-1} \\
|
||||
&= \sigma^2_{\varepsilon}\left( X'X \right)^{-1}X'X\left( X'X \right)^{-1}\\
|
||||
&= \sigma^2_{\varepsilon}\left( X'X \right)^{-1}
|
||||
\end{split}
|
||||
\]
|
||||
Si la variance du vecteur $\varepsilon$ est différente
|
||||
de $\sigma_{\varepsilon}^2I_N$ (autocorrélation ou hétéroscédasticité)
|
||||
les matrices $X'X$ ne se simplifient plus et on obtient~:
|
||||
\[
|
||||
\mathbb V\left[\hat\beta \right] = \left( X'X \right)^{-1}X'\Sigma X\left( X'X \right)^{-1}
|
||||
\]
|
||||
où $\Sigma$ est la matrice de variance covariance
|
||||
de $\varepsilon$. \question L'estimateur des MCO est une variable
|
||||
aléatoire, \emph{i.e.} a une variance, car $\hat\beta$ est une
|
||||
fonction linéaire du vecteur aléatoire $\varepsilon$.
|
||||
|
||||
\setcounter{qnumber}{0}
|
||||
\bigskip
|
||||
|
||||
\exercice On considère le modèle suivant~:
|
||||
\[
|
||||
y_i = \mu + \varepsilon_i
|
||||
\]
|
||||
pour $i=1,\ldots,N$ avec $\mu$ un paramètre réel et $\varepsilon_i$ une variable aléatoire réelle
|
||||
d'espérance nulle et de variance $\sigma_{i}^2$ avec $\mathbb E\left[ \varepsilon_i\varepsilon_j \right]=0$ si $i\neq j$. On suppose que
|
||||
$\lim_{N\rightarrow\infty}N^{-1}\sum_{i=1}^N \sigma_i^2 = \bar
|
||||
\sigma^2<\infty$. Le modèle empirique est~:
|
||||
\[
|
||||
y_i = a + u_i
|
||||
\]
|
||||
\question On montre facilement que l'estimateur des MCO de $a$ est la moyenne des $y_i$. Le modèle peut s'écrire sous forme matricielle~:
|
||||
\[
|
||||
Y = X a + U
|
||||
\]
|
||||
avec $Y = \left( y_1,y_2,\dots,y_N \right)'$, $U = \left( u_1, u_2, \dots, u_N \right)'$ et $X = (1, 1, \dots, 1)'$ un vecteur $N\times 1$. K'estimateur des MCO est~:
|
||||
\[
|
||||
\begin{split}
|
||||
\hat a_{\textsc{mco}} &= (X'X)^{-1}X'Y\\
|
||||
&= N^{-1}\sum_{i=1}^Ny_i = \bar y
|
||||
\end{split}
|
||||
\]
|
||||
\question L'espérance $\hat a_{\textsc{mco}}$, en substituant le processus générateur des données, est~:
|
||||
\[
|
||||
\begin{split}
|
||||
\mathbb E \left[\hat a_{\textsc{mco}}\right] &= N^{-1}\sum_{i=1}^N\mathbb E[\mu + \varepsilon_i]\\
|
||||
&= N^{-1}N\mu + 0 = \mu
|
||||
\end{split}
|
||||
\]
|
||||
$\hat a_{\textsc{mco}}$ est donc un estimateur sans biais de $\mu$. \question On suit la même démarche pour le calcul de la variance de $\hat a_{\textsc{mco}}$\footnote{En retenant de la question 2 que $\hat a_{\textsc{mco}}=\mu+N^{-1}\sum_{i=1}^N$ et donc que $\hat a_{\textsc{mco}}-\mathbb E\left[ \hat a_{\textsc{mco}} \right]=N^{-1}\sum_{i=1}^N\varepsilon_i$.}. On a~:
|
||||
\[
|
||||
\begin{split}
|
||||
\mathbb V\left[\hat a_{\textsc{mco}} \right] &= N^{-2}\mathbb E\left[\sum_{i=1}^N\sum_{j=1}^N\varepsilon_i\varepsilon_j \right]\\
|
||||
&= N^{-2}\sum_{i=1}^N\sum_{j=1}^N\mathbb E\left[\varepsilon_i\varepsilon_j \right]\\
|
||||
\end{split}
|
||||
\]
|
||||
comme les $\varepsilon_i$ sont non corrélés, il vient :
|
||||
\[
|
||||
\begin{split}
|
||||
\mathbb V\left[ \hat a_{\textsc{mco}} \right] &= N^{-2}\sum_{i=1}^N\sigma_i^2\\
|
||||
&= \frac{\bar \sigma^2}{N}
|
||||
\end{split}
|
||||
\]
|
||||
\question La variance de $\hat a_{\textsc{mco}}$ tend vers 0 quand $N$ tend vers l'infini, l'estimateur tend donc, par la loi des frands nombres, en probabilité vers son espérance~:
|
||||
\[
|
||||
\hat a_{\textsc{mco}}\underset{N\rightarrow\infty}{\overset{\textrm{proba}}{\longrightarrow}}\mu
|
||||
\]
|
||||
\question Cet estimateur sans biais n'est pas efficace car la variance des résidus est spécifique à chaque observation (problème d'hétéroscédasticité). \question Définir et donner l'expression de l'estimateur des MCG de $a$. Cet estimateur est-il un estimateur sans biais de $\mu$~? \question Calculer la variance de $\hat a_{\textsc{mcg}}$. \question Comparer les variances de $\hat a_{\textsc{mco}}$ et $\hat a_{\textsc{mcg}}$. Conclure.\newline
|
||||
|
||||
\textbf{\textsc{Rappel}} \textit{Soient $\alpha_1, \ldots,\alpha_n$ des nombres réels positifs, alors la moyenne arithmétique des $\alpha_i$ est plus grande que la moyenne harmonique des $\alpha_i$:
|
||||
\[
|
||||
\frac{\alpha_1+\ldots+\alpha_n}{n} > \frac{n}{\frac{1}{\alpha_1}+\ldots+\frac{1}{\alpha_n}}
|
||||
\]}
|
||||
|
||||
\setcounter{qnumber}{0}
|
||||
\bigskip
|
||||
|
||||
\exercice Soit le modèle~:
|
||||
\[
|
||||
y_t = \beta x_t + \varepsilon_t
|
||||
\]
|
||||
avec $\beta$ un paramètre réel et
|
||||
\[
|
||||
\varepsilon_t = \varphi_1 \varepsilon_{t-1} + \varphi_2\varepsilon_{t-2} + \nu_t
|
||||
\]
|
||||
où $\nu_t$ est une variable aléatoire centrée de variance $\sigma_\nu^2$ et les
|
||||
paramètres réels $\varphi_1$, $\varphi_2$ sont tels que les moments d'ordre 2
|
||||
(la variance et la fonction d'autocorrélation) de $\varepsilon_t$ sont bien
|
||||
définis. On peut montrer, cela fera l'objet d'un cours au second semestre que la
|
||||
fonction d'autocorrélation de $\varepsilon$, $\rho(k)$, est non nulle est tend
|
||||
vers zero quand $k$ tend vers l'infini (la corrélation entre $\varepsilon_t$ et
|
||||
$\varepsilon_{t-k}$ se rapproche de zéro quand $k$ devient assez grand). On suppose que
|
||||
les valeurs de $\varphi_1$ et $\varphi_2$ sont connues. \question L'estimateur
|
||||
des MCO pour $\beta$ est-il un estimateur efficace~? Pourquoi~? \question
|
||||
Proposer une transformation des données, c'est-à-dire des variables $\tilde y_t$
|
||||
et $\tilde x_t$, telle que l'estimation de~:
|
||||
\[
|
||||
\tilde y_t = b \tilde x_t + \eta_t
|
||||
\]
|
||||
par les MCO délivre un estimateur sans biais et efficace de $\beta$. \question
|
||||
De quel estimateur s'agit-il~? \question Que faire si les paramètres $\varphi_1$
|
||||
et $\varphi_2$ ne sont pas connus~?
|
||||
|
||||
\end{document}
|
||||
|
||||
%%% Local Variables:
|
||||
%%% mode: latex
|
||||
%%% TeX-master: t
|
||||
%%% End:
|
Loading…
Reference in New Issue