Normalité asymptotique locale

La normalité asymptotique locale, souvent abrégé en NAL ou LAN (de l'Anglais Local Asymptotic Normality) est une propriété de certains modèles statistiques. Informellement, un modèle statistique localement asymptotiquement normal a un rapport de vraisemblance dont la distribution peut être approximée par une loi normale sous certaines conditions, cette approximation découlant typiquement d'un développement limité d'ordre deux de la log-vraisemblance. Cette notion a été introduite par le mathématicien Lucien Le Cam, elle est exposée dans un article[1] publié en 1960 coécrit avec Grace Lo Yang.

Définition informelle[modifier | modifier le code]

Considérons un modèle statistique générant données, dénotées par un vecteur de taille , et dépendant d'un paramètre . Notons la fonction de log-vraisemblance de ce modèle. Considérons deux valeurs du paramètre : et . Supposons que les données soient générées par ce modèle avec comme valeur de paramètre, et définissons la variables aléatoire , correspondant à la différence des log-vraisemblances évaluées en et en .

Si le modèle considéré est asymptotiquement localement normal en , alors la loi de la variable aléatoire peut être approximée par une loi normale. Cette approximation est valable pour grand (d'où le asymptotiquement) et pour tout proche de (d'où le localement).

La condition grand est rendue rigoureuse en utilisant la notion de convergence en loi. La condition et proche de est quant à elle traduite par le fait que et est de la forme avec une suite de constantes tendant vers 0 (par exemple dans le cas de données indépendantes et identiquement distribuées), de sorte que plus est grand, plus est proche de .

La variable aléatoire est la statistique utilisée pour faire un test du rapport de vraisemblance. Elle souvent abusivement appelée rapport de vraisemblance même s'il s'agit en réalité du logarithme du rapport de vraisemblance.

Cas de données indépendantes et identiquement distribuées[modifier | modifier le code]

Définition de la normalité asymptotique locale[modifier | modifier le code]

Soit variables aléatoires indépendantes et identiquement distribuées (iid) selon une distribution , dépendant d'un paramètre . Notons sa fonction de vraisemblance . La log-vraisemblance de l'échantillon aléatoire s'écrit comme la somme des log-vraisemblances de chaque observation, , car les données sont iid.

Appelons le modèle statistique générant ces variables aléatoires. est localement asymptotiquement normal si lorsque est distribué selon ,

, ,

désigne la converge en loi et désigne une loi normale d'espérance et de variance . La matrice est l'information de Fisher du modèle, définie comme .

Distribution, pour différentes tailles d'échantillon , du log-rapport de vraisemblance évalué en et , lorsque les données sont générées par loi exponentielle d'intensité . Le log-rapport de vraisemblanceconverge en loi vers une loi normale (en pointillés) car la loi exponentielle est localement asymptotiquement normale.

Établissement non rigoureux de la normalité asymptotique locale[modifier | modifier le code]

Donnons ici l'intuition, informelle, de la normalité asymptotique locale dans le cas de données iid. Plaçons nous dans le cas (c'est-à-dire univarié) et effectuons un développement de Taylor de la log-vraisemblance en

De sorte que

Comme sont iid, le premier terme de cette différence , est une somme de variables aléatoires iid, , divisée par . Ces variables ont pour espérance (d'après la première identité de Bartlett) et pour variance (d'après la seconde identité de Bartlett), où comme précédemment, désigne l'information de Fisher. Le théorème central limite implique alors que converge en distribution vers une loi normale d'espérance nulle et de variance :

.

Comme sont iid, second terme du développement de Taylor, , est aussi une somme de variables aléatoires iid, divisée par . Ces variables aléatoires ont pour espérance . La loi des grands nombres implique donc que ce terme converge en probabilité vers :

On a donc asymptotiquement est une variable aléatoire normale d'espérance nulle et de variance , ce qui implique que, asymptotiquement, suit approximativement une loi normale d'espérance et de variance .

Si le développement précédent avait été fait plus rigoureusement et qu'une convergence en loi avait été établie au lieu du "suit approximativement" de la phrase précédente, cela correspondrait à la définition de la normalité asymptotique locale.

Ce développement, fait sans rigueur dans le but de donner une intuition de la normalité asymptotique locale, peut être rendu rigoureux si le modèle satisfait certaines conditions. Il faut en particulier, pour que les formules écrites ci-dessus aient du sens, que sa log-vraisemblance soit deux fois dérivable, et que ces dérivées aient des moments finis, mais ces conditions seules ne sont pas suffisantes. Une condition suffisante (mais pas nécessaire) est la différentiabilité en moyenne quadratique.

Différentiabilité en moyenne quadratique[modifier | modifier le code]

Si le modèle statistique est différentiable en moyenne quadratique, alors, le modèle , générant variables aléatoires iid selon est localement asymptotiquement normal.

Un modèle est différentiable en moyenne quadratique en s'il existe tel que pour tout , est la vraisemblance du modèle et l'intégrale est prise sur le support de et le désigne la notation de Landau au voisinage de 0[2].

Beaucoup de modèles classiques (par exemple le modèle normal, exponentiel, Poisson) sont différentiables en moyenne quadratique, et le vecteur correspond à la dérivée de la log-vraisemblance. Une exception notable est la loi uniforme sur un intervalle qui n'est pas différentiable en moyenne quadratique, et n'est d'ailleurs pas non plus localement asymptotiquement normal.

Définition générale[modifier | modifier le code]

La définition ci-dessous donne une notion de la normalité asymptotique locale plus générale, qui ne s'applique pas qu'à des variables aléatoires iid.

Une suite de modèles statistiques de paramètre est localement asymptotiquement normale si il existe :

  • une suite de matrices carrées inversibles ,
  • une matrice carrée ,
  • une suite vecteurs aléatoires telle que ,

tels que pour toute suite de convergeant vers , on ait

lorsque sont générés par [3].

Ici, la notation désigne la dérivée de Radon-Nykodym de la mesure de probabilité du modèle par rapport à la mesure du modèle . Le modèle correspond au modèle à la différence que le paramètre est changé en , la suite étant typiquement de norme tendant vers l'infini. En pratique, correspond au rapport de la vraisemblance du modèle évaluée en sur la vraisemblance du modèle évaluée en .

La notation désigne ici une variable aléatoire tendant vers 0 en probabilités. Même si cela n'est pas rendu explicite, il faut noter que ce terme peut dépendre de , de sorte que la convergence n'es pas uniforme par rapport à .

Comme le vecteur suit une loi normale d'espérance et de variance , cette définition s'interprète souvent comme imposant que le log du rapport de vraisemblance suive asymptotiquement une loi normale d'espérance et de variance .

Dans le cas de données iid, correspond à l'information de Fisher et la suite de matrice est simplement est la matrice identité de .

Lien avec la contiguïté[modifier | modifier le code]

En reprenant les notations précédentes, la normalité asymptotique locale d'un modèle statistique implique la contiguïté mutuelle des mesures et (ou dans le cas d'un modèle iid).

Théorème — Soit un modèle statistique de paramètre . Si est localement asymptotiquement normal, alors , où est une suite de convergeant vers et est la suite de matrice telle que définie dans la définition générale de la normalité asymptotique locale de .

La preuve de ce résultat découle du premier lemme de Le Cam.

Application[modifier | modifier le code]

Une application de la normalité asymptotique locale découle d'un corollaire du 3ème lemme de Le Cam. Ce corollaire permet de connaître la distribution asymptotique d'une statistique si les variables aléatoires sont générées par un modèle statistique dont le paramètre n'est pas fixe, mais converge vers une valeur fixe . On parle de connaître la distribution asymptotique de sous une suite d'alternatives, ou encore de changement de mesure.

Ce corollaire stipule que si

  • est une statistique à valeurs dans ,
  • et sont deux suites de mesures (ou modèles statistiques), telles que le vecteur pour , lorsque les sont générés par ,

alors, la statistique lorsque les sont générés par .

Choisir et avec un modèle localement asymptotiquement permet généralement de satisfaire les hypothèses du corollaire. Cela permet alors de connaitre la distribution de lorsque le paramètre qui génère les données n'est pas mais .

La normalité asymptotique de n'implique pas directement que les hypothèses du 3ème lemme de Le Cam soient satisfaites, mais elle y aide. En effet, la normalité asymptotique locale implique que converge en loi vers une distribution normale , avec .

Il est par ailleurs assez classique pour une statistique d'avoir une distribution asymptotique de la forme . Il ne reste alors généralement qu'à montrer que le vecteur est un vecteur gaussien (car deux vecteurs gaussiens ne forment pas nécessairement un vecteur gaussien lorsqu'ils sont concaténés), ce qui est généralement faisable.

Voir aussi[modifier | modifier le code]

Références[modifier | modifier le code]

  1. Lucien Le Cam et Grace Lo Yang, « Locally Asymptotically Normal Families », dans Springer Series in Statistics, Springer US, (ISBN 978-1-4684-0379-4, lire en ligne), p. 52–98
  2. « Elisabeth Gassiat, Statistiques Asymptotiques-Note de cours-M2 »
  3. A. W. van der Vaart, Asymptotic Statistics, Cambridge University Press, (ISBN 978-0-511-80225-6, 978-0-521-49603-2 et 978-0-521-78450-4, lire en ligne)