Afin de simplifier la présentation, nous supposerons que les variables aléatoires sont centrées ce qui
peut pratiquement toujours s'obtenir en effectuant une
translation. La manière la plus élémentaire de caractériser une
éventuelle relation entre et est de calculer les trois
moments du deuxième ordre des deux variables aléatoires soit ,
et
|
(51) |
Si n'est pas nul, alors que et ont une moyenne
nulle, il y a une corrélation entre les deux variables. Cependant
le fait que soit nul ne veut pas dire qu'il y a
indépendance entre les deux variables (on parle d'orthogonalité):
l'indépendance suppose la factorisation de la densité de
probabilité du couple sous la forme (51).
En pratique, si on dispose de observations et , on
calcule
|
(52) |
On définit ainsi le coefficient de corrélation entre et
:
|
(53) |
D'après l'inégalité de Schwarz, le coefficient est compris entre et .
Si , on peut affirmer qu'il y a une dépendance linéaire
entre et :
|
(54) |
Plus est proche de , plus la corrélation est forte. Dans
ce cas les courbes de niveau de la densité de probabilité du couple de variables aléatoires
ont une forme d'ellipse très allongées. Au contraire lorsqu'on a normalisé les variables de sorte que
lorsque , ces courbes de niveau ont en général (mais pas toujours) une forme
circulaire.
Remarque : affirmer qu'une variable aléatoire est corrélée à une
autre ne permet pas de dire que l'une est la cause de l'autre. On
peut raisonnablement dire que parmi les nombreuses causes qui
influent sur leur comportement il y en a de communes.
On peut définir de la même manière les différents moments du
couple de variables aléatoires ainsi que la fonction
caractéristique bidimensionnelle, qui a un rôle utile dans l'étude
des couples de variables aléatoires.
[ Table des matières ]