WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Prise en compte des risques démographiques extrêmes dans l'élaboration des tables de mortalité prospectives

( Télécharger le fichier original )
par ALLADE Emile - Yves Gérard Yassi DALI
Ecole Nationale Supérieure de Statistique et d'Economie appliquée - Ingénieurs statisticiens économistes 2009
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

A.2. Les tables de mortalité

Une table de mortalité suit, sur une centaine d'année, l'évolution d'un groupe de personnes, et propose à chaque période le nombre de vivants, le nombre probable de vivants, le nombre de décès, et l'espérance de vie. A la base de la construction de cette table se trouve donc la détermination des probabilités de décès (qxt).

A.2.a) Calcul des probabilités de décès

Pour évaluer qxt on met en observation Lx personnes atteignant l'âge x dans l'année. Au bout d'un an, il reste Lx+1 = Lx - Dx personnes vivantes avec Dx le nombre de décès parmi le groupe observé dans l'année écoulée. On note alors Qx = Dx / Lx le quotient annuel de mortalité.

On démontre alors que, pour cette variable aléatoire Qx les relations suivantes :

E(Qx) = qx

V(Qx) = (qx*px) / Lx

Le théorème central limite nous indique alors que Qx suit une loi normale d'espérance qx et de variance (qx*px) / Lx et se met donc sous la forme :

Qx = qx + N

Où la variable aléatoire N suit une loi normale centrée réduite.

Ainsi, la valeur exacte des variables étudiées ne pouvant être déterminée, on doit se contenter d'une approximation, dont on pourra déterminer un intervalle de confiance à partir de la forme normale de Qx.

Afin de garantir l'estimation la plus précise possible, on aura donc tout intérêt à avoir :

- Un grand nombre de variables

- Des groupes de population les plus homogènes possibles

Dans les faits, la série des observations des Qx est souvent très désordonnée, en raison d'aléas statistiques. On présume que la série des probabilités présente une certaine régularité et notamment qu'à partir de 30 ans, les taux augmentent continûment. On utilise parfois des méthodes de lissage des résultats et d'ajustement.

A.2.b) L'ajustement et le lissage

La première étape, lorsqu'on recueille des résultats, est donc de lisser la série des Qx, c'est à dire de remplacer les valeurs observées Qx par des valeurs qx plus régulières, mais qui ne s'éloignent pas trop des observations.

Sans les expliciter, signalons simplement que de nombreuses méthodes de lissage existent : ajustement par les splines, programme de minimisation d'écarts (Wittaker-Anderson). . . Le lissage effectué, il est alors possible d'utiliser des méthodes d'ajustement. En effet, les observations statistiques ne nous donnent pas précisément qx mais plutôt un intervalle de confiance. Cette incertitude n'est pas compatible avec la nécessité de disposer d'une table de mortalité en vue des calculs de primes d'assurance. Pour la réduire, on essaie donc d'éliminer les aberrations fortuites de taux observées, en déterminant une courbe continue

Qx = f(x) passant à l'intérieur des intervalles de confiance.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"I don't believe we shall ever have a good money again before we take the thing out of the hand of governments. We can't take it violently, out of the hands of governments, all we can do is by some sly roundabout way introduce something that they can't stop ..."   Friedrich Hayek (1899-1992) en 1984