WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

L'application de la théorie des réponses aux items dans la comparaison des résultats aux tests d'acquisition:cas du Cameroun

( Télécharger le fichier original )
par Karima BELHAJ
Institut national de statistique et d'économie appliquée Maroc - Ingénieur d'état 2012
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

III.5. Estimation des paramètres avec les modèles IRT et test

d'ajustement

III.5.1. Estimation des paramètres

a) L'estimation des param~tres pour le modle de Rasch

On considère deux types de modèle de RASCH : le modèle de RASCH à effets aléatoires selon lequel le trait latent è est aléatoire et le modèle de RASCH à effets fixes où la variable è est considérée fixe. Dans l'encadré ci-dessous on voit que la log-vraisemblance des observations est la somme de la log-vraisemblance marginale des scores (LM) et de la log-vraisemblance conditionnellement au score qui ne dépend que des paramètres de difficultés. Ainsi on fait une estimation en deux étapes. La première consiste à une estimation par maximum de vraisemblance conditionnelle et la seconde à une estimation par maximum de vraisemblance marginale.

L'estimation par maximum de vraisemblance conditionnelle permet d'estimer les paramètres de difficulté. En effet, la log-vraisemblance conditionnelle au score ne dépend que des paramètres de difficultés. Les paramètres de difficultés estimés sont ensuite utilisés dans l'estimation des niveaux d'acquisition par la méthode du maximum de vraisemblance marginale.

Encadré 1 : Notations et notions préliminaires à l'estimation

Notations

La variable aléatoire de bernouilli

le vecteur de réponse de l'individu i qui est la

1 ~~

......

) ( ) 1 )

x x

X x P T P dG T )

j

réalisation de la variable aléatoire

la matrice des réponses de N individus aux J items, qui est

la réalisation de la variable aléatoire
Notions préliminaires

P X x S s

Soit la fonction de répartition de la variable latente pour un individu i, la

(( ) ( ))

i

, i

X x S s

? / )

? ?

i 1 J i i

probabilité d'observer le vecteur de réponse s'écrit :

[2]

La probabilité d'observer un vecteur de réponse donné sachant que l'individu à eu un score donné est définie ci-dessous : [2]

.

Pour N individus ayant répondu individuellement à J questions, La probabilité jointe de réponse des N individus aux J questions s'écrit : [2]

N

= L x ? s

( , / ) ? =L s G s

( )

C M

? ? ?

De cette écritur, on obtient la log Vraisemblance qui suit : [2]

? ? ?

( )

s exp( )

? j ?

Log vraisemblance du modèle de RASCH

Enfin

avec

la log vraisemblance conditionnelle au score

et

log vraisemblance marginale des scores

On en déduit que la log-vraisemblance des observations est la somme de la log-vraisemblance marginale des scores (LM) et de la log-vraisemblance conditionnellement au score qui ne dépend que des paramètres de difficultés.

Estimation des paramètres de difficulté des items : spécification du modèle

? 1 si k

?

Le modèle transformé donne pour un individu répondant à un item j :

Avec

Log ? p ? ? ?

I ?

i et

? ? 1)

? une variable aléatoire égale à l'erreur

k j

de spécification

Dans la pratique, la variable à expliquer est la réponse aux items et les variables explicatives sont des indicatrices Ikj . A chaque item j correspond un paramètre de difficulté .

On crée donc J variables indicatrices Ikj telles que pour k=1 ;2 ;...... ;J.

On obtient le modèle suivant :

.

On fait ensuite une estimation logistique conditionnelle sur le modèle cidessus. Cette estimation permet d'obtenir uniquement les paramètres de difficultépour chaque item à un signe près. Les estimateurs obtenus sont convergents.

Estimation de la variable latente et spécification du modèle.

On a N individus mais on a J-i-1 score (S= 0 ; 1 ; 2 ;... ; J). Puisque le score S est une statistique exhaustive pour la variable latent, on aura à estimer J-i-1 traits latents

(dans le cas où N>J). On crée J+1 variables indicatrices associées au score obtenu par chaque éleve.

La variable expliquée est la réponse aux items et les variables explicatives sont les indicatricesSsi . Les parametres de difficulté déjà estimés sont introduits dans la

modélisation comme variables offset. Une variable offset est une variable à laquelle on associe le coefficient 1 dans une modélisation :

Le modele estimé est sans constante. Les estimations des modeles présentés ci-dessus requierent la transformation des données.

b) Estimation des paramètres de difficulté et de trait latent pour

le modèle de BIRNBAUM.

Pour l'estimation du modèle à deux paramètres, on se réfère aux modeles linéaires généralisés. En effet, Les modeles IRT entrent dans le cadre des modeles linéaires généralisés. De plus le modele de BIRNBAUM perd la propriété d'exhaustivité du score simple. Dans ce cas, on ne peut plus utiliser la méthode d'estimation par maximum de vraisemblance conditionnelle.

Le modele à estimer ici est :

La variable expliquée est la réponse aux items et les variables explicatives sont les indicatrices Ikj définies plus hauts. A chaque item j correspond un parametre de difficulté . Cette estimation requiert des travaux préliminaires

liés à la transformation des données. En annexe, est présentée la démarche à suivre et la mise en oeuvre sous stata.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Tu supportes des injustices; Consoles-toi, le vrai malheur est d'en faire"   Démocrite