WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Couverture des attentes du contrat psychologique et socialisation organisationnelle des salariés.


par Guidkaya ZAMBA
Université de Ngaoundéré - Thèse de Doctorat en Sciences de Gestion 2019
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II.2. Outils d'analyses statistiques des données quantitatives

Les lignes précédentes nous ont permis de justifier la démarche méthodologique adoptée ainsi que le processus de mesure des concepts de notre recherche. L'objet des développements qui suivent est de présenter les outils d'analyse utilisés tant pour les études quantitatives et de proposer une description des caractéristiques de l'échantillon final de la recherche. Avant toutes analyses, il est important de présenter la manière dont les données ont été préparées et structurées avant même d'analyse des données. C'est une étape indispensable conduisant au test des hypothèses de recherche que nous avons émises. Cette étape consiste d'une part à vérifier la complétude et la cohérence des données collectées auprès de la population de l'étude (on joue en effet sur la qualité de l'ensemble des informations recueillies) et d'autre part à apporter des éléments de conclusion sur la validité de notre modèle de recherche précisément sur la base des tests d'hypothèses effectués. Etant donné que le test d'hypothèse fait appel à plusieurs critères de décision, nous mettons en évidence les différents outils nécessaires en partant de la préparation des données collectées.

II.2.1. La phase de la préparation des données collectées

L'étape principale dans l'analyse des données consiste à se rendre compte de la qualité des données brutes qui référencent le fichier de base de l'analyse. Dans le cadre de notre recherche, la plupart des questionnaires que nous avons administrés ont été correctement remplis par les individus de l'échantillon malgré les rares valeurs manquantes que nous avons constatées dans certains questionnaires mais, nous notons que ces valeurs n'entravent en rien le contenu de nos analyses surtout pour des manquements qui ne touchent pas les variables centrales de la recherche, c'est-à-dire les variables de la socialisation organisationnelle et les variables du contrat psychologique par les attentes. En ce qui concerne les variables phares de la recherche dont le contenu a été mal rempli par les enquêtés, l'incomplétude, si elle est de grande taille, nous trouvons que les données recueillies sur ces questionnaires ne sont pas suffisantes pour obtenir des résultats pertinents et contribuer à la validation de notre modèle de recherche préalablement définit.

II.2.2. Le tri à plat et l'étude des fréquences

Le tri à plat est une opération consistant à déterminer comment les observations se répartissent sur les différentes modalités que peut prendre une variable à modalités discrètes. Il constitue la première démarche de traitement des données d'un fichier et permet de classer les réponses obtenues d'un questionnaire ou tout autre instrument de collecte de données. Aussi le tri à plat donne un résultat sous forme de fréquences contenues dans un tableau, sur les différentes variables contenues dans le fichier. Le tableau de fréquences est une bonne façon de présenter les informations que contient une banque de données à propos d'une variable. En effet, il indique, pour une variable donnée, toutes les valeurs que prend cette variable, le nombre de fois que chaque valeur ou catégorie de la variable apparaît et la proportion (%) que représentent les données correspondant à une catégorie d'une variable par rapport au nombre total d'observations prises en compte. Il faut également noter que l'étude de la répartition des fréquences permet de tester la normalité des distributions pour l'ensemble des variables du questionnaire.

En effet, pour qu'une distribution soit qualifiée de normale, il faut que les conditions de symétrie et de non aplatissement soient respectées. Le test d'asymétrie est acceptable selon les préconisations d'Akrout (2010) si la valeur du critère de Skewness est inférieure, en valeur absolue bien sûre, à 1,96 (par excès à 2). Ce test nous indique si les valeurs des observations tournent autour de la moyenne ou non. Le tes d'aplatissement quant à lui, à l'aide de l'indice de Kurtosis, donne une indication sur le degré de concentration des observations et doit être également inférieure en valeur absolue à 1,96. Dans le cadre de notre recherche, nous signalons que nous n'avons pas eu à transformer nos variables du questionnaire d'enquête car les statistiques de symétrie (parlant du Skewness) et d'aplatissement (en parlant du Kurtosis) ne mettent pas à mal cette hypothèse de normalité et présentent des valeurs acceptables. Autrement dit, toutes les réponses sont réparties de manière équitable et toutes les variables suivent la loi normale. Les valeurs prises par le Skewness et le Kurtosis pour chaque variable de notre recherche ainsi que le test de normalité des variables sont présentés dans l'annexe.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Et il n'est rien de plus beau que l'instant qui précède le voyage, l'instant ou l'horizon de demain vient nous rendre visite et nous dire ses promesses"   Milan Kundera