WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Influence de la communication interne sur l'apprentissage organisationnel des salariés dans les PME camerounaises.


par GUIDKAYA ZAMBA
Université de Ngaoundé - Master de Recherche en Sciences de Gestion 2014
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

SECTION II : LES OUTILS D'ANALYSE DES DONNEES ET LA DESCRIPTION DES CARACTERISTIQUES DE L'ECHANTILLON FINAL DE LA RECHERCHE

La section précédente nous a permis de justifier la démarche méthodologique adoptée ainsi que le processus de mesure des concepts de notre recherche. L'objet de la section2 est de présenter les outils d'analyse utilisés tant pour les études quantitatives que pour l'approche exploratoire et de proposer une description des caractéristiques de l'échantillon final de la recherche.

I. Les outils d'analyse quantitative des données

L'outil utilisé lors du traitement des données est le logiciel d'analyse des données SPSS. SPSS est une bibliothèque de programme déjà écrits qu'il suffit d'utiliser pour résoudre la plupart des problèmes statistiques d'analyse des données. Ce logiciel nous a servi d'instrument d'analyse de données nous permettant de soumettre les données recueillies à des tests. La parfaite connaissance de la nature des données collectées nous permet de mieux choisir le type de test à utiliser. Pour tester les hypothèses de notre recherche, Nous utilisons uniquement la méthode de régression multiple. Cependant, la description de l'échantillon et la réduction des variables faisant intervenir respectivement le tri à plat et l'ACP, il convient d'en faire une brève analyse.

A. Le tri à plat et l'analyse en composante principale

Considérer les outils d'analyse statistiques comme des éléments au centre de l'analyse des données quantitatives est indispensable dans l'analyse et l'interprétation des résultats sortant du logiciel SPSS. Le tri à plat et l'ACP sont à la base de l'interprétation de répartition en fréquence de l'échantillon (pour le 1er) et de l'analyse factorielle (pour la 2nde).

1. Le tri à plat

Le tri à plat est une opération consistant à déterminer comment les observations se répartissent sur les différentes modalités que peut prendre une variable à modalités discrètes. Il constitue la première démarche de traitement des données d'un fichier et permet de classer les réponses obtenues d'un questionnaire ou tout autre instrument de collecte de données. Aussi le tri à plat donne un résultat sous forme de fréquences contenues dans un tableau, sur les différentes variables contenues dans le fichier. Le tableau de fréquences est une bonne façon de présenter les informations que contient une banque de données à propos d'une variable. En effet, il indique, pour une variable donnée, toutes les valeurs que prend cette variable, le nombre de fois que chaque valeur ou catégorie de la variable apparaît et la proportion (%) que représentent les données correspondant à une catégorie d'une variable par rapport au nombre total d'observations prises en compte

2. L'analyse en composante principale

L'ACP fait partie des analyses descriptives multivariées. Elle tente de mettre en évidence des composantes tenant compte de la variance totale de toutes les variables à l'étude (ensemble des variables de la matrice de données géographiques). L'ACP a deux fonctions distinctes : la première consiste à chercher à simplifier des variables (Le Moal, 2002). Si l'on dispose d'un grand nombre de variables mesurant un même construit unidimensionnel, ou supposé tel, on peut utiliser cette analyse afin de regrouper les variables qui semblent mesurer « la même chose » et de pouvoir ainsi calculer un score synthétique (comme leur moyenne) ce qui s'avérera beaucoup plus économique que de mener des analyses individuelles sur chaque item isolé. L'ACP est le type d'analyse factorielle le plus adapté pour apprécier l'opérationnalisation d'une variable formulée selon plusieurs items.

a. Définition de l'analyse factorielle

Un des points les plus délicats de l'ACP est d'apprécier la perte d'information engendrée par la réduction de la dimension. On a vu précédemment que la qualité de représentation du nuage dans le sous-espace factoriel est exprimée par le pourcentage d'inertie expliquée Cette mesure globale doit être complétée par d'autres considérations comme la représentation des individus et des variables dans ce sous-espace factoriel. Il peut en effet arriver que les axes retenus, bien que représentant une part importante de l'inertie globale du nuage, ne suffisent pas à expliquer correctement certains individus ou variables : deux individus peuvent être proches en projection sur les axes factoriels retenus tout en étant très éloignés en réalité, si leurs représentations sur ces axes ne sont pas de bonne qualité.

b. Le choix des axes factoriels à retenir

La sélection du nombre d'axes à retenir est une étape importante d'une ACP. Le critère que nous retenons ici est celui de Kaiser. Ce dernier consiste à ne retenir que les facteurs ayant les valeurs propres supérieures à la moyenne : puisqu'on est en ACP normée la somme des valeurs propres est égale au nombre de ces valeurs propres, et la moyenne des valeurs propres est donc égale à 1. On ne retiendra donc par le critère de Kaiser que les facteurs ayant une valeur propre supérieure à 1.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"En amour, en art, en politique, il faut nous arranger pour que notre légèreté pèse lourd dans la balance."   Sacha Guitry