WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Equilibre entre vie privée et vie professionnelle et son impact sur la performance individuelle au travail cas de la société tmk sarl


par MERCER GIRUKUBONYE
Université libre des pays des grands lacs (ULPGL) - Licence 2021
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.3.3. Traitement et d'analyse des données

Dans le cadre de ce travail, quatre méthodes d'analyse et d'interprétation des résultats ont été mises en marche. Il s'agit de la méthode descriptive, de la méthode analytique, de la méthode statistique et de la méthode comparative.

La méthode descriptive a permis de présenter et de décrire les données relatives à l'équilibre entre la vie privée et la vie professionnelle et à la performance des agents au travail. La méthode analytique, quant à elle, a facilité l'analyse systématique des données en se focalisant à la fois sur l'analyse des données et des résultats dans l'ensemble et sur chaque cas. Par contre, la méthode statistique a permis de dégager les mesures aussi de position que de dispersion comme les tests de significativité ont été ressortis. La méthode comparative a facilité les confrontations des groupes d'agents suivant certaines variables afin d'apprécier les niveaux d'équilibre vie privée - vie professionnelle et de performance.

53

Le traitement des données a consisté dans un premier temps en une analyse descriptive des données. Ensuite, il était question d'une analyse factorielle exploratoire. En fin, quelques tests statistiques ont été effectué afin d'évaluer le lien entre différentes variables.

La description des variables qualitatives a consisté à présenter les effectifs, c'est-à-dire le nombre d'individus de l'échantillon pour chaque modalité de la variable, et les fréquences, c'est- à-dire le nombre de réponses associées aux modalités de la variable étudiée. Pour ce qui est la description des variables quantitatives, elles ont été décrites sur base des mesures de tendance centrale (moyenne, médiane, mode), des mesures de dispersion (écart-type, coefficient de variation, étendue). Au-delà de cette statistique descriptive uni variée, certaines variables ont été analysées deux à deux au moyen des tableaux croisés.

L'analyse factorielle a servi à identifier les dimensions de la structure et à déterminer dans quelle mesure chaque variable peut expliquer chaque dimension en poursuivant deux objectifs majeurs : résumer les données et réduire les données. Cette analyse factorielle exploratoire en composantes principales s'est déroulée en cinq étapes : la validité de l'échelle de mesure, l'extraction des facteurs, la rotation des facteurs, l'épuration de l'échelle de mesure et la fiabilité de l'échelle de mesure.

La validité de l'échelle de mesure employée a été mesurée par les deux éléments suivants :

- Le test de Sphéricité de Bartlett : a permis d'examiner la matrice de corrélation et ressortir la probabilité de l'hypothèse nulle selon laquelle toutes les corrélations sont de zéro. Si l'hypothèse nulle est acceptée, il est difficile d'effectuer une analyse factorielle. Le test devait donc être significatif, avec une valeur de significativité (en abrégé « Sig. ») inférieure à 0,05 pour nous permettre de rejeter l'hypothèse nulle.

- L'indice Kaiser-Meyer-Olkin (KMO) : pour vérifier dans quelle proportion les variables retenues forment un ensemble cohérent et mesurent de manière adéquat le concept étudié. Des valeurs de KMO comprises entre 0,3 et 0,7 représentent des solutions factorielles acceptables, fortes si entre 0,80 et 0,89.

La méthode d'extraction employée est l'analyse en composantes principales (ACP). Elle avait pour objet de synthétiser les données en construisant un petit nombre de variables nouvelles, les composantes principales. Deux critères nous ont permis d'extraire les facteurs

Pour s'assurer de la fiabilité de l'échelle construite, le coefficient alpha de Cronbach a été calculé afin de mesurer la cohérence interne de l'ensemble d'items. C'est-à-dire le degré

54

:

- La règle des valeurs propres ou « eigenvalue » ou règle de Kaiser-Guttman : qui représente la quantité d'information capturée par une composante. Seules les composantes ayant une valeur propre supérieure à 1 ont été retenues, car un facteur qui aurait une valeur propre inférieure à 1 représenterait moins d'informations qu'un simple item.

- Le critère du pourcentage de variance : il s'agissait d'observer les pourcentages cumulés de la variance extraite par les facteurs successifs. L'objectif était de s'assurer qu'un facteur explique une quantité significative de variance. L'extraction a été arrêté lorsque 60 % de la variance expliquée est extraite.

Afin de pouvoir interpréter les facteurs, il était nécessaire de réaliser une rotation. Celle-ci permet d'identifier des groupes de variables fortement liés les uns aux autres. La rotation fait en sorte que chaque item ne soit fortement lié qu'à un seul facteur. Cette étude a fait recours à la rotation de type « varimax ». Celle-ci permet de minimiser le nombre de variables ayant de fortes corrélations sur chaque facteur et simplifie alors l'interprétation des facteurs.

L'épuration de l'échelle s'est faite en deux temps :

- D'une part, les coefficients structurels : fixés en fonction de la taille de l'échantillon. La taille de l'échantillon des agents de régies à Goma étant comprise entre 150 et 199 (inclus), le seuil retenu est de 0,45. Ainsi, avons-nous procédé à l'élimination des items dont le poids factoriel était supérieur à 0,45 sur deux ou plusieurs composantes ou alors ceux dont le poids factoriel inférieur était inférieur à 0,5 sur la composante principale identifiée.

- D'autre part, les communalités : il s'agit de la part de variance qui est expliquée par

l'item.

Elle devait être supérieure à 0,5 (qui représente le seuil recommandé).

Ce processus d'épuration a été répété jusqu'à l'obtention des items satisfaisant aux critères ci- dessus, après quoi, il ne restait qu'à s'assurer de la fiabilité de l'échelle retenue.

55

avec lequel les instruments utilisés mesurent de façon constante le construit étudié à partir d'un ensemble d'items. Il était alors question d'éliminer les items qui diminuent le score, et de conserver ceux qui contribuent à augmenter l'alpha. Le seuil d'acceptabilité de l'alpha varie selon l'objectif de la recherche. Pour une étude exploratoire comme celle-ci, un coefficient plus faible est acceptable (0,6) alors que dans le cadre d'une recherche fondamentale, il doit être plus élevé (> 0,8).

Les niveaux de globaux ont été dégagés en fonction des items et dimensions significatifs extraits de l'analyse factorielle en composantes principales. Pour chaque dimension, un score moyen a été calculé. Afin de trouver l'indice global du concept en étude, il a été question de pondéré le score moyen de la dimension à son poids dans l'explication du concept. L'indice ainsi calculé a été à son tour divisé par le niveau de l'échelle (5 pour la performance et 4 pour l'équilibre vie privée - vie professionnelle) afin de l'exprimer en pourcentage.

Statistiquement, les résultats de comparaison algébrique des indices dégagés ne seraient pas valables. En effet, en cas de différence entre les niveaux d'équilibre vie privée - vie professionnelle et de performance des agents de la TMK, une étude de significativité de cette différence s'impose. C'est pourquoi, nous avons fait recours au test t d'égalité des moyennes de des niveaux inter agents du point de vue genre (Homme et Femme).

Pour que le test t soit faisable, le critère d'homogénéité des variances s'est imposé. Ce critère est vérifié grâce au test de Levene. Pour toutes les valeurs significatives au test de Levene (Probabilité y attaché est inférieure à 0,05), la première ligne du test a été lue. La lecture de la seconde ligne reposait sur le critère selon lequel la probabilité au test Levene est supérieure à 0,05. L'hypothèse nulle suppose qu'il n'y a pas de différence entre les moyennes des groupes d'agents Hommes et Femmes. En d'autres termes, la différence entre les deux moyennes est de 0. L'hypothèse alternative soutient qu'il y a une différence entre les deux moyennes.

Par ailleurs, lorsqu'il s'agissait de déterminer l'influence des variables quantitatives sur une variable quantitative, la régression a été appliquée. En effet, la régression sert à analyser la relation entre une variable dépendante quantitative et plusieurs variables indépendantes quantitatives. Chaque variable indépendante a été évaluée par la procédure de régression de

56

façon à maximiser la prédiction de la variable expliquée. Pour notre cas, il s'agit ici de tester l'influence de l'équilibre entre la vie privée et la vie professionnelle sur la performance individuelle des agents au travail.

En somme, l'analyse descriptive, l'analyse factorielle exploratoire en composantes principales, la comparaison des moyennes et la régression ont été facilitées par le logiciel SPSS.23.0. Le Microsoft Office Excel 2016 est intervenue dans le retraitement des données issues du Serveur KoBoToolBox, avant leur exportation vers le staticiel SPSS.23.0.

57

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Enrichissons-nous de nos différences mutuelles "   Paul Valery