WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Equilibre entre vie privée et vie professionnelle et son impact sur la performance individuelle au travail cas de la société TMK SARL


par MERCER GIRUKUBONYE
Université libre des pays des grands lacs (ULPGL) - Licence en Gestion des Entreprises 2021
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.3.3. Traitement et d'analyse des données

Dans le cadre de ce travail, quatre méthodes d'analyse et d'interprétation des résultats ont été mises en marche. Il s'agit de la méthode descriptive, de la méthode analytique, de la méthode statistique et de la méthode comparative.

Laméthodedescriptiveapermisdeprésenteretdedécrirelesdonnéesrelativesàl'équilibre entre la vie privée et la vie professionnelle etàlaperformancedesagentsautravail.Laméthodeanalytique,quantàelle,afacilitél'analyse systématique des données en se focalisant à la fois sur l'analyse des données et des résultats dans l'ensemble et sur chaque cas. Par contre, la méthode statistique a permis de dégager les mesures aussi de position que de dispersion comme les tests de significativité ont été ressortis. La méthode comparative a facilité les confrontations des groupes d'agents suivant certaines variables afin d'apprécier les niveaux d'équilibre vie privée - vie professionnelle et deperformance.

Le traitement des données a consisté dans un premier temps en une analyse descriptive des données. Ensuite, il était question d'une analyse factorielle exploratoire. En fin, quelques tests statistiques ont été effectué afin d'évaluer le lien entre différentes variables.

La description des variables qualitatives a consisté à présenter les effectifs, c'est-à-dire le nombred'individusdel'échantillonpourchaquemodalitédelavariable,etlesfréquences,c'est- à-dire le nombre de réponses associées aux modalités de la variable étudiée. Pour ce qui est la description des variables quantitatives, elles ont été décrites sur base des mesures de tendance centrale (moyenne, médiane, mode), des mesures de dispersion (écart-type, coefficient de variation, étendue). Au-delà de cette statistique descriptive uni variée, certaines variables ont été analysées deux à deux au moyen des tableauxcroisés.

L'analysefactorielleaserviàidentifierlesdimensionsdelastructureetàdéterminerdansquelle mesure chaque variable peut expliquer chaque dimension en poursuivant deux objectifs majeurs : résumer les données et réduire les données. Cette analyse factorielle exploratoire en composantes principales s'est déroulée en cinq étapes : la validité de l'échelle de mesure, l'extractiondesfacteurs,larotationdesfacteurs,l'épurationdel'échelledemesureetlafiabilité de l'échelle demesure.

La validité de l'échelle de mesure employée a été mesurée par les deux éléments suivants :

- Le test de Sphéricité de Bartlett : a permis d'examiner la matrice de corrélation et ressortir la probabilité de l'hypothèse nulle selon laquelle toutes les corrélations sont de zéro. Si l'hypothèsenulleestacceptée,ilestdifficiled'effectueruneanalysefactorielle.Letestdevait donc être significatif, avec une valeur de significativité (en abrégé « Sig. ») inférieure à0,05 pour nous permettre de rejeter l'hypothèsenulle.

- L'indice Kaiser-Meyer-Olkin (KMO) : pour vérifier dans quelle proportion les variables retenues forment un ensemble cohérent et mesurent de manière adéquat le concept étudié. Des valeurs de KMO comprises entre 0,3 et 0,7 représentent des solutions factorielles acceptables, fortes si entre 0,80 et0,89.

La méthode d'extraction employée est l'analyse en composantes principales (ACP). Elle avait pourobjetdesynthétiserlesdonnéesenconstruisantunpetitnombredevariablesnouvelles,les composantes principales. Deux critères nous ont permis d'extraire les facteurs:

- La règle des valeurs propres ou « eigenvalue » ou règle de Kaiser-Guttman : qui représente la quantité d'information capturée par une composante. Seules les composantes ayant une valeur propre supérieure à 1 ont été retenues, car un facteur qui aurait une valeur propre inférieure à 1 représenterait moins d'informations qu'un simpleitem.

- Le critère du pourcentage de variance : il s'agissait d'observer les pourcentages cumulés de la variance extraite par les facteurs successifs. L'objectif était de s'assurer qu'un facteur explique une quantité significative de variance. L'extraction a été arrêté lorsque 60 % de la variance expliquée estextraite.

Afin de pouvoir interpréter les facteurs, il était nécessaire de réaliser une rotation. Celle-ci permetd'identifierdesgroupesdevariablesfortementliéslesunsauxautres.Larotationfaiten sorte que chaque item ne soit fortement lié qu'à un seul facteur. Cette étude a fait recours à la rotation de type « varimax ». Celle-ci permet de minimiser le nombre de variables ayant de fortes corrélations sur chaque facteur et simplifie alors l'interprétation desfacteurs.

L'épuration de l'échelle s'est faite en deux temps :

- D'une part, les coefficients structurels : fixés en fonction de la taille de l'échantillon. La taille de l'échantillon des agents de régies à Goma étant comprise entre 150 et 199 (inclus), le seuil retenuestde0,45.Ainsi,avons-nousprocédéàl'éliminationdesitemsdontlepoidsfactoriel était supérieur à 0,45 sur deux ou plusieurs composantes ou alors ceux dont le poids factoriel inférieur était inférieur à 0,5 sur la composante principale identifiée.

- D'autrepart,lescommunalités :ils'agitdelapartdevariancequiestexpliquéeparl'item.

Elle devait être supérieure à 0,5 (qui représente le seuil recommandé).

Ce processus d'épuration a été répété jusqu'à l'obtention des items satisfaisant aux critères ci- dessus, après quoi, il ne restait qu'à s'assurer de la fiabilité de l'échelle retenue.

Pour s'assurer de la fiabilité de l'échelle construite, le coefficient alpha de Cronbach a été calculé afin de mesurer la cohérence interne de l'ensemble d'items. C'est-à-dire le degré avec lequel les instruments utilisés mesurent de façon constante le construit étudié à partir d'un ensemble d'items. Il était alors question d'éliminer les items qui diminuent le score, et de conserver ceux qui contribuent à augmenter l'alpha. Le seuil d'acceptabilité de l'alpha varie selonl'objectifdelarecherche.Pouruneétudeexploratoirecommecelle-ci,uncoefficientplus faibleestacceptable(0,6)alorsquedanslecadred'unerecherchefondamentale,ildoitêtreplus élevé (>0,8).

Lesniveauxdeglobauxontétédégagésenfonctiondesitemsetdimensionssignificatifsextraits de l'analyse factorielle en composantes principales. Pour chaque dimension, un score moyen a été calculé. Afin de trouver l'indice global du concept en étude, il a été question de pondéré le scoremoyendeladimensionàsonpoidsdansl'explicationduconcept.L'indiceainsicalculéa été à son tour divisé par le niveau de l'échelle (5 pour la performance et 4 pour l'équilibre vie privée - vie professionnelle) afin de l'exprimer en pourcentage.

Statistiquement, les résultats de comparaison algébrique des indices dégagés ne seraient pas valables. En effet, en cas de différence entre les niveaux d'équilibre vie privée - vie professionnelle et de performance des agents de la TMK, une étude de significativité de cette différence s'impose. C'est pourquoi, nousavonsfaitrecoursautesttd'égalitédesmoyennesdedes niveaux inter agents du point de vue genre (Homme et Femme).

Pourquele test t soit faisable, le critère d'homogénéité des variances s'est imposé. Ce critère est vérifié grâce au test de Levene. Pour toutes les valeurs significatives au test de Levene (Probabilité y attaché est inférieure à 0,05), la première ligne du test a été lue. La lecture de la seconde ligne reposait sur le critère selon lequel la probabilité au test Levene est supérieure à 0,05. L'hypothèse nulle suppose qu'il n'y a pas de différence entre les moyennes des groupes d'agents Hommes et Femmes. En d'autres termes, la différence entre les deux moyennes est de 0. L'hypothèse alternative soutient qu'il y a une différence entre les deux moyennes.

Par ailleurs, lorsqu'il s'agissait de déterminer l'influence des variables quantitatives sur une variable quantitative, la régression a été appliquée. En effet, la régression sert à analyser la relation entre une variable dépendante quantitative et plusieurs variables indépendantes quantitatives. Chaque variable indépendante a été évaluée par la procédure de régression de façon à maximiser la prédiction de la variable expliquée. Pour notre cas, il s'agit ici de tester l'influencedel'équilibre entre la vie privée et la vie professionnelle surlaperformance individuelle des agents au travail.

En somme, l'analyse descriptive, l'analyse factorielle exploratoire en composantes principales, la comparaison des moyennes et la régression ont été facilitées par le logiciel SPSS.23.0. Le Microsoft Office Excel 2016 est intervenue dans le retraitement des données issues du Serveur KoBoToolBox, avant leur exportation vers le staticiel SPSS.23.0.

Conclusion partielle du chapitre

Le présent chapitre était consacré au cadre méthodologique d'investigation. La première partie aborde directement la présentation de notre milieu d'étude et la seconde de l'approche appropriée et l'échantillonnage, suivi des théories sur la collecte des données où nous avons parlé de l'instrument adopté pour la collecte des données et enfin les outils statistiques qui ont été mobilisés pour tester les hypothèses de cette recherche. Ainsi, nous avons opté pour l'approche hypothético-déductive et la méthode d'échantillonnage aléatoire simple a été choisi, c'est-à-dire tout le personnel de la Société TMK avait la même probabilité d'être choisis. Le questionnaire a été administré selon le mode face à face et par téléphone grâce à l'application KOBO COLLECT et deux types d'échelle ont été adoptés pour mesurer les variables mixtes : l'échelle de SWING mais aussi l'échelle de Likert. Deux outils statistiques ont été captés pour l'analyse de cette étude, à l'occurrence le Microsoft Office Excel et l'IBM SPSS 23.

Le chapitre suivant va devoir nous dévoiler la présentation des données et discussion des résultats.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Ceux qui rêvent de jour ont conscience de bien des choses qui échappent à ceux qui rêvent de nuit"   Edgar Allan Poe