WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Peur de l'échec et intention entrepreneuriale des étudiants de la faculté d'économie de l'université officielle de Bukavu.


par John MUKANGA UTSHUDI
Université officielle de Bukavu - Graduat en sciences économiques et de gestion 2019
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II.2. TECHNIQUE DE TRAITEMENT DES DONNEES

Les données empiriques récoltées sur le terrain seront soumises aux tests appropriés et les résultats qui vont en découler, vont nous aider soit à confirmer ou soit à infirmer notre hypothèse de recherche. Il s'agira de l'analyse des composantes principales (ACP), du test de fiabilité et de validité de l'échelle de mesure de l'intention entrepreneuriale, du test de la corrélation entre les deux variables du sujet d'étude ainsi que de la régression linéaire simple (Gower, 1996 ; Legendre, 1998).

Présenter synthétiquement un grand ensemble de données résultant d'une étude de plusieurs caractères quantitatifs ou qualitatifs sur une population n'est pas facile. De ce fait, l'analyse en composantes principales et l'analyse factorielle vont nous permettre de révéler les corrélations entre les caractères et de proposer une structure de la population. Un des intérêts majeures de ces analyses est de fournir une méthode de représentation d'une population décrite par un ensemble de caractères dont les modalités sont quantitatives (mesures continues), pour une ACP ou qualitatif pour une analyse factorielle (Igalens et Roussel, 1998).

L'analyse en composante principales (ACP) est une méthode destinée à analyser les relations entre les données quantitatives. C'est la méthode la plus utilisée parmi les méthodes descriptives pour l'épuration et la validation des échelles (Evrard et al. 2000, Igalens et Roussel, 1998). Elle analyse uniquement les relations linéaires pouvant exister entre les variables (Evrard et al. 2000).

Nous allons recourir à l'analyse factorielle (AF) étant donné qu'elle nous permettra de passer d'un grand nombre d'items à un nombre plus réduit par regroupement d'items mesurant la même dimension appelée « composante » (Gianneloni et Vernette, 2001).

14

Avant de procéder à l'analyse factorielle, nous devons nous rassurer, que les données sont factorisables. Pour ce faire, un test statistique nous permet de vérifier l'hypothèse (nulle) selon laquelle notre matrice des corrélations est déterminée à partir d'une population dont la matrice est identité : c'est le test de sphéricité de Bartlett.

Test de sphéricité de Bartlett

L'idée sous-jacente à ces indicateurs est la suivante : est-il possible d'obtenir un bon résumé? En effet, on peut considérer l'ACP (Analyse en Composante Principale) comme une méthode de compression de l'information. Il n'est pas possible que si les données présentent une certaine redondance. Si les variables sont parfaitement corrélées, un seul axe factoriel suffit, il restituera 100% de l'information disponible (Carricano et al, 2009).

Ce test vérifie si l'hypothèse nulle selon laquelle toutes les corrélations seraient égales à zéro, c'est-à-dire que les items ne seraient pas corrélés entre eux et, par conséquent, seraient parfaitement indépendants les uns des autres. Dans la mesure où l'hypothèse nulle est acceptée, il sera difficile d'effectuer une analyse factorielle. Le test doit donc être significatif, avec une valeur de significativité inférieure à 0.05 pour permettre de rejeter l'hypothèse nulle. Cette validité est donc établie lorsque les réponses obtenues par différents indicateurs mesurant un même construit sont fortement corrélées entre elles (Carricano et Poujol, 2009).

Les chances de rejet de l'hypothèse nulle s'accroissent d'autant plus que la taille de l'échantillon s'accroit, ce qui ne nous garantit pas forcement des résultants excellents pour l'ACP.

Par ailleurs, il peut être utile d'écarter de l'analyse, les variables qui n'ont de corrélation avec aucune autre. Pour ce cas, nous faisons recours à l'outil supplémentaire très intéressant : la mesure d'adéquation de l'échantillonnage de Kaiser-Meyer-Olkin.

Indices Kaiser-Meyer-Olkin (KMO)

Parfois appelé MSA (Measure of Sampling Adequacy) dans le logiciel anglo-saxon, il s'agit d'une mesure de compressibilité de données. L'indice KMO s'inscrit dans le même ordre d'idée que le test de sphéricité. Telle est la question qu'on se pose : est ce qu'il est possible de trouver une factorisation intéressante de données ?

Cet indice vérifie dans quelle proportion les variables retenues forment un ensemble cohérent. L'indice KMO varie entre 0 et 1. S'il est proche de 0, les corrélations sont identiques aux corrélations brutes. Dans ce cas, une compression efficace n'est pas possible. S'il est proche de

15

1, nous aurons un excellent résumé de l'information sur les premiers axes factoriels. Une variable pertinente pour l'analyse devrait obtenir un KMO supérieur à 0.5. Kaiser (1974) propose une impressionnante échelle de valeur pour le KMO : inacceptable en dessous de 0.5 ; médiocre entre 0.5 et 0,6 ; moyen entre 0.6 et 0.7 ; bien entre 0.7 et 0.8 ; très bien entre 0.8 et 0.9 et en fin excellent au-delà de 0.9. L'indice KMO est un indice d'adéquation de solution factorielle. Une fois toutes ces analyses effectuées et leur ajustement fait, l'ACP devrait donner les résultats concluants.

Epuration de l'échelle de mesure

La procédure exige que l'on puisse commencer d'abord par les coefficients structurels, qui sont fonction de la taille de l'échantillon. Le coefficient structure lest fixé à 0.41. On procède par élimination de l'échelle de tout item dont le poids factoriel est supérieur au coefficient structurel sur plusieurs facteurs et celui qui n'a aucune contribution supérieure ou égale à 0,50 sur l'une des composantes principales identifiées. Ensuite par la Communalité : la qualité de représentation d'un item, devrait être supérieure ou égale à 0.5 (Foucart, 2006).

La fiabilité de l'échelle va être testée à partir du coefficient alpha de Cronbach. Ce dernier est un indicateur de la cohérence interne d'une échelle de mesure. Une échelle est d'autant plus fiable que son alpha de Cronbach s'approche de 1. Un alpha de Cronbach inférieur à 0,6 est considéré comme insuffisant, un alpha compris entre 0.6 et 0.65 est considéré comme faible, l'intervalle de 0.65 à 0.7 est considéré comme le minimum acceptable. Au-delà de 0.7 l'alpha de Cronbach serait élevé (Carricano et al. 2009).

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Des chercheurs qui cherchent on en trouve, des chercheurs qui trouvent, on en cherche !"   Charles de Gaulle