La force de vente strategique et les activites de l'intelligence economique : cas des pme camerounaises de transfert d'argentpar Majidou FONKOUMOUN MOUCHILI Université de Yaoundé II - Master en marketing,stratégie et management des organisations 2018 |
Tableau 7: Description des différents commerciaux interviewés
Source : recueillie auprès des commerciaux par l'auteur Il existe plusieurs méthodes de collecte des données. Le chercheur peut opter pour la combinaison de plusieurs méthodes ou opter pour le choix d'une d'entre elles. Dans le cadre de notre recherche, nous avons adopté l'utilisation des méthodes suivantes : 1) Le choix de l'entretien semi-directif :Pour conduire une étude qualitative, le choix des entretiens est de tradition. Pour Baumard et al, (1999) l'entretien «est une technique destinée à collecter dans la perspective de leur analyse, des données discursives reflétant notamment l'univers mental conscient ou inconscient des individus». L'entretien constitue donc un mode privilégié de recueil des informations. Cette technique correspond à un projet de connaissances des comportements humains et des interactions sociales à partir du discours des acteurs. L'investigateur chercheur utilise le guide d'entretien semi-directif comme un moyen privilégié permettant d'accéder aux faits, aux représentations et aux interprétations sur des circonstances vécues et connues par les acteurs. Wacheux (1996) affirme ainsi qu'en sciences de gestion, «la plupart des recherches qualitatives s'alimentent aux mots des acteurs pour comprendre les pratiques organisationnelles et les représentations des expériences». Plusieurs formes d'entretien existent, entre autres, on distingue les entretiens directifs, semi-directifs, non directifs et de groupe. Dans le cadre de notre travail, nous avons opté pour l'entretien semi-directif (ou entretien centré). Il est caractérisé de « semi-directif » notamment parce qu'il est composé d'une série de questions-guides ouvertes et centrées sur une problématique de recherche. L'entretien semi-directif permet de dialoguer avec les gens de façon très ouverte, spontanée et profonde. Cette méthode se caractérise par une interaction directe et verbale animée entre le chercheur et les interlocuteurs. Celui-ci se laissera guider par le rythme et le contenu unique de l'échange dans le but d'aborder, sur un mode qui ressemble à celui de la conversation, les thèmes généraux qu'il souhaite explorer avec le participant de la recherche. Grâce à cette interaction, une compréhension riche du phénomène à l'étude sera construite conjointement avec l'interviewé (Savoie-Zajc, 2003). A cet effet, il nous parait nécessaire de recourir à cette technique de collecte de données. Elle permet entre autre de recueillir des éléments de réflexion très riches et nuancés sur les interprétations, les perceptions et les expériences des gens (Quivy et Van Campenhoudt, 1995). Afin de réaliser les entretiens semi-directifs, il est recommandé d'établir un guide d'entretien (Thiétart, 1999). Ainsi, Evrard et al. (1997) indiquent que « le guide d'entretien comprend une liste des thèmes qui doivent être abordés dans le courant de l'entretien ». Compte tenu des informations que nous souhaitons recueillir, le guide d'entretien s'est articulé autour de cinq principaux thèmes, à savoir :le problème posé, les moyens mis en oeuvre, les résultats obtenus, les difficultés rencontrées et enfin quelques informations sur l'interviewé. Une autre méthode utilisée afin de colliger les informations nécessaires à l'élucidation de la question de recherche, est la recherche documentaire. L'utilité de cette méthode est de pouvoir accumuler des informations d'actualité grâce à diverses sources. Les sites internet, et les rapports de l'Institut National de la Statistique et du cabinet GwethMarshall sont des sources de données secondaires pertinentes que nous avons consultées dans le cadre de ce mémoire.De même, l'accès aux thèses et mémoires s'est avéré indispensable pour la circulation de la connaissance et l'évolution de la recherche.
Dans une optique de recherche qualitative, il convient alors de sélectionner sur l'ensemble, des données susceptibles d'être intéressantes. De façon générale, on distingue un type d'approche manuelle, c'est à dire sans l'aide de logiciels spécifiques d'analyses de corpus textuels ou un type d'approche automatisée. Selon Gavard-Perret et al. (2012), lorsque les deux formes d'analyses qualitatives sont réunies au sein d'une même démarche de recherche, c'est l'analyse manuelle qui sera généralement réalisée en premier. Dans le cadre notre travail de recherche, nous avons effectué les deux formes d'analyse.
Une des particularités fondamentales entre l'analyse qualitative et l'analyse quantitative provient de la richesse et de la complexité des données qualitatives par rapport aux données quantitatives (Gavard-Perret et al, 2012). Une autre distinction tient aux objectifs de recherche qui sont généralement ceux d'une recherche qualitative : comprendre en profondeur. Une approche qualitative assure notamment une vision plus globale, holistique ou systémique, à même de prendre en compte des interactions multiples et leur articulation. A ce titre, Paillié et Mucchielli (2003) parlent de l'analyse qualitative comme d'un « exercice intellectuel pour faire émerger du sens ». C'est cet exercice intellectuel, dont l'issue est incertaine et qui est souvent consommateur de temps, qui a pu faire dire à certains chercheurs que la qualité d'une analyse qualitative dépend avant tout de la perspicacité et de la finesse d'analyse du chercheur plus que de la maitrise d'une technique d'analyse spécifique.
Historiquement, au coeur des analyses qualitatives se situent l'analyse de contenu. Lasswell est généralement considéré comme le précurseur de ce courant. Au regard des avancées technologiques, mais aussi de l'essor de la linguistique. Au-delà de la pluralité des définitions, il est à noter que la définition même de l'analyse de contenu a évolué. Berelson (1952), l'un des pionniers de l'analyse de contenu affirme que c'est « une technique de recherche pour une description objective, systématique et quantitative du manifeste des communications ayant pour but de les interpréter »24(*). La définition plus complète et en même temps plus souple de l'analyse de contenu est illustrée par Bardin (2003) comme « un ensemble de techniques d'analyse des communications visant, par des procédures systématiques et objectives de descriptions du contenu des messages, à obtenir des indicateurs (quantitatifs ou non) permettant l'inférence de connaissances relatives aux conditions de production/réception (variables inférées) de ces messages ». La préparation du corpus regroupe deux types d'action : l'intervention sur le corpus et son indexation. Ø La préparation du corpus : Apres avoir effectué des interviews qui sont des sources orales, nous avons effectué la transcription de chaque interview physiquement et numériquement. Pour procéder à des comptages, regroupements...etc. Nous avons effectué quelques corrections du vocabulaire employé par les interviewés afin de s'assurer préalablement de la qualité orthographique du corpus. Les répondants qui ne respectaient pas toujours la chronologie des événements nous ont poussés à remettre en ordre les éléments du corpus pour faciliter la lecture et la comparaison, ce qui nous a amené à effectuer parfois des allers retours dans le corpus en procédant à des découpages/collage des parties mal placées (automatiquement à travers notre logiciel et manuellement grâce à un découpage manuel des documents manuels). La finalité de cette démarche est de préparer un corpus structuré sur la base de la chronologie des éléments. Ø Indexation, il a consisté à retrouver facilement une information au sein d'un document et un document au sein d'un corpus. A cette fin, nous avons étiqueté/numéroté chaque document, numéroter les pages. Par la suite, nous avons utilisé une couleur spécifique pour chaque thème pour pouvoir identifier les éléments propres au thème dispersés dans d'autres thèmes, mais aussi une couleur spécifique à nos deux objectifs de recherche afin d'identifier les éléments du corpus qui nous permettent d'y répondre. La finalité est de procéder au découpage, rapprochement, mise en relation ou en opposition, regroupement, classifications...etc. Selon Gavard-Perret et al (2012), plusieurs chercheurs distinguent généralement trois étapes dans la démarche de l'analyse de contenu à savoir : d'abord la préanalyse ; ensuite l'exploitation du matériel et enfin le traitement des résultats, l'inférence et l'interprétation. La phase de pré analyse a consisté à une lecture « flottante ». L'objectif est de préparer l'analyse proprement parlé. Il est question donc de décider ou de repérer un certain nombre d'indices et d'indicateurs permettant de caractériser un élément (qui peut être une question), un thème ou alors des éléments qui permettent de répondre aux questions de recherche. La finalité d'une telle démarche est de parvenir à déterminer les règles de découpage du corpus, puis de catégorisation et de codage des unités constituées (questions, thèmes, propositions de recherche). A ce niveau, une certaine confusion règne parfois dans les propos des auteurs sur ce qu'ils entendent exactement par catégorisation et/ou sur la position de la catégorisation ou codage. Quelque soient les termes utilisés, la démarche de préparation de l'affectation des unités dans les catégories pertinentes passe préalablement par l'identification et la définition des catégories pertinentes d'une part et la détermination par rapport à ces catégories, des modalités du codage des données. La phase d'exploitation du matériel a consisté à appliquer sur le corpus à des fins d'analyse des règles définies lors de l'étape précédente. Elle doit aboutir au codage et éventuellement au comptage des données et à leur énumération et classification. C'est à ce niveau que nous allons affecter les éléments du corpus aux catégories identifiées précédemment et procéder ensuite aux décomptes. Le traitement des résultats, l'inférence et l'interprétation, il est question d'effectuer des simples calculs de fréquence des mots qui apparaissent dans le discours des interrogés, des analyses factorielles, la génération des graphes de relations entre les concepts (grâce aux logiciels Microsoft Excel 2007 et Nvivo 2010), des matrices permettant de combiner les catégories aux diagrammes de causalité, etc., tous les modes de présentation des données susceptibles de faciliter le travail d'analyse et l'émergence de conclusions envisageables. Ils doivent aussi permettre de dépasser le strict cadre de la structure textuelle qui est celle du corpus. Selon Bardin (2003), « le codage est une transformation effectuée selon les règles précises des données brutes du texte ». Il est donc nécessaire de définir préalablement les règles de découpage du corpus. Dans notre cas, nous avons effectué le codage en fonction des thèmes et des questions qui y correspondent ainsi que les indicateurs (catégories) qui y sont associées, ensuite nous avons défini un système organisé de catégories présenté sous forme de grille de codage qui nous permettra enfin de coder le corpus c'est-à-dire d'affecter à chacune des unités considérées. Paillé et Mucchielli (2003) permettent de distinguer les types d'annotation et classifications opérés sur les données. Elle s'appuie sur les notions clés d'énoncé, rubrique et catégorie. La catégorie permet d'avoir une idée de contenu de l'extrait concerné. Ces catégories peuvent être plus ou moins fortement inspirées par la littérature existante. Il existe plusieurs types de codage, le codage selon le concept, le codage ciblé et le codage ouvert ou induction totale. Dans le cadre de notre recherche, nous avons utilisé le codage ciblé qui consiste à établir le code avant le codage et en fonction de notre guide d'entretien de manière à bien balayer l'ensemble des thèmes abordés à propos de notre question de recherche. Aussi, les recherches des données dans le corpus vont dont se rapporter aux codes préétablis mais on peut ajouter les codes durant le codage de manière à enrichir les données recueillies. Ø La codification est la suivante : (T) indique le Thème, (Q) indique la question (C) indique la catégorie ou l'indicateur et la numérotation 1, 2, 3, 4, 5, 6,7,....correspond au classement de T, Q, C. Exemple : le code T1Q1C-1 correspond la catégorie numéro 1 de la question 1 du thème 1. La cote : (1) renvoie à toute catégorie évoquée par le répondant. (0) signifie que cette catégorie n'a pas été évoquée par cet interlocuteur. Par la suite, il faut calculer à partir des cotes données à chaque catégorie une moyenne de 0 à 44,4% représente une opinion faible sur la rubrique, une moyenne de 44,5% à 100% représente une forte opinion sur la catégorie. Ø Présentation des thèmes suivant le guide d'entretien Notre guide d'entretien comporte cinq (5) : - Le problème posé - Les moyens mis en oeuvre - Les résultats obtenus - Les difficultés rencontrées - Quelques informations sur l'interviewé
Un logiciel d'analyse des données textuelles peut constituer une aide non négligeable pour plus rapidement et plus systématiquement, catégoriser des données textuelles, les mettre en relation ou les relier à des données de contexte. La quantification et la statistique peuvent également apparaitre comme le moyen d'apporter plus de rigueur et d'objectivité aux traitements appliqués aux données. Cependant, il convient de soulever les apports et les avantages d'une analyse automatisée. En effet, d'une part, elle ne dispose pas d'une prise de connaissance du corpus par une ou plusieurs lectures et, d'autre part, sa mise en oeuvre n'est pas toujours aisée. Ainsi, elle fait gagner du temps dans les quantifications, le calcul des statistiques et la constitution de tableaux et graphiques, elle est beaucoup moins facile et rapide à mettre en oeuvre, notamment pour le jeune chercheur afin à mener à bien une analyse de contenu automatisé a) Principes et objectifs généraux de l'analyse textuelle automatisée L'objectif est, par le biais des calculs de fréquence, de faire apparaitre les mots les plus utilisés de manière à accéder rapidement au contenu du corpus. Le logiciel va souligner les répétitions des mots, les co-occurrentes de mots, les expressions qui reviennent de manière récurrente, les mots ou expression qui, au contraire, semblent spécifiques à des individus, à des thèmes ou à des situations de communication particulières, les mots rares et originaux, des formules dont le sens est identique mais qui sont exprimés au travers des mots différents, etc. Passer par le lexique permet de réduire sensiblement le volume de donnes à examiner et fait donc gagner du temps, en particulier lorsque l'on a affaire à des corpus riches, complexes mais également très répétitifs comme dans le cadre d'entretiens. b) L'analyse du texte avec NVivo 10 L'analyse de texte est un type particulier d'analyse de contenu qui cherche la composition lexicale d'une ou plusieurs sources de données. Cette analyse implique la recherche d'informations, la fréquence lexicale, la reconnaissance des formes, l'analyse de l'association et les techniques de l'extraction de données. Afin de réaliser l'analyse du texte, NVivo 10 procède à l'extraction de l'information et l'analyse lexicale. L'extraction de l'information nous permettra notamment de produire des statistiques descriptives par noeuds, par caractéristiques ou attributs, en précisant les fréquences. Le texte est toujours qualificatif et pour réaliser l'analyse de contenu par identification des thèmes, on doit créer des données comptables à partir du texte. Le cadre professionnel est analysé sous l'angle des conditions de travail, de l'organisation de l'environnement de travail et de la situation de stress. Un noeud parent ou catégorie principale est créé pour chacun d'eux. Une requête peut donc être exécutée pour en extraite des informations. Bazeley et Jackson affirment que cette recherche localise des mots ou des expressions spécifiques dans la base de données. C'est donc, afin de trouver les termes clés, après avoir fait la requête de texte et codé la partie correspondante, que j'ai fait les tableaux pour tous les codes dans le corpus. Étant donné que chaque noeud réserve toutes les parties codées pour chaque thème, cette visualisation me permet de trouver les structures de données en ce qui concerne la proportion du corpus qui a été codée pour chaque noeud, ce qui représente chaque thème principal. Conclusion du chapitre L'objectif de ce troisième chapitre était de présenter la situation de la PME camerounaise dans un contexte de globalisation et d'expliquer le choix de la méthodologie et du processus de pilotage de la recherche. Afin de réaliser cette ambition, ce travail a été organisé autour de deux articulations qui ont constitué les deux sections de ce chapitre. La première articulation a consisté de situer la PME camerounaise dans son environnement et justifier le choix des PME camerounaises de transfert d'argent tout donnant quelques informations sur les différentes entreprises choisies. La seconde section était structurée autour du choix d'une position méthodologique, les raisons du choix de l'approche méthodologique qualitative inductive, la stratégie de recherche, les outils de collecte de données et du choix de l'analyse de contenu comme technique spécifique d'analyse des données qualitatives. * 24 Traduction proposée par Bardin |
|