WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Amélioration du système de séchage artificiel des fèves de cacao dans les régions à  forte pluviométrie au Cameroun : cas du bassin de production du sud-ouest.


par Ignace Christian Bagnaka
Institut panafricain pour le développement Afrique centrale (IPD-AC) - Master 2 2017
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

IV. OBJECTIFS DE L'ÉTUDE

L'objectif principal de cette recherche est de démontrer l'influence de l'amélioration du système de séchage artificiel sur la qualité des fèves de cacao.

De cet objectif principal, découlent deux objectifs spécifiques (OS) à savoir :

OS1 : « Démontrer que les séchoirs SAMOA sont défaillants et peuvent être améliorés »

OS2 : « Démontrer qu'il y a une nécessité d'accompagner les producteurs pendant le séchage des fèves de cacao ».

V. HYPOTHÈSES DE RECHERCHE

L'hypothèse principale de recherche est : « L'amélioration du système de séchage artificiel des fèves de cacao contribue à améliorer la qualité de celles-ci ».

De cette hypothèse principale se déclinent deux hypothèses secondaires (H) qui sont les suivantes :

H1 : « Les séchoirs SAMOA présentent des défauts de fabrication qui peuvent être corrigés ».

H2 : « L'accompagnement des producteurs dans le procédé de séchage artificiel est nécécessaire pour améliorer la qualité des fèves de cacao ».

VI. REVUE DE LA LITTÉRATURE

Notre thème porte sur le domaine de recherche de la qualité en général et particulièrement sur l'optimisation des processus qui est un pan de l'amélioration continue. C'est dans cette partie de la qualité que notre recherche va se circonscrire.

Le monde vit de plus en plus de fortes mutations dans tous les secteurs d'activités. Notre société devient de plus en plus exigeante sur la qualité des produits et des services, gage de la pérennisation et la fidélisation d'un partenariat. Cet état de chose anime la concurrence et par ricochet la compétitivité. Dans ce contexte concurrentiel, chaque entreprise met tout en oeuvre pour sortir du lot en proposant des produits innovants et un service additif, le tout à des prix attractifs.

En 2006, Margerand et Gillet-Goinard expliquent qu'en période de forte concurrence et de forte compétitivité, la qualité délivrée des produits et des services devient une nécessité : vendre c'est bien ; vendre en ayant la garantie que le client sera satisfait c'est mieux ! Une démarche qualité doit apporter à l'entreprise une réelle valeur ajoutée. Cette valeur ajoutée est la garantie de la satisfaction de ses clients et un atout dans la recherche de la ?délisation. La démarche qualité ne s'inscrit plus comme avant dans une simple relation client et fournisseur. Aujourd'hui, à cause de la forte concurrence, au-delà de la satisfaction des clients, on vise créer une relation durable avec ces derniers, dits clients stratégiques. À partir de cette analyse, la qualité donc serait l'aptitude d'un produit ou d'un service à satisfaire les exigences du client.

Briol (2008) précise que la recherche effrénée de la satisfaction du client à moindre effort n'exclue pas la production de la valeur ajoutée pour les actionnaires et les employés de l'organisation. Pour arriver à une satisfaction globale de toutes les parties prenantes, il convient de passer d'une production artisanale à une production industrielle.

Pour y parvenir, il convient de refondre l'organisation et l'adapter à cette nouvelle migration de la production.

De par son ouvrage « Recherches sur la nature et les causes de la richesse des nations », Adam Smith7(*) (1776) qui est considéré comme le pionnier de la division du travail décompose les processus en tâches essentielles, celles-ci sont affectées à un individu chargé de les exécuter de manières répétitives. Les premières applications de cette théorie ont trouvé un succès au début de la révolution industrielle.

Plane, (2013) rappelle que la théorie de Adam Smith est davantage exploitée et développée entre 1900 et 1930. La révolution industrielle amorcée au XVIIIe siècle et la concentration des moyens de production favorisent l'émergence de nouvelles formes de production. Le secteur industriel attire une main-d'oeuvre agricole nombreuse, peu adaptée à la production technique qu'il va falloir intégrer. Dans ce contexte l'école classique se développe à travers deux visions. Celle de l'inspiration managériale dite approche scientifique avec Frederick Winslow Taylor8(*) et Henri Fayol9(*) et celle des théories sur la bureaucratie avec le sociologue Max Weber10(*).

Gareth, (1999) présente la contribution de l'application de l'approche de F.W Taylor et de H. Fayol sur l'amélioration de la productivité et l'efficacité en usine, aussi la mise en place d'une rémunération des ouvriers en fonction de leur rendement, facilitant l'analyse du travail scientifique en soi. L'approche de la Max Weber quant à elle prône entre autres, la formation appropriée du personnel, l'utilisation efficiente des ouvriers et de la normalisation des comportements au travail.

Toutefois, il en ressort que l'approche scientifique présente des limites telles que l'exploitation des ouvriers et le mépris de leur épanouissement social. Il en est de même pour l'approche de la bureaucratie où on constate également des faiblesses. La structure organisationnelle est rigide avec une concentration de pouvoir. Ce qui entraîne un mode de gestion autoritaire ( https://fr.scribd.com/doc/48690537/Les-limites-du-taylorisme; https://fr.scribd.com/doc/7181495/Expose-Ecole-Classique).

Partant des principes de l'organisation scientifique du travail (OST) et de leurs limites, Henry Ford11(*) élabore un modèle éponyme de production appelé "Le Fordisme" ou travail à la chaîne. Ford applique les OST tout en améliorant les revenus des ouvriers. Nonobstant, le Fordisme renforce la déqualification du salarié et standardise la production afin d'imposer une consommation de masse. (Briol, 2008)

La rigidité de cette approche par rapport à l'évolution de la demande conduit à une crise économique et sociale de l'organisation scientifique du travail en particulier en raison de la concurrence des entreprises nippones, fonctionnant selon le Toyotisme qui offre une flexibilité en diversifiant l'offre et en améliorant l'outil de production. (Mansencal et Michel, 2010 ; http://www.jseco22.blog.lemonde.fr/files/2014/01/Il-y-a-100-ans-le-fordisme.pdf)

Développé à partir de 1961 par Eiji Toyoda12(*) et Taiichi Ohno13(*), le toyotisme encore appelé lean management en occident est fondé sur l'amélioration continue ou Kaizen. Cette méthode a deux concepts, celui de la production en flux tendu (ou le « Juste à temps ») dont le Kanban est l'un des mécanismes et celui de la production par l'automatisation (Jidoka).

Le cabinet XL Groupe (2003), dans son dossier spécial « Lean Management » souligne que ces principes poursuivent trois objectifs :

· Accroître la valeur créée pour le client ;

· Améliorer les performances de l'entreprise ;

· Prendre en compte les besoins des collaborateurs.

Pour atteindre ces objectifs, cette approche cherche à éliminer les « 3M » :

· Muda ou les gaspillages (surproduction, attentes, transport, étapes inutiles, stocks, mouvements inutiles, corrections ou retouches) ;

· Muri (les excès) ;

· Mura (la variabilité).

En termes d'illustration de Muda, Kokou et Ngo-Sammick (2014) recommandent de s'assurer en amont que les fèves de cacao soient bien fermentées suivant les normes exigibles avant le début du séchage. Ceci va permettre d'amoindrir la variabilité ou Mura après le séchage. Amani (2014) évoque un Mura manifeste dans le domaine du séchage thermique du cacao, traduit par les fèves moisies ou ardoisées du fait du non-respect des prescriptions du procédé de séchage.

De façon synthétique, Chiarini (tel que cité par Jasmin, 2013) explique que le Lean est une approche qui se propose de réduire le temps de traitement des processus par l'élimination des étapes sans valeur ajoutée pour le client, ce qui permet par le fait même de réduire les coûts de production.

Une dégradation des conditions de travail dans une entreprise introduisant des méthodes Lean peut être due à un mauvais choix des outils ou à une adaptation insuffisante au modèle de l'organisation. Par exemple dans le secteur public le Lean management a du mal à être appliqué simplement parce que trop concentré sur l'efficience interne plutôt que sur la satisfaction des bénéficiaires. Des  inconvénients de cette méthode sont soulignés également par des ergonomes, des   psychologues et des spécialistes du travail, qui alertent sur le fait que la recherche poussée du profit par la réduction des gaspillages peut aussi être une source de stress excessif des travailleurs donc dangereux pour leur santé. Un autre phénomène constaté est l'apparition des troubles musculosquelettiques sur les ouvriers. https://fr.wikipedia.org/wiki/Lean_(production).

Une autre limite du Lean est évoquée par Marris (2010) qui estime que les résultats escomptés après la mise en oeuvre du Lean management sont inscrits dans le temps et la patience. Il arrive que les résultats obtenus se transforment souvent en pure réduction des coûts souvent assortis de licenciement du personnel.

Moen et Norman (2012), nous font la genèse du Lean Management en affirmant que ce dernier tire ses origines des travaux de Walter A. Shewhart14(*) avec son triptyque Spécification-Production-Inspection (Do-Study-Act en anglais). Sa théorie appliquée à l'usine de Western Electric en 1930 permet d'éliminer les défauts en cherchant les causes.

Chardonnet et Thibaudon (2003), soutiennent qu'en 1950, William Edwards Deming15(*) modifie légèrement ce cycle. Les japonais l'appellent « la Roue de Deming ». Le cycle de Deming montre comment appliquer les principes de la démarche qualité dans le but de respecter les exigences d'un produit ou d'un service. Il concerne tous les domaines de l'entreprise (productifs et non productifs).

La position de la roue sur une pente fait d'elle un outil d'amélioration continue. Le cycle se compose de quatre phases, chacun entraînant l'autre, et vise à établir un  cercle vertueux:

· La phase « Plan » ou planification: consiste à planifier la réalisation;

· La phase « Do » ou réalisation: construction, le développement, la réalisation de l'oeuvre;

· La phase « Check » ou vérification : elle doit, se conformer aux processus définis en amont;

· La phase « Act » ou modifier ou encore ajuster est l'action correctrice et innovatrice.

Pour améliorer les performances des entreprises industrielles plus rapidement en termes de production tout en maîtrisant les coûts, les dirigent d'entreprises vont faire recours à une méthode révolutionnaire appelée Six Sigma, initiée aux États-Unis en 1986 chez Motorola. Cette démarche a tout d'abord consisté en l'application des concepts de la maîtrise statistique de processus et s'est ensuite largement étoffée en intégrant tous les aspects de la maîtrise des variabilités :

· Les variabilités sur les matériaux ;

· Les variabilités dans les procédures ;

· Les variabilités sur les conditions dans lesquelles évolue le processus.

De manière empirique, les variabilités dans le procédé de séchage artificielle du cacao se caractérisent par une forte acidité, un goût fruité des fèves et l'odeur de fumée dans les fèves (Jacquet et al.,1980 ; PRSC, 2014).

Mikel J. Harry16(*) et William Bill Smith Jr.17(*), définissent les bases de Six Sigma chez Motorola en s'appuyant sur la philosophie de  William Edwards Deming. Il propose d'analyser les instabilités du processus de fabrication à l'aide des  outils statistiques et donne la priorité à l' amélioration continue. Dès lors, Motorola décide d'utiliser cette méthode pour tous ses projets. Au fur et à mesure de sa diffusion dans les autres entreprises notamment General Electric en 1990 où elle devient célèbre sous l'égide de son président de l'époque de Jack Welsh. Le Six Sigma s'est également structuré en associant davantage à sa démarche les éléments managériaux et stratégiques (Gabert et al., 2015).

La lettre grecque « Sigma » représente à l'origine une unité de mesure statistique qui définit la variabilité ou la dispersion de données. Par extension, plus le « Sigma » d'un processus est élevé, plus les éléments sortants du processus (produits ou services) satisfont les besoins du client, et plus les défauts de ce processus sont rares. Sigma est une philosophie d'amélioration de la qualité fondée sur les faits et les données, pour laquelle la prévention des défauts prévaut sur leur détection. Le Six Sigma trouve une application partout où la variation et les gaspillages existent, et tous les employés doivent être impliqués. Une performance de qualité Six Sigma représente seulement 3,4 défauts par million d'opportunités (Volck, 2009).

Briol (2008) argue comment l'approche Six Sigma s'exécute suivant deux méthodes, chacune d'elle se déclinant en cinq étapes. La première se contracte sous l'acronyme en langue anglaise « DMAIC » : Define, Measure, Analyse, Improve. Elle s'applique sur l'amélioration des processus existants. La seconde méthode qui se contracte en « DMADV » pour « Définir, Mesurer, Analyser, Développer et Vérifier », permet d'élaborer des nouveaux processus. Chaque étape du DMAIC possède des outils différents qui sont regroupés dans une démarche cohérente. Lorsqu'un processus ne peut être amélioré alors qu'il ne répond plus aux attentes du client, Six Sigma se décline aussi en méthodes de création de nouveaux processus ou de nouveaux produits sous le nom de DFSS (Design For Six Sigma).

Outre le succès de cette approche chez Motorola, Jasmin (2013) affirme que l'universalité des principes de l'approche Six Sigma n'est pas effective ce qui constitue une limite. Aussi une trop grande confiance envers les données peut s'avérer une faiblesse puisque la mauvaise qualité peut être retrouvée dans les données elles-mêmes. À partir de ce qui précède, Pillet (2004) estime que la méthode Six Sigma et la méthode Lean Management sont complémentaires. Pendant que le Lean Management permet une production massive avec une faible qualité, le Six Sigma va produire avec une qualité élevée, mais avec beaucoup moins de non-valeur ajoutée. Donc en combinant les deux méthodes dans un processus, on obtient une autre approche hybride dite Lean Six Sigma dont en fin de processus on apprécie une production de qualité à faible coût.

Marris (2012) présente une autre approche de gestion de la qualité dénommée la Théorie des contraintes ou TOC (Theory of constraints). La TOC est applicable à tous les processus métier et projets. Cette méthode est développée par Eliyahu M. Goldratt18(*) au début des années 1970 avec pour objectif de bâtir progressivement une théorie du management induite par l'accumulation de faits issus d'observations ou d'expériences. Partant du postulat que désormais toutes les organisations sont déséquilibrées. À tout moment, il y a des ressources surchargées, les goulots ou contraintes et des non-goulots. Les règles de gestion doivent être repensées en conséquence.

Dans son ouvrage « Le But » sorti en 1984, Goldratt présente la solution TOC dans une usine, en montrant comment se focaliser sur la contrainte qui existe dans tout système de ressources interdépendantes et en mesurant la performance réalisée à partir de trois indicateurs d'évaluation: le « Throughput »: le rythme auquel le système génère de l'argent par les ventes, l' « Inventory »: tout l'argent que le système a investi pour acheter des choses qu'il a l'intention de vendre et les « Operating Expenses » : tout l'argent que le système dépense pour transformer l' « Inventory » en Ventes (Briol, 2008) .

En mode projet, Goldratt (1997) dans son ouvrage Critical Chain souligne les dérives comportementales les plus fréquentes. Il constate que la loi dite de Cyril Northcote Parkinson (1909-1993) se manifeste dans l'exécution des projets avec acuité rendant impossible le respect du triptyque délais, coût et qualité. Il s'agit de la surévaluation des marges de sécurité temps attribuées à chaque tâche, le démarrage des travaux au dernier moment, ou encore à l'utilisation de toute la durée prévue d'une tâche même si le temps effectif de réalisation en est bien inférieur (Gaspoz, 2005 ; Jaeck , 2014).

Pour pallier ce fléau, Jaeck (2014) expose dans sa thèse sur deux modifications à la méthode couramment admise du chemin critique. En premier lieu, le délai pour terminer un projet n'est plus seulement basé sur la longueur des tâches séquentielles, mais sur la chaîne la plus longue de tâches en tenant compte de la rareté des ressources d'organisation, appelée chaîne critique. De plus la TOC suggère une gestion des incertitudes au niveau global du projet plutôt qu'au niveau local de chacune des tâches. Pour Marris (2010), une bonne efficacité de la TOC dépend de sa combinaison avec le Lean management. On aura d'un côté l'approche Lean qui chasse les gaspillages et l'approche TOC avec sa technique Tambour - Tampons - Corde (ou « Drum - Buffer - Rope » en anglais) qui identifie les contraintes sur lesquelles agir pour accroître le chiffre d'affaires. Ainsi la conjugaison des deux approches permet d'atteindre un cercle vertueux par lequel l'entreprise devient continuellement plus efficace. (Qualitique n°219, 2010).

Certaines organisations utilisent d'autres approches hybrides, plus ressentes, toujours dans la recherche des complémentarités plutôt que des différences, une méthode dite TLS (TOC + Lean + Six Sigma) a vu le jour en mars 2006 grâce à la revue de l'APICS (American Production and Inventory Society) sous le titre :

- Continuous Improvement Trio: The top elements of TOC, lean and six sigma make beautiful music together par Russ Pirasteh & Kimberly Farah.

Il s'agit d'une juxtaposition des points forts de toutes les méthodes sus-présentées créant ainsi un système redoutable. (Marris, 2012) :

La course vers le développement de toutes ces méthodes et la volonté de les combiner pour optimiser davantage les processus fait suite à l'échec de la méthode BPR (Business Process Reengineering) apparue au début des années 1990. Bien que la méthode offre des effets bénéfiques d'une part, elle engendre d'autre part un autre registre de difficultés qui plongent les entreprises dans des gouffres financiers. Initialement, elle préconisait une restructuration des organisations en agissant surtout sur la technologie afin de les adapter aux mutations exponentielles de l'époque (Jasmin, 2013). Hammer (tel que cité dans Jasmin, 2013) estime que les améliorations incrémentales proposées par les autres méthodes sont néfastes parce que trop lentes et insuffisantes pour que les entreprises demeurent performantes et compétitives. Le BPR va agir sur les processus plutôt que sur les fonctions. Monard (2005) parle de réorganisation fondamentale et de modernisation radicale des processus organisationnels en vue de réaliser une amélioration exceptionnelle des prestations. En bref BPR, est un terme technique désignant un projet d'amélioration ou un projet de modernisation.

Son fondateur Hammer19(*) (1993) affirme: « Ce n'est pas un remède minute pour les entreprises. Ce n'est pas un nouveau truc pour accroître miraculeusement la qualité d'un produit ou service, ou pour éliminer certains coûts. Le Reengineering n'est pas un programme de motivation des travailleurs ou de stimulation de la force de vente. Il ne fera pas travailler plus vite un vieux système informatique. Il n'est pas un bricolage de quoi que ce soit. Le Reengineering signifie tout reprendre, tout reprendre depuis le début ».

Toutefois, le Reengineering est adapté aux processus métiers à savoir les processus de management ou pilotage, les processus de réalisation et les processus support. Une autre catégorie de processus est ajoutée aux trois premiers, les processus de mesure qui permettent de mesurer les résultats obtenus. Ceci crée une restriction de l'applicabilité du BPR qui reste inadapté dans une organisation fonctionnant en mode projet. ( Https://www.faq-logistique.com/BPR.htm).

La recension des écrits nous ont permis de partir de la genèse de la qualité, de présenter son évolution par des courants de pensées fiables et adaptés pour chaque époque en fonction de la typologie de l'organisation. Désormais, il ne s'agit plus de l'applicabilité de tel ou tel autre méthode, mais il convient d'optimiser les processus afin de les adapter à des organisations fussent-elles de production ou de service dans le secteur privé ou public.

La présente revue de la littérature nous permet de faire le tour d'horizon des méthodes de gestion de la qualité les plus en vue. Elle nous a permis de cerner les forces et faibles de chaque approche, de circonscrire le champ d'étude de chaque auteur et de frayer un intervalle pour une contribution personnelle. Dans le cadre de notre travail nous allons exploiter la méthode hybride Lean Six Sigma pour guider notre recherche.

* 7 Adam Smith, ( 1723 -  1790) est un  philosophe et  économiste écossais considéré comme le père des  sciences économiques modernes.

* 8 Frederick Winslow Taylor, ( 18561915) est un ingénieur américain, promoteur le plus connu de l' organisation scientifique du travail

* 9 Henri Fayol, (1841-1925) est un  ingénieur civil des mines  français, un des pionniers de la gestion d'entreprise

* 10 Max Weber (1864-1920) est un  économiste et  sociologue  allemand originellement formé en droit

* 11 Henry Ford, (1863-1947) est un industriel de la première moitié du 20e siècle et le fondateur du constructeur automobile  Ford.

* 12 Eiji Toyoda (1913-1993) est un industriel japonais, cousin et collaborateur de  Kiichiro Toyoda ( 1894-1952) lui même fils de  Sakichi Toyoda ( 1867-1930), fondateur du groupe japonais  Toyota.

* 13 Taiichi Ohno (1912-1990) est un  ingénieur industriel japonais. Il est considéré comme le père du système de production de  Toyota

* 14 Walter A. Shewhart (1891-1967) est un physicien et statisticien américain, considéré comme le père de l'assurance qualité.

* 15 William Edwards Deming (1900-1993) est un  statisticien, professeur d'université, auteur et consultant américain.

* 16 Mikel J. Harry (1951-2017) Ingénieur chez Motorola

* 17 William Bill Smith Jr, (1929-1993) Ingénieur chez Motorola

* 18 Eliyahu M. Goldratt, (1947-2011) est un  consultant  israélien, physicien de formation

* 19 Michael Martin Hammer (1948-2008) était un ingénieur américain, auteur de gestion et ancien professeur d'informatique au  Massachusetts Institute of Technology (MIT), connu comme l'un des fondateurs avec   James A. Champy (né en 1942) de la théorie de la  gestion des  processus d'affaires. La réingénierie (BPR)

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'ignorant affirme, le savant doute, le sage réfléchit"   Aristote