992 resultados para Analyse Structurelle
Resumo:
Jésus de Nazareth accordait beaucoup d’importance à la commensalité, au point de faire du repas en commun le contexte particulier du double geste sur le pain et le vin accompli à la dernière Cène. Après avoir été réitéré dans son contexte d’origine par plusieurs générations de chrétiens, le rappel de la Cène s’est ensuite complètement dissocié du contexte d’un repas. Le terme koinwnia utilisé au verset 2,42 du livre des Actes des apôtres désigne-t-il ce repas communautaire autour duquel se déroulaient les rassemblements chrétiens? Grâce à une analyse structurelle réalisée en entonnoir sur les chapitres 2 à 5 du livre des Actes, le présent mémoire met en relief l’importance des repas communautaires dans la vie de la communauté primitive, tout en montrant que le terme koinwnia a un sens plus étendu que le seul repas en commun, mais tout aussi concret et actif que les trois autres éléments énumérés au verset 2,42.
Resumo:
Le récit de la Pentecôte (Actes des Apôtres 2) présente au lecteur un élément particulier qui se retrouve rarement dans le canon biblique : les « langues comme de feu ». Seuls les passages d’Isaïe 5,24 et Actes 2,3 utilisent cette expression; pourtant, leurs contextes diffèrent largement. Nous trouvons certains commentaires rabbiniques et fragments de rouleaux de la Mer Morte qui emploient cette même expression, et la littérature gréco-romaine utilise une image similaire où un feu divin se pose sur la tête de certains personnages. Puisque la fonction de cet élément diffère d’un ouvrage littéraire à un autre, comment devons-nous interpréter les langues de feu dans le récit de la Pentecôte? Les commentaires bibliques qui examinent cet élément proposent différentes hypothèses sur la symbolique des langues de feu. Afin de répondre à cette problématique, nous commencerons notre étude avec une présentation sur l’état de la question et des approches synchroniques utilisées. Nous présenterons ensuite l’analyse structurelle du récit de la Pentecôte afin de percevoir la place que notre expression occupe dans cette péricope. Au chapitre trois, nous ferons une analyse grammaticale de notre segment afin de voir la fonction grammaticale de l’expression, et présenter une recension des ouvrages hébraïques et gréco-romains qui utilisent cette expression ou une image similaire. Enfin, l’analyse philologique des termes γλῶσσα et πῦρ sera élaborée et comparée à l’utilisation retrouvée dans le livre des Actes des Apôtres. Subséquemment, nous serons en mesure de porter un regard critique sur quelques interprétations proposées afin de percevoir que la mise en réseau structurel du membre γλῶσσαι ὡσεὶ πυρός, avec les termes répétitifs et synonymiques du récit, nous orientent à percevoir l’accomplissement de la promesse du Saint-Esprit, qui à son tour habilite le croyant à réaliser la mission donnée : la proclamation du message christologique à toutes les ethnies.
Resumo:
Le récit de la Pentecôte (Actes des Apôtres 2) présente au lecteur un élément particulier qui se retrouve rarement dans le canon biblique : les « langues comme de feu ». Seuls les passages d’Isaïe 5,24 et Actes 2,3 utilisent cette expression; pourtant, leurs contextes diffèrent largement. Nous trouvons certains commentaires rabbiniques et fragments de rouleaux de la Mer Morte qui emploient cette même expression, et la littérature gréco-romaine utilise une image similaire où un feu divin se pose sur la tête de certains personnages. Puisque la fonction de cet élément diffère d’un ouvrage littéraire à un autre, comment devons-nous interpréter les langues de feu dans le récit de la Pentecôte? Les commentaires bibliques qui examinent cet élément proposent différentes hypothèses sur la symbolique des langues de feu. Afin de répondre à cette problématique, nous commencerons notre étude avec une présentation sur l’état de la question et des approches synchroniques utilisées. Nous présenterons ensuite l’analyse structurelle du récit de la Pentecôte afin de percevoir la place que notre expression occupe dans cette péricope. Au chapitre trois, nous ferons une analyse grammaticale de notre segment afin de voir la fonction grammaticale de l’expression, et présenter une recension des ouvrages hébraïques et gréco-romains qui utilisent cette expression ou une image similaire. Enfin, l’analyse philologique des termes γλῶσσα et πῦρ sera élaborée et comparée à l’utilisation retrouvée dans le livre des Actes des Apôtres. Subséquemment, nous serons en mesure de porter un regard critique sur quelques interprétations proposées afin de percevoir que la mise en réseau structurel du membre γλῶσσαι ὡσεὶ πυρός, avec les termes répétitifs et synonymiques du récit, nous orientent à percevoir l’accomplissement de la promesse du Saint-Esprit, qui à son tour habilite le croyant à réaliser la mission donnée : la proclamation du message christologique à toutes les ethnies.
Resumo:
À cause de son langage symbolique et de l’absence d’une trame narrative bien dessinée, l’Apocalypse de Jean constitue un gros défi pour l’exégèse, d’autant plus que ce livre réutilise un important matériel vétérotestamentaire mais sans jamais faire de citations explicites. La présente recherche se propose de traiter le chapitre 19 comme une unité littéraire significative à l’intérieur de ce livre complexe, même s’il ne montre ni un récit suivi ni une parfaite cohérence sur le plan narratif, présentant même des discordances avec d’autres parties du livre. Par contre, sur le plan théologique, un discours cohérent et significatif s’en dégage lorsqu’on joint à l’analyse narrative une analyse structurelle. La combinaison de ces deux méthodes synchroniques permet d’exposer des parallélismes frappants et de décrire une intrigue qui traite de l’accomplissement inéluctable de la justice divine, symbolisée par le contraste entre deux grands banquets, l’un festif et l’autre macabre. Enfin, cette recherche préserve le caractère évocateur des symboles et préconise une lecture ironique pour certains passages.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Homenaje a Georges Laplace, realizado en Vitoria-Gasteiz el 13,14 y 15 de noviembre de 2012. Edición a cargo de Aitor Calvo, Aitor Sánchez, Maite García-Rojas y Mónica Alonso-Eguíluz.
Resumo:
Homenaje a Georges Laplace, realizado en Vitoria-Gasteiz el 13,14 y 15 de noviembre de 2012. Edición a cargo de Aitor Calvo, Aitor Sánchez, Maite García-Rojas y Mónica Alonso-Eguíluz.
Resumo:
Homenaje a Georges Laplace, realizado en Vitoria-Gasteiz el 13,14 y 15 de noviembre de 2012. Edición a cargo de Aitor Calvo, Aitor Sánchez, Maite García-Rojas y Mónica Alonso-Eguíluz.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Pour respecter les droits d’auteur, la version électronique de cette thèse a été dépouillée de certains documents visuels et audio-visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Notre étude porte sur la manière dont les chercheurs universitaires junior et senior en sciences sociales au Québec établissent leurs réseaux de cosignataires et donnent une interprétation discursive à leurs activités de collaboration face à l'impact du changement institutionnel universitaire pendant la période 1990-2009. Plus spécifiquement, notre recherche s'intéresse à montrer que la création des réseaux et la collaboration scientifique par cosignature peuvent être identifiées comme des « ajustements professionnels » et se présenter aussi comme une ressource du capital social qui peut être mobilisé et qui peut produire des avantages aux chercheurs en accord avec leur statut junior ou senior. Il s’agit donc d’une recherche qui relève de la sociologie des sciences. Notre approche a été opérationnalisée à partir de l'étude de 15 membres d'un centre de recherche universitaire au Québec, et leur réseau de 447 cosignataires (y compris les chercheurs de l'étude), et à travers l'application de 7 entretiens auprès de chercheurs junior et senior du même centre. Dans le même plan opérationnel, depuis une perspective qualitative, la thèse permet d'identifier le sens discursif que les chercheurs fournissent à la collaboration et à la participation en réseaux de cosignatures. Ensuite, depuis l'analyse structurelle des réseaux, notre étude montre les connexions individuelles et leurs formes d'interprétation — spécialement la théorie des graphes et ses mesures de centralité (la centralité de degré, la centralité d’intermédiarité et la centralité de vecteur propre) — de même que l'homophilie par statut entre chercheurs. Enfin, depuis l'analyse statistique, elle montre la corrélation des périodes de l'étude et des attributs socioprofessionnels des chercheurs étudiés (sexe, statut universitaire, affiliation institutionnelle, discipline d’appartenance, pays, région du Canada et ville de travail). Notamment, les résultats de notre thèse montrent que chaque catégorie de chercheurs possède ses propres particularités structurelles et discursives en ce qui a trait à ses pratiques de collaboration en réseau, et vont confirmer que les chercheurs senior, plus que les chercheurs junior, grâce à leur capital social mobilisé, ont conservé et obtenu plus d'avantages de leur réseau de cosignataires afin de s'adapter au changement institutionnel et mieux gérer leur travail de collaboration destiné à l’espace international, mais surtout à l'espace local.
Resumo:
La goutte et la feuille . Transfigurations de la beauté naturelle dans la littérature européenne : Chateaubriand , Hölderlin et Leopardi . La thèse se présente comme une étude morphologique de l'esthétique de la nature à la fin de 18 ans. Siècle. Le dénominateur commun est une étude comparative des paradigmes scientifiques et des images symboliques utilisés dans la littérature européenne . Sous ce point de vue la thèse identifie les formes originaires de la goutte et de la feuille comme un point de contact entre des moments culturels distincts, même si entrelacés. Un passage particulièrement important du travail est l'analyse structurelle du paysage . Le paysage est le point culminant d'accès aux secrets de l'écriture romantique. Le paysage commence avec la représentation classique du jardin édénique et se termine avec la forêt exotique américaine. Celle-ci est décrite par Chateaubriand, en tant qu’objet d’une KOINONIE stylistique à l’immensité sublime du désert et l'océan . Hölderlin place avec la beauté naturelle devient une harmonie secrète et sombre dans l'inconscient symbolique de l'âme humaine . Leopardi est l'auteur du désenchantement , et pourtant il est encore capable de pressentir empathiquement la mesure de l’imagination envers la beauté naturelle. Avec Léopards , cependant, s’accomplit la séparation finale entre l’EPOS de la beauté naturelle et l’ETHOS de la nature . Cette dernière est une grandeur morale, et au fait elle représente le moment de la dissolution nihiliste, notamment magnitude de l’esthétique typiquement romantique . Après Chateaubriand , Leopardi , et Hölderlin beauté naturelle ne seront plus transfigurant .
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.