331 resultados para Principe de solidarité
Resumo:
Les conflits entre les noms de domaine et les marques de commerce surgissent essentiellement par manque de coordination entre le système d'enregistrement des noms de domaine et celui des marques. Les marques sont enregistrées par des autorités publiques gouvernementales et les droits qui en découlent ne peuvent s'exercer que sur le territoire du pays d'origine. Le système d'enregistrement des noms de domaine, basé sur la règle "du premier arrivé, premier servi", ne connaît pas de limites géographiques et ignore le principe de spécialité propre aux marques de commerce. L'absence de lien entre ces deux systèmes a permis, l'enregistrement comme noms de domaine par des tiers, de marques de commerce de renom suscitant la confusion quant aux origines des sites. Le nom de domaine constitue un nouveau signe distinctif se situant à la frontière de la régulation technique et du contenu et représente le cadre idéal pour étudier les fondements légitimes de l'intervention du droit dans le cyberespace. En effet, le système des noms de domaine se construit autour de choix et de contraintes techniques dont les concepteurs n'imaginaient pas qu'ils deviendraient la source d'un important contentieux. Les noms de domaine, portes d'accès au réseau, font l'objet d'une tentative de régulation qui concilie les forces contraires de l' ''aterritorialité'' des noms de domaine, avec la "territorialité" des marques de commerce. Cette régulation repose sur la synergie entre l'architecture technique, les normes sociales, l'autoréglementation, le marché et la loi et se présente comme un laboratoire d'idées pour une définition de la régulation de l'Internet. La problématique des noms de domaine et des marques de commerce, constitue une application pratique de cette "corégulation" et amorce ainsi une évolution juridique, facteur de construction du droit sur l'Internet.
Resumo:
Le thème de ce mémoire de Maîtrise en droit est « La dignité humaine: limite à la brevetabilité du corps humain». Dans ce travail, nous avons tenté d'apporter une contribution à un débat des plus importants de ce début du 21 e siècle. Deux parties composent ce mémoire. La première partie vise à présenter la thématique de la brevetabilité du corps humain. Elle fait l'analyse non seulement des normes juridiques interdisant la brevetabilité du corps humain, mais aussi elle se penche sur le corps humain comme source d'inventions brevetables. Dans la première sous-section, notre analyse porte sur l'étude des documents normatifs d'intérêt international, régional et national. Le modèle et les normes de la Communauté européenne ont largement retenu notre attention alors que le cas des États-Unis, du Canada et surtout de la France nous servait de guide de réflexion pour mieux comprendre l'état du droit au Canada. Par une argumentation serrée nous avons conclu cette partie en affirmant que le corps humain n'est pas brevetable. La prohibition de la brevetabilité du corps humain s'impose comme universelle. La dignité humaine a constitué un élément déterminant de cette prohibition. Ce qui nous a permis, dans la deuxième sous-section de considérer le brevetage de l'ADN. Après avoir présenté les trois critères juridiques de la brevetabilité, à savoir la nouveauté, l'utilité et l'inventivité, nous avons appliqué ces critères à l'ADN. Il s'est avéré que c'est à bon droit que la plupart des pays accordent le brevet sur l'ADN. Mais cet état de droit pose des problèmes sur le plan des valeurs éthiques. Il a notamment comme conséquence de relativiser la dignité humaine. Ces dernières considérations éthiques nous ont conduits à étendre à l'ADN les critères juridiques de la brevetabilité vus dans la première partie. Pour nous prononcer adéquatement sur ce sujet combien délicat, il a fallu considérer la question de la brevetabilité de l'ADN chez les vivants, depuis l'affaire Chakrabarty en 1980, aux États-Unis, en passant par la Directive européenne de 1998, l'affaire Harvard College au Canada jusqu'à Myriad Genetics Inc. En droit, la brevetabilité de l'ADN ne fait plus de doute. Mais elle continue de soulever des « gènes» sur le plan éthique. L'inquiétude que suscite la pente glissante nous a amenés, dans la deuxième partie, à nous pencher sur la brevetabilité dans son rapport avec la dignité humaine. La première sous-section se voulait une analyse permettant de montrer que la dignité humaine est une valeur absolue et inconditionnelle. Si nous considérons cette valeur comme absolue, il devient impossible de breveter le corps humain dans son ensemble. Par contre, en brevetant l'ADN humain, nos institutions se trouvent à relativiser la dignité humaine. C'est ce que la deuxième sous-section tendait à montrer. Soulignons que cette deuxième sous-section a été conçue également comme une conclusion. Elle s'articule autour notamment de la dignité humaine comme principe de précaution.
Resumo:
Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.
Resumo:
In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.
Resumo:
Given the fact of moral disagreement, theories of state neutrality which rely on moral premises will have limited application, in that they will fail to motivate anyone who rejects the moral premises on which they are based. By contrast, contractarian theories can be consistent with moral scepticism, and can therefore avoid this limitation. In this paper, I construct a contractarian model which I claim is sceptically consistent and includes a principle of state neutrality as a necessary condition. The principle of neutrality which I derive incorporates two conceptions of neutrality (consequential neutrality and justificatory neutrality) which have usually been thought of as distinct and incompatible. I argue that contractarianism gives us a unified account of these conceptions. Ultimately, the conclusion that neutrality can be derived without violating the constraint established by moral scepticism turns out to rely on an assumption of equal precontractual bargaining power. I do not attempt to defend this assumption here. If the assumption cannot be defended in a sceptically consistent fashion, then the argument for neutrality given here is claimed to be morally minimal, rather than fully consistent with moral scepticism.
Resumo:
In defending the principle of neutrality, liberals have often appealed to a more general moral principle that forbids coercing persons in the name of reasons those persons themselves cannot reasonably be expected to share. Yet liberals have struggled to articulate a non-arbitrary, non-dogmatic distinction between the reasons that persons can reasonably be expected to share and those they cannot. The reason for this, I argue, is that what it means to “share a reason” is itself obscure. In this paper I articulate two different conceptions of what it is to share a reason; I call these conceptions “foundationalist” and “constructivist.” On the foundationalist view, two people “share” a reason just in the sense that the same reason applies to each of them independently. On this view, I argue, debates about the reasons we share collapse into debates about the reasons we have, moving us no closer to an adequate defense of neutrality. On the constructivist view, by contrast, “sharing reasons” is understood as a kind of activity, and the reasons we must share are just those reasons that make this activity possible. I argue that the constructivist conception of sharing reasons yields a better defense of the principle of neutrality.
Resumo:
One of the main characteristics of today’s democratic societies is their pluralism. As a result, liberal political philosophers often claim that the state should remain neutral with respect to different conceptions of the good. Legal and social policies should be acceptable to everyone regardless of their culture, their religion or their comprehensive moral views. One might think that this commitment to neutrality should be especially pronounced in urban centres, with their culturally diverse populations. However, there are a large number of laws and policies adopted at the municipal level that contradict the liberal principle of neutrality. In this paper, I want to suggest that these perfectionistlaws and policies are legitimate at the urban level. Specifically, I will argue that the principle of neutrality applies only indirectly to social institutions within the broader framework of the nation-state. This is clear in the case of voluntary associations, but to a certain extent this rationale applies also to cities. In a liberal regime, private associations are allowed to hold and defend perfectionist views, focused on a particular conception of the good life. One problem is to determine the limits of this perfectionism at the urban level, since cities, unlike private associations, are publicinstitutions. My aim here is therefore to give a liberal justification to a limited form of perfectionism of municipal laws and policies.
Resumo:
L’idée d’une égalité souveraine apparaît en même temps que le système international multilatéral. Bien que l’égalité souveraine soit consacrée explicitement dans la Charte des Nations Unies, le principe reste indéfini. Cette étude propose une définition de l’égalité souveraine en trois facettes : l’égalité formelle, l’égalité législative et l’égalité existentielle. Suite à l’examen des trois dimensions de l’égalité souveraine, une conception stricte de l’égalité souveraine ne peut être soutenue puisque toutes les facettes sont atteintes d’une relativité soit par la légalisation de l’hégémonie, par la bifurcation de l’ordre juridique international, la représentation inégale au sein des institutions multilatérales ou par l’anti-pluralisme. Bref, l’examen de chacune des facettes du principe de l’égalité souveraine démontre que l’égalité souveraine est une fiction juridique. Le principe de l’égalité souveraine peut difficilement être justifié par rapport à la réalité de la société internationale. Il demeure néanmoins utile, ne serait-ce que pour freiner le pouvoir des Grandes Puissances et se poser comme un idéal à atteindre.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
Ce mémoire analyse la notion de fonctionnalité. D'origine jurisprudentielle, ce concept tend à maintenir la dichotomie traditionnelle entre le régime des marques de commerce et celui des brevets. À la lecture des jugements rendus en la matière, le maintien d'une telle dichotomie empêcherait notamment de prolonger indûment un monopole échu sous le régime des brevets par l'enregistrement d'une marque de commerce. Cette étude tente de mieux cerner le concept de fonctionnalité et, plus précisément, de justifier son existence. Pour ce faire, une étude approfondie des régimes des marques de commerce et des brevets, nous permet de comprendre que chacun de ces corps de règles répond à une logique différente. Les fonctions des marques de commerce et des brevets sont en effet distinctes et aucun chevauchement ne semble être permis. Cette situation est d'ailleurs propre à ces régimes spécifiques. Un examen de l'étendue de la notion de fonctionnalité nous permet de constater que d'autres droits de propriété intellectuelle peuvent coexister. À titre d'exemple, nous croyons qu'une intersection est possible entre les régimes des dessins industriels et des marques de commerce. À l'issue de ces recherches, nous constatons que la notion de fonctionnalité est un principe jurisprudentiel bien établi en droit canadien visant à empêcher tout renouvellement à perpétuité d'un brevet par le biais du droit des marques de commerce. L'existence de ce principe nous semble être justifiée en matière de marques de commerce et de brevets. Cette conclusion pourrait toutefois différer dans le cadre d'autres droits de propriété intellectuelle, les fonctions de ces autres régimes semblant permettre des chevauchements.
Resumo:
Le cancer est la principale cause de mortalité au Canada. Les taxanes (e.g. le paclitaxel et le docétaxel (DCTX)) constituent des remèdes efficaces contre une série de tumeurs solides telles que les cancers du sein, du poumon et de l’ovaire. Par ailleurs, des acides nucléiques (e.g. les oligonucléotides antisens (AON) ou les petits ARN interférents (siRNAs)), capables de supprimer sélectivement certains oncogènes impliqués dans la carcinogénèse, sont actuellement étudiés pour traiter une large gamme de cancers. Bien que l’activité des taxanes et des acides nucléiques soit bien établie sur des modèles humains et/ou animaux, plusieurs aspects physico-chimiques et cliniques restent encore à améliorer. Leur solubilité limitée (pour les taxanes), leur dégradation rapide dans le sang (pour les acides nucléiques), leur élimination précoce, leur absence de sélectivité et leur toxicité envers les tissus sains sont les principaux facteurs limitant leur efficacité. C’est pourquoi de nombreux efforts ont porté sur l’élaboration de systèmes de vectorisation ciblés à base de polymères, dans le but de surmonter les problèmes associés aux thérapies actuelles. Dans cette thèse, deux types de micelles polymères ont été développés pour la vectorisation de DCTX et d’acides nucléiques. D’une part, des micelles de poly(oxyde d’éthylène)-bloc-poly(oxyde de butylène/styrène) ont été étudiées pour la première fois pour solubiliser le DCTX et le protéger de l’hydrolyse. Ces polymères se sont révélés moins toxiques que le surfactant utilisé commercialement pour solubiliser le DCTX (i.e. polysorbate 80) et ont permis une libération prolongée du principe actif. D’autre part, deux systèmes différents de micelles polyioniques (PICM) ont été mis au point pour la vectorisation d’acides nucléiques. De nouveaux conjugués de poly(éthylène glycol) (PEG)-oligonucléotide ont été proposés pour la protection et la libération contrôlée d’AON. Lorsque ces conjugués ont été formulés avec des dendrimères de poly(amidoamine) (PAMAM), des complexes de taille homogène ont été obtenus. Ces PICM ont permis de prolonger la libération de l’AON et de le protéger efficacement contre la dégradation enzymatique. De plus, des polymères de poly(oxyde d’éthylène)-bloc-poly(méthacrylate de propyle-co-acide méthacrylique) ont été incorporés afin de conférer des propriétés acido-sensibles aux PICM. Dans ces micelles, formées de ce dernier polymère formulé avec le dendrimère PAMAM, des oligonucléotides (AON et siRNA) ciblant l’oncogène Bcl-2 ont été encapsulés. L’internalisation cellulaire fut assurée par un fragment d’anticorps monoclonal (Fab’) situé à l’extrémité de la couronne de PEG. Après l’internalisation cellulaire et la protonation des unités d’acide méthacrylique sous l’effet de l’acidification des endosomes, les micelles se sont affranchies de leur couronne. Elles ont ainsi exposé leur cœur composé d’acide nucléique et de dendrimère PAMAM, qui possède une charge positive et des propriétés endosomolytiques. En effet, ces PICM acido-sensibles ciblées ont permis d’augmenter la biodisponibilité des acides nucléiques vectorisés et se sont avérées plus efficaces pour silencer l’oncoprotéine Bcl-2 que les micelles non ciblées ou que le dendrimère de PAMAM commercial seul. Finalement, les nanovecteurs polymères présentés dans cette thèse se révèlent être des systèmes prometteurs pour la vectorisation des anticancéreux et des acides nucléiques.
Resumo:
La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Une traduction française des "Thèses sur le besoin" de Theodor W. Adorno accompagne la thèse (annexe).