998 resultados para Conduite égard toxique
Resumo:
Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.
Resumo:
Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.
Resumo:
Le cancer du sein est le cancer qui a la plus forte fréquence au Canada. En 2012, on estime que 23 200 nouveaux cas de cancer du sein seront diagnostiqués. Deux tiers des tumeurs mammaires expriment ou surexpriment le récepteur des oestrogènes α (ERα). De même, les oestrogènes sont importants pour la croissance de ces tumeurs. La présence des récepteurs hormonaux est un critère qui détermine le choix de la thérapie; à cet égard, le ciblage des récepteurs des oestrogènes par les antioestrogènes a pour but d’inactiver ces récepteurs et diminuer leur contribution à la croissance tumorale. Les antioestrogènes sont des inhibiteurs compétitifs de ERα. Tamoxifene est le médicament le plus utilisé pour traiter les tumeurs mammaires ER+ de tous les stades, avant ou après la ménopause. Tamoxifene est antioestrogène partiel ou SERM qui a un profile mixte d’activités agonistes et antagonistes. Fulvestrant ou ICI 182, 780 est un antioestrogène de type total ou SERD dépourvu de toute activité agoniste. Ce composé est utilisé en clinique chez les femmes après la ménopause ayant des tumeurs mammaires avancées. Fulvestrant constitue, donc, une deuxième ligne thérapeutique en cas de rechute après à un traitement par Tamoxifene. Afin de comprendre le potentiel thérapeutique de Fulvestrant, il est primordial d’étudier son impact sur ERα. Actuellement, la polyubiquitination et la dégradation de ERα sont les mécanismes les plus connus pour expliquer l’inactivation de ERα par Fulvestrant. Par ailleurs, en utilisant des modèles cellulaires ER+ et ER-; nous avons montré que les antioestrogènes totaux induisent une insolubilité de ERα indépendamment de leur capacité à induire sa dégradation. L’insolubilité corrèle avec l’association de ERα avec la matrice nucléaire et avec l’inhibition de sa transactivation. L’hélice H12 du domaine de liaison du ligand joue un rôle important dans l’insolubilité et l’inactivation de ERα par les antioestrogènes totaux. Par ailleurs, les antioestrogènes totaux se distinguent par leur capacité à induire la SUMOylation de ERα par SUMO1 et SUMO2/3. La SUMOylation est rapide et précède la dégradation de ERα dans cellules ER+. À l’aide de dérivés de l’antioestrogène total ICI 164, 384, nous avons montré que la chaine latérale des antioestrogènes totaux est à la base de l’induction de la SUMOylation et de l’inactivation de ERα. De plus, la SUMOylation semble être une marque d’inhibition, car la déSUMOylation restaure une activité de ERα en présence des antioestrogènes totaux. L’hélice H12 du LBD et le domaine de liaison à l’ADN sont requis pour l’induction de la SUMOylation. La recherche de protéines impliquées dans l’inactivation et dans la SUMOylation a permis d’identifier le facteur de remodelage de la chromatine ACF dans le même complexe que ERα. De manière similaire à la SUMOylation, le recrutement de ACF est précoce et constitue une propriété spécifique des antioestrogènes totaux. D’autre part, Fulvestrant induit le recrutement de ACF au niveau du promoteur du gène cible des oestrogènes pS2, ce qui suggère une contribution du remodelage de la chromatine dans les mécanismes d’action des antioestrogènes totaux. La surexpression de la DéSUMOylase SENP1 abolit le recrutement de ACF ce qui indique un rôle de la SUMOylation dans le recrutement de ACF. De même, l’hélice H12 du LBD de ERα constitue un lien entre l’inactivation de ERα et le recrutement de ACF. L’insolubilité, la SUMOylation et l'interaction du complexe ACF sont le reflet des mécanismes d’action des antioestrogènes totaux. Ces observations peuvent être utilisées comme des critères fonctionnels pour identifier d’autres composés avec de meilleures propriétés pharmacologiques que Fulvestrant.
Resumo:
Depuis plusieurs années, les États membres de l’Union européenne (UE) se soumettent à des politiques restrictives, en matière d’asile, qui les contraignent à respecter leur engagement de protéger les personnes qui fuient la persécution. Plusieurs politiques de dissuasion de l’UE sont controversées. Certaines ont d’abord été élaborées dans différents États, avant que l’UE ne mette en place une politique commune en matière d’asile. Certaines des ces politiques migratoires ont été copiées, et ont un effet négatif sur la transformation des procédures d’asile et du droit des réfugiés dans d’autres pays, tel le Canada. En raison des normes minimales imposées par la législation de l’UE, les États membres adoptent des politiques et instaurent des pratiques, qui sont mises en doute et sont critiquées par l’UNHCR et les ONG, quant au respect des obligations internationales à l'égard des droits de la personne. Parmi les politiques et les pratiques les plus critiquées certaines touchent le secteur du contrôle frontalier. En tentant de remédier à l’abolition des frontières internes, les États membres imposent aux demandeurs d’asile des barrières migratoires quasi impossibles à surmonter. Les forçant ainsi à s’entasser dans des centres de migration, au nord de l’Afrique, à rebrousser chemin ou encore à mourir en haute mer.
Resumo:
Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.
Resumo:
Ce mémoire cherche à concevoir en théorie la dialectique socialisa-tion/individualisation à l’œuvre dans la formation et la transmission des goûts et pratiques culturels chez les jeunes adultes. L'analyse de dix entretiens conduits auprès de jeunes Montréalais âgés de 18 à 24 ans révèle que la socialisation sous l’égide de la famille et de l’école reste active sans être coercitive du fait qu’elle s'avère propice à la capacité des jeunes à se concevoir sous leur propre gouverne et à développer leurs propres goûts en matière de pratiques culturelles. Les pairs jouent également un rôle à cet égard, rôle amplifié par les moyens numériques. Les relations entre pairs génèrent une espèce de tension entre conformité au groupe et volonté d’être soi-même et de pouvoir agir à sa guise. Les nouvelles technologies d’information et de communication, quant à elles, se révèlent de nos jours sources de socialisation et d’individualisation en donnant accès à des « réseaux » en vertu desquels s’infléchissent les goûts et les préférences qui façonnent la pratique de la culture tout en permettant aux jeunes d’avoir les coudées franches pour les développer par eux-mêmes.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
Cette thèse porte sur les représentations sociales de la pharmacogénomique (PGx) chez deux groupes d’acteurs centraux du développement et des applications en PGx au Québec. L’objectif est de comprendre comment les chercheurs en PGx et les étudiants en médecine se positionnent à l’égard des découvertes en PGx et de leurs éventuelles applications en pratique médicale. Cette étude a aussi pour objectifs de mieux comprendre comment il est possible d’anticiper l’arrivée de la PGx dans la pratique médicale par le contraste des représentations des chercheurs et des étudiants et de concevoir comment les informations circulent entre les deux groupes. Pour atteindre ces objectifs, l’utilisation du cadre théorique des représentations sociales, et plus particulièrement des représentations sociales dites professionnelles, est retenue. Une démarche multiméthodologique est déterminée pour cerner les représentations des deux groupes. En effet, une approche qualitative par entretiens semi-dirigés est réalisée dans un premier temps auprès des chercheurs et, ensuite, une enquête par questionnaire est effectuée auprès des étudiants en médecine. Les positionnements des deux groupes sont contrastés au sujet de trois concepts clés : les médicaments, la génomique et la PGx. Les principes organisateurs des représentations sociales des étudiants en médecine et des chercheurs, eu égard à ces trois concepts, permet de positionner le niveau des représentations sociales des étudiants en médecine vers leur professionnalisation dans un schéma proposé par Bataille (2000). Ainsi, les étudiants en médecine fournissent des représentations des médicaments assez près de celles des chercheurs. Leurs représentations des avancées en génomique sont beaucoup moins professionnalisées, tandis que l’on remarque une organisation restreinte pour ce qui est de leur représentation de la PGx. Le contexte de formation médicale est interrogé dans cette thèse puisqu’il laisse peu de place aux découvertes et aux recherches de pointe. Les chercheurs autant que les étudiants affirment que la solution pour améliorer leurs connaissances dans le domaine de la PGx est d’ajouter ces connaissances dans leur cadre de leur formation médicale.
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.
Resumo:
Étude de cas / Case study
Resumo:
Notre thèse étudie les liens entre les « redevances forestières annuelles » (RFA) et le « développement local » dans deux communes du Cameroun. Ce travail anthropologique s’inscrit dans le débat qui se fait à l’échelle internationale relativement au rôle et au devenir des populations locales dans la gestion des ressources naturelles. Dans le passé, la gestion des redevances forestières annuelles (RFA) a été, dans les pays d’Afrique centrale et au Cameroun en particulier, sous la seule responsabilité de l’État central. Une telle politique n’offrait pas la garantie nécessaire à l’utilisation durable de ces ressources qui sont indispensables à la vie des populations villageoises riveraines et à l’équilibre de l’environnement. Profitant de la crise des années 1980 et 1990 en Afrique, le FMI et la Banque mondiale ont exercé une pression sur les États africains pour qu’ils revoient, en conformité avec la Conférence de Rio (1992), leurs politiques en matière de gestion et de conservation des ressources forestières. Dans le bassin du Congo, le Cameroun a été le tout premier pays à réviser, en 1994, ses lois forestières par le biais d’une décentralisation de la fiscalité forestière : les taxes perçues furent réparties entre l’État, les collectivités territoriales décentralisées et les populations villageoises riveraines. Les fonds transférés aux communes et aux populations riveraines devaient servir au développement local en contribuant notamment à l’amélioration des conditions générales de vie des populations à travers la réalisation d’œuvres sociales, l’adduction d’eau, la construction et l’entretien des routes, des écoles, des cases de santé, etc. Dans les faits, l’impact de la fiscalité forestière décentralisée reste à ce jour encore peu visible sur la dynamique du développement local des communes. Notre projet de recherche doctorale prend place dans le domaine d’une anthropologie du développement centrée sur l’étude des solutions que les populations locales apportent aux problèmes auxquels elles sont confrontées dans leur vie de tous les jours. L’analyse des impacts que les politiques de développement économique exercent sur les populations villageoises d’Afrique est ici à l’avant-plan, pas seulement au sens d’une critique des politiques étatiques en matière d’exploitation forestière, mais aussi au sens d’une meilleure compréhension des conditions de mise en œuvre de ces politiques et de l’impact de celles-ci sur les populations villageoises, tant sur le plan des avantages financiers directs que des transformations écologiques que les activités forestières introduisent dans les pratiques agricoles des villageois. Sur le plan méthodologique, il faut noter que ce fut très difficile d’obtenir les informations nécessaires, notre sujet d’étude se révélant être très sensible quant à sa portée politique. Nous avons néanmoins pu recueillir un solide ensemble de données par le biais d’une démarche de proximité de type qualitatif qui a été conduite dans deux communes forestières qui représentent deux réalités différentes en matière de gestion des RFA. La collecte des données a été faite, de manière intensive, dans sept villages qui répondaient à nos critères : nous avons ainsi pu étudier, de manière approfondie, la situation des groupes sociaux les plus défavorisés qui sont exclus dans le partage des revenus forestiers. Pour construire notre cadre théorique, nous avons combiné des éléments empruntés aux théories environnementales, à l’anthropologie économique et à l’analyse des modes de gestion. Il faut noter, par ailleurs, que l’anthropologue n’est ni un aménagiste, ni un environnementaliste, ni un spécialiste des études managériales. Nous avons conduit notre étude comparative dans les communes concernées en nous fixant pour objectif de comprendre les mécanismes de gestion des RFA mis en place par les leaders locaux et d’évaluer leur impact sur l’amélioration des conditions de vie des populations villageoises et sur leur écosystème. Notre préoccupation était de savoir si les RFA constituent des vecteurs de développement socioéconomique pour des populations vivant dans et de la forêt.
Resumo:
Cette thèse porte sur l’exploration des facteurs d’influence et des déterminants qui peuvent décrire et expliquer le comportement d’une entreprise multinationale lors d’un licenciement collectif pour fermeture d’usine mesuré à l’aune de l’idée de responsabilité sociale. Nous prenons pour base les conséquences sociales et économiques néfastes des licenciements collectifs sur les employés et les communautés ainsi que la faiblesse à cet égard du droit du travail québécois. De plus, nous établissons le lien entre la nature de la responsabilité sociale d’un point de vue théorique et la perspective empirique dans le cadre d’un processus de licenciement collectif. Pour arriver à cette fin, au niveau théorique, c’est à travers les critères éthiques de Garrett et Klonoski (1986) soit la juste cause, la minimisation des effets dommageables et la justice procédurale, que notre recherche a démontré qu’il était possible de déterminer de la responsabilité sociale d’une entreprise d’un point de vue empirique dans un contexte de licenciement collectif. Nous avons aussi regardé de près les différentes théories de la responsabilité sociale de l’entreprise pour finalement retenir une théorie instrumentale des parties-prenantes. Au plan méthodologique, nous avons utilisé une étude de cas unique soit celle de la fermeture partielle de l’usine de Rio Tinto Alcan située à Beauharnois au Québec. De plus, il a été possible de catégoriser l’approche adoptée par cette entreprise sous une taxonomie théorique de la responsabilité sociale, c’est donc une approche intégrative à deux niveaux : local et corporatif qui ressort de notre analyse. Au niveau local, nous avons identifié une perspective éthique reliée aux valeurs personnelles des individus devant mettre en place les mécanismes. Au niveau corporatif, c’est davantage une perspective instrumentale qui ressort. En ce sens, la multinationale estime devoir rendre des comptes à la fois à ses actionnaires et aux financiers afin d’établir une légitimité nécessaire ainsi qu’au politique (entre autre municipal et provincial) afin d’avoir accès aux ressources convoitées et nécessaires à son exploitation, de là l’importance de son image corporative. Le type d’entreprise doit être pris en considération, dans le secteur des ressources naturelles, le rôle et l’implication du politique s’avère central car il permet un accès aux ressources, essentiels à la survie de l’entreprise. L’apport de cette recherche se retrouve principalement dans l’étude du concept de responsabilité sociale à travers un phénomène important pour les relations industrielles soit celui des licenciements collectifs. Elle élargie aussi le champ théorique habituelle des relations industrielles en prenant en compte un cadre de la responsabilité sociale qui permet d’étudier des phénomènes sous un nouvel angle qui tient compte des priorités actuelles des multinationales dans un contexte d’ouverture des marchés et de recherche de légitimité.
Resumo:
L’insuffisance hépatique aiguë (IHA) se caractérise par la perte soudaine de la fonction hépatique résultant de la nécrose massive des hépatocytes en l’absence de pathologie hépatique préexistante. L’IHA s’accompagne de perturbations métaboliques et immunologiques qui peuvent entraîner l’apparition de complications périphériques et cérébrales telles qu’un syndrome de réponse inflammatoire systémique (SIRS), une encéphalopathie hépatique (EH), un œdème cérébral, une augmentation de la pression intracrânienne, et la mort par herniation du tronc cérébral. Les infections sont une complication fréquente de l’IHA et elles sont associées à un risque accru de développer un SIRS et une aggravation subséquente de l’EH avec un taux de mortalité augmenté. L’ammoniaque joue un rôle majeur dans les mécanismes physiopathologiques qui mènent au développement de l’EH et de l’œdème cérébral, et des études récentes suggèrent que les cytokines pro-inflammatoires sont également impliquées. Le but de cette thèse est d’étudier le rôle des cytokines pro-inflammatoires circulantes et cérébrales dans le développement de l’EH et de l’œdème cérébral lors d’IHA. Dans l’article 1, nous démontrons que l’inhibition périphérique du facteur de nécrose tumorale-α (TNF-α) par l’etanercept retarde la progression de l’EH en diminuant le dommage hépatocellulaire, réduisant l’inflammation périphérique et centrale ainsi que le stress oxydatif/nitrosatif hépatique et cérébral associé chez la souris avec une IHA induite par l’azoxyméthane (AOM). Ces résultats démontrent un rôle important du TNF-α dans la physiopathologie de l’EH lors d’IHA d’origine toxique et suggèrent que l’etanercept pourrait constituer une approche thérapeutique dans la prise en charge des patients en attente de transplantation hépatique. Dans l’article 2, nous simulons la présence d’une infection chez la souris avec une IHA induite par l’AOM pour mettre en évidence une éventuelle augmentation de la réponse inflammatoire. Nous démontrons que l’endotoxémie induite par le lipopolysaccharide (LPS) précipite la survenue du coma et aggrave la pathologie hépatique. Les cytokines pro-inflammatoires systémiques et cérébrales sont augmentées de façon synergique par le LPS lors d’IHA et résultent en une activation accrue de la métalloprotéinase matricielle-9 cérébrale qui s’accompagne d’une extravasation d’immunoglobulines G (IgG) dans le parenchyme cérébral. Ces résultats démontrent une augmentation majeure de la perméabilité de la barrière hémato-encéphalique (BHE) qui contribue à la pathogenèse de l’EH lors d’IHA en condition infectieuse. Les résultats de l’article 3 démontrent que l’augmentation de la perméabilité de la BHE lors d’IHA induite par l’AOM en condition non infectieuse ne résulte pas de l’altération de l’expression des protéines constitutives de la BHE. Dans l’article 4, nous démontrons que l’exposition d’astrocytes en culture à des concentrations physiopathologiques d’ammoniaque ou d’interleukine-1β résulte en l’altération de gènes astrocytaires impliqués dans la régulation du volume cellulaire et dans le stress oxydatif/nitrosatif. Un effet additif est observé dans le cas d’un traitement combiné au niveau des gènes astrocytaires impliqués dans le stress oxydatif/nitrosatif. L’ensemble des résultats de cette thèse démontre un rôle important de l’inflammation périphérique et cérébrale dans la survenue des complications neurologiques lors d’IHA et une meilleure compréhension des mécanismes physiopathologiques impliqués pourrait contribuer à la mise en place de stratégies thérapeutiques chez les patients atteints d’IHA en attente de transplantation.