368 resultados para Jacomot (Jean), ou Jacquemot, ministre. inscription dans un album (1585)
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Les projets interdisciplinaires constituent rarement le terrain des études sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.
Resumo:
Ce mémoire est consacré au problème de la place de l’herméneutique dans l’œuvre d’Emmanuel Levinas. Au premier abord, l’œuvre semble présenter une forte ambivalence quant à la valeur que le philosophe accorde aux catégories herméneutiques. D’abord, dans les œuvres proprement philosophiques, Levinas présente une critique sévère de la compréhension dans laquelle il décèle un geste de totalisation et d’appropriation du sens contre lequel il élèvera une pensée de l’éthique comme « philosophie première ». D’autre part, un autre pan du corpus levinassien, celui des Lectures talmudiques, est consacré au déploiement d’une herméneutique des textes religieux de la tradition juive où Levinas fait puissamment intervenir les catégories éthiques propres à sa philosophie au sein de son activité exégétique. L’un des paradoxes intéressants que nous présente donc l’œuvre levinassienne est celui d’une philosophie s’érigeant en bonne partie sur une critique de la catégorie centrale de l’herméneutique, la compréhension, et qui ne se décline pas moins elle-même en une théorie de l’interprétation des textes. Afin de résoudre ce paradoxe, il nous faut d’abord exposer la critique de la compréhension qui est consubstantielle au projet philosophique de Levinas. En nous appuyant sur quelques textes centraux de son œuvre, nous expliciterons à la fois le déficit éthique de la compréhension que pointe Levinas et les possibilités de sens au nom desquelles cette critique s’accomplit. Nous verrons ainsi ce qui conduit Levinas à suggérer qu’autrui, en son visage, témoigne d’un sens qui ferait exception à la structure gnoséologique du sensé que suppose l’herméneutique. Dans un deuxième temps, nous tenterons de cerner les raisons qui peuvent légitiment conduire Levinas à faire usage, dans le contexte de son herméneutique talmudique, des « concepts » nés de sa critique de la compréhension. L’étude du rapport entre éthique et herméneutique, entre texte et visage, nous conduira à identifier le principe directeur de l’herméneutique levinassienne et à articuler la façon dont il se rattache à l’éthique du visage. Finalement, nous tenterons de faire valoir la pertinence philosophique de l’herméneutique levinassienne en étudiant la manière dont elle peut rendre compte de phénomènes fondamentaux liés à l’interprétation des textes.
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Thèse réalisée en cotutelle (Université de Montréal et Université Paris Diderot - Paris 7)
Resumo:
Ce mémoire portera sur le réemploi d’images dans le cinéma politique d’une manière générale dans un premier temps, puis plus spécifiquement dans l’oeuvre du cinéaste québécois Pierre Falardeau. Il s’agit donc d’abord de regarder comment, d’un point de vue historique, l’image fut réemployée dans le cinéma documentaire classique. Il sera ensuite question de la réutilisation de l’image à des fins politiques dans le cinéma expérimental à travers une analyse du found footage film. Dans un deuxième temps, nous verrons le réemploi d’images dans le cinéma militant, engagé politiquement (voire révolutionnaire) dans le cinéma d’Amérique latine (Santiago Alvarez, Fernando Solanas et Octavio Getino) et en France (Guy Debord, Chris Marker et Jean-Luc Godard). Par la suite, nous verrons comment Pierre Falardeau recyclera des images principalement dans trois de ses documentaires : Pea Soup, Speak White et Le temps des bouffons. Nous allons voir où il se situe dans les différentes traditions de réemploi d’images que nous avons vu précédemment et comment il se rapprochait et se distinguait de ses prédécesseurs.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
Au cours des dernières années, il est devenu évident que les sociétés des pays industrialisés sont à haut risque de maladies métaboliques. Une alimentation riche en énergie (lipide/glucide), combinée à une sédentarité accrue, est un facteur environnemental contribuant à l'augmentation de la prévalence de maladies reliées spécifiquement à des troubles endocriniens comme l'obésité et le diabète. Le traitement de ces désordres métaboliques doit donc passer par la connaissance et la compréhension des mécanismes moléculaires qui contrôlent ces désordres et le développement de traitements ciblés vers les facteurs responsables. Le tissu adipeux est une glande endocrine qui sécrète des substances, regroupées sous le terme d'adipokines, qui contrôlent l'homéostasie énergétique. L'augmentation de la masse adipeuse est responsable du développement de dérégulation hormonale qui mène à des dysfonctions physiologiques et métaboliques. Pour contrecarrer le développement démesuré du tissu adipeux, la signalisation insulinique ainsi que l’apport énergétique, responsables de la différenciation adipocytaire, doivent être inhibés. In vivo, la leptine, adipokine dont la concentration est corrélée à la masse adipeuse, présente des actions pro ou anti-insuliniques dans l’organisme pour réguler ce phénomène. Elle favorise l’effet inhibiteur de l’insuline sur la synthèse hépatique de glucose alors qu’elle s’oppose à son action sur l’expression des enzymes glucokinase et phosphoénol-pyruvate carboxykinase. La leptine influence aussi le taux circulant de triglycérides en diminuant sa concentration plasmatique. D'autre part, l'adiponectine, adipokine insulino- sensibilisante, voit sa sécrétion diminuée avec la prise de poids. La sensibilité à l'insuline est ainsi diminuée au fur et à mesure que le débalancement de ces deux adipokines s'accentue. La résistance à l'insuline s'installe alors pour s'opposer au stockage énergétique et à la prise illimitée de poids et la glycémie augmente. L'augmentation du glucose sanguin stimule la sécrétion d'insuline au niveau des cellules pancréatiques. C'est le diabète caractérisé par une hyperglycémie et une résistance à l'insuline. Le diabète, une des premières causes de mortalité dans le monde, est plus répandu sous sa forme non insulinodépendante (diabète de type 2, DT2) liée à l'obésité. Récemment, différents facteurs de transcription ont été identifiés comme régulateurs de l'expression d'une panoplie de gènes impliqués dans le métabolisme glucidique et lipidique. Parmi eux, les récepteurs des inducteurs de la prolifération des peroxysomes (PPAR, Peroxisome Proliferator-Activated Receptor), appartenant à la famille des récepteurs nucléaires. Les PPAR ont été démontrés comme ayant un rôle central dans le contrôle de la transcription des gènes codants pour des protéines impliquées dans le métabolisme : les adipokines. PPARg, en plus de son implication dans le contrôle de l'homéostasie glucidique et lipidique, est reconnu comme étant un facteur de transcription pivot régulant l'adipogenèse du fait de son expression majeure dans le tissu adipeux. D'autre part, il est bien établi maintenant que l'obésité et le diabète sont des facteurs contribuant au développement du processus inflammatoire vasculaire caractéristique de l’athérosclérose. En effet, les cellules endothéliales et musculaires lisses, principales composantes de la média de l’artère, sont très sensibles aux altérations métaboliques. Une diminution de la sensibilité à l’insuline entraine une réduction de la disponibilité du glucose et l’utilisation des acides gras comme alternatif par ces cellules. Ceci induit l’accumulation des acides gras oxydés dans l’intima et leur filtration dans la média pour former un core lipidique. Bien que l’induction de la dysfonction endothéliale soit impliquée très précocement, certaines études pointent l’accumulation lipidique dans les cellules musculaires lisses vasculaires (CML) et leur dysfonction comme déclencheurs de l’athérosclérose. Ce travail visait donc, dans un premier temps, à développer un modèle d'altérations métaboliques liées à la modulation de l'activité du tissu adipeux via une alimentation riche en lipides. Dans un second temps, cette étude tentait d'évaluer l’impact des adipocytes de souris sur les CML vasculaires et sur la modulation de leurs fonctions dans ce modèle d'altérations métaboliques et DT2 liés à l'alimentation et à l'obésité. Ainsi, par le biais de deux diètes pauvres en cholestérol à profil lipidique différent, nous avons développé un modèle murin présentant divers stades d'altérations du métabolisme allant jusqu'au DT2 en lien avec l'obésité chez les mâles et chez les femelles. D’autre part, des signes de cardiomyopathie ainsi qu’une modulation du taux des adipokines sont reliés à ces mêmes diètes. Parallèlement, l’activité de PPAR!2 est modulée chez les souris sous diètes enrichies en gras. Ensuite, nous avons démontré que les adipocytes, provenant de souris alimentées avec une diète enrichie en gras, modulaient la migration et la prolifération des CML comparativement au groupe contrôle. Ces modulations dépendaient en grande partie de la nature de la diète consommée, mais également du sexe de la souris. Par ailleurs, les altérations fonctionnelles des CML, couplées à des modulations géniques, sont associées aux changements du profil de sécrétion des adipokines mesurées chez les adipocytes. L’ensemble de ces travaux suggère une action directe de la nature de la stimulation du tissu adipeux blanc dans la modulation du profil de sécrétion des adipokines et l'induction du DT2 in vivo. Ces altérations de la physiologie adipocytaire se reflètent in vitro où le tissu adipeux contribue aux altérations physiopathologiques des CML liées au DT2. Ainsi, cette étude est l'une des premières à établir un lien direct entre les modulations adipocytaires et les effets de leurs sécrétions sur la physiologie des CML. Ces observations peuvent être exploitées cliniquement dans un développement futur d’outils thérapeutiques visant à prévenir et à traiter les troubles métaboliques et le DT2, en ciblant le tissu adipeux comme entité métabolique et endocrine.
Resumo:
Les kinines agissent sur deux types de récepteurs couplés aux protéines G, nommés B1 et B2, lesquels jouent un rôle important dans le contrôle cardiovasculaire, la nociception et l’inflammation. Nous considérons l’hypothèse que le récepteur B1 des kinines est induit et contribue aux complications diabétiques, incluant l’hypertension artérielle, les polyneuropathies sensorielles, l’augmentation du stress oxydatif vasculaire, l’inflammation vasculaire et l’obésité chez le rat traité au D-glucose (10% dans l’eau de boisson) pendant 8 ou 12 semaines. Dans ce modèle de résistance à l’insuline, nous avons évalué les effets d’un traitement pharmacologique d’une semaine avec un antagoniste du récepteur B1 des kinines, le SSR240612 (10 mg/kg/jr). Les résultats montrent que le SSR240612 renverse l’hypertension, l’allodynie tactile et au froid, la production de l’anion superoxyde et la surexpression de plusieurs marqueurs inflammatoires dans l’aorte (iNOS, IL-1β, macrophage (CD68, CD11), ICAM-1, E-selectine, MIF ainsi que le B1R) et dans les adipocytes (iNOS, IL-1β, TNF-α et macrophage CD68). De plus, le SSR240612 corrige la résistance à l’insuline, les anomalies du profil lipidique plasmatique et le gain de poids et de masse adipeuse. Ces données supportent l’implication des kinines dans les complications diabétiques dans un modèle animal de résistance à l’insuline et suggèrent que le récepteur B1 est une cible thérapeutique potentielle dans le diabète et l’obésité.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.
Resumo:
Difficile à manier, le thème de l’homosexualité est peu exploité dans le domaine des arts. Dans la littérature jeunesse québécoise, on trouve peu de personnages principaux homosexuels constituant des représentations positives pour les adolescents. Double échappée, le premier volet de ce mémoire en recherche-création, résulte d’une volonté de contribuer à ce secteur en braquant le projecteur sur deux protagonistes adolescents qui vivent leur homosexualité en parallèle. L’un doit apprendre à vivre avec cette réalité qui est toute nouvelle pour lui tandis que le second, sorti du placard et censément à l’aise avec son homosexualité, se voit obligé de réaffirmer son identité lorsqu’il arrive dans un nouvel environnement. Leurs parcours s’entremêlent, leur relation grandit et on assiste à leurs prises de conscience, diverses certes, mais aussi complémentaires. Le second volet du mémoire, intitulé Se dire, se comprendre : l’homosexualité dans les romans québécois pour la jeunesse, sert en quelque sorte de cadre contextuel à Double échappée. Adoptant un parcours en grande partie sociologique, cet essai examine le traitement des enjeux identitaires soulevés par l’homosexualité dans quelques romans québécois. Y est brièvement analysée la manière dont six ouvrages récents destinés à la jeunesse portent le sujet, particulièrement en ce qui a trait à la prise de conscience identitaire et son expression. Cette étude se penche sur la façon dont ces récits proposent la découverte de l’homosexualité par des adolescents en s’attardant à la présentation des personnages homosexuels et leur cheminement. Il s’agit de mettre en lumière la manière dont le texte montre et fait entendre la voie/voix des protagonistes gays et lesbiens.
Resumo:
Les paramètres de l’exil, comme déplacement, se transforment aujourd’hui dans un contexte de mondialisation, interrogeant le rôle des nations alors que les sociétés impliquent de plus en plus de mobilité et de diversité culturelle. Cette condition d’exilé aux repères mouvants, inscrite dans une temporalité discontinue et dont l’expérience est toujours douloureuse, a donné lieu à une littérature prolifique dans le domaine des études littéraires au cours du 20e siècle. En quoi le 21e propose-t-il un regard différent sur cette condition ? Dans ce mémoire nous analyserons quatre œuvres contemporaines qui nous proposent différentes variations des transformations identitaires profondes qui caractérisent la condition d’exilé. Deux des grands axes autour desquels s’est articulée la condition d’exilé ont été développés par Edward Said, qui propose une posture critique et politique, et Julia Kristeva, qui présente l’exil comme une condition plutôt psychique. Suivant cette perspective analytique, l’autobiographie de Mourid Barghouti fait écho à la compréhension de l’exil telle que l’entend Said, en pleine autonomie instauratrice. Puis, le roman de Rawi Hage dans une expérience plus psychique de l’exil, plus traumatique et plus violente du vécu avant l’exil, suggère que le rapport avec le milieu environnant a un impact sur l’expérience de l’exil, alors que dans ce cas il reste dysfonctionnel, et qu’un rapport pathologique à l’existence peut ensuite se manifester. Ensuite, le roman d’Abla Farhoud expose la possibilité d’un dépassement de cette expérience pathologique de l’exil par la distance, celle de l’âge et de la prise de parole. Finalement, dans la pièce Incendies de Mouawad, l’expérience psychique de l’exil est dépassée à la fois par une traduction de l’indicible de la violence, par un retour sur les traumas précédant l’exil, et par un travail collectif – comme autres formes de distances. Cette dernière œuvre est donc porteuse d’une compréhension de l’exil impliquant une dimension psychique, tout en devenant critique et politique, telle que le révèlent les écrits de Jacques Rancière. À la lumière de ces analyses, la condition d’exilé réclame d’urgence un retour sur les traumas précédents, le trauma qu’est l’exil, afin qu’une autonomie, une créativité et un engagement s’en dégagent, dans une société, dans un monde plus grand que soi. Pour les trois derniers auteurs, c’est la société québécoise qui révèle à la fois une compréhension des problématiques majeures de la condition d’exilé et une ouverture face à celles-ci, en ce début de 21e siècle.
Resumo:
L’étude de la gestion du changement s’attache à identifier ce qui peut être agissant dans l’organisation, la faisant évoluer dans un sens favorable ou défavorable aux objectifs définis par ceux qui en ont la charge. La présente étude a pour objet de comparer les propositions d’une approche ventriloque de la communication, telle qu’elle est formulée par François Cooren dans Action and agency in dialogue (2010) avec deux ouvrages traitant du changement organisationnel : The knowledge-creating company (Notaka & Takeuchi, 1995) et La Danse du changement (Senge, 1999). L’objectif est d’examiner dans quelle mesure la perspective ventriloque permet une meilleure compréhension de la nature et des contributions de ces différentes formes d’agentivité. A travers cet examen comparatif, l’ambition de ce travail est aussi d’offrir un point de vue sur la ventriloquie elle-même qui mette en exergue ses aspects les plus novateurs et démontre ainsi l’avancée représentée notamment par l’agentivité non humaine et la dislocalité de l’interaction.