997 resultados para Nouvelle-Hollande


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les ataxies autosomiques récessives sont un groupe de troubles neurologiques hétérogènes caractérisés par une incoordination brute des mouvements musculaires impliquant le dysfonctionnement nerveux du cervelet qui coordonne le mouvement. Plusieurs formes héréditaires ont été décrites dont la plus connue : l’ataxie de Friedriech. Dans cette thèse nous rapportons l'identification et la caractérisation d’une nouvelle forme dans la population québécoise. L’ataxie récessive spastique avec leucoencéphalopathie (ARSAL; aussi connue comme l’ataxie autosomique récessive spastique de type 3 (SPAX3); OMIM 611390) est la deuxième ataxie spastique décrite dans la population canadienne française. En effet, près de 50 % de nos cas sont originaires de la région de Portneuf. En 2006, nous avons décrit les caractéristiques cliniques de cette nouvelle forme d’ataxie. Un premier criblage du génome entier, constitué de plus de 500 marqueurs microsatellites, a permis la localisation du locus sur le chromosome 2q33-34. Suite au séquençage de plus de 37 gènes candidats et afin de rétrécir cet intervalle candidat, nous avons utilisé une micro-puce d’ADN constituée de marqueurs SNP «single nucleotide polymorphism» et nous avons identifié un deuxième intervalle candidat de 0.658Mb au locus 2q33 dans lequel se trouvent moins de 9 gènes. L’identification et la caractérisation de ces mutations a nécessité l’utilisation de diverses technologies de pointe. Trois mutations (une délétion et deux réarrangements complexes) dans le gène mitochondrial tRNA-synthetase (MARS2) ont été identifiées dans notre cohorte. Nous émettons l’hypothèse que la nature des mutations complexes est responsable d’un dérèglement de la transcription du gène, ce qui a un impact néfaste sur la fonction mitochondriale et le tissu neuronal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Débat public, participation, délibération, autant de termes utilisés pour parler de normes et de dispositifs qui participeraient au nouvel « impératif délibératif » (Blondiaux et Sintomer 2002). Ce mémoire présente une analyse du débat public sur le plan d'urbanisme de Montréal avec un schéma d'analyse inspiré de celui de Simard et Fourniau (2007). Notre discussion du processus de débat porte non seulement sur la phase formelle des audiences publiques, mais aussi sur les étapes de concertation en amont et sur divers processus plus ou moins publicisés en aval. Ceci permet une réflexion d'ordre procédural plus riche qui considère la diversité des dispositifs dans une perspective de complémentarité. Pour chercher des effets du débat public sur le plan d'urbanisme, nous adoptons le parti de la congruence (Offner 1993), ce qui nous amène à une analyse de l'interaction entre des dynamiques contextuelles et des mobilisations des participants au débat. Certaines de ces congruences concordent avec des modifications au plan d'urbanisme. Notre étude propose aussi des implications du contexte particulier de la nouvelle ville de Montréal (avec la création des arrondissements) sur le contenu du débat public, sur certaines de ses manifestations procédurales ainsi que sur sa portée. Notre dernier chapitre montre que la dynamique du débat public en aval, dans la phase de mise en oeuvre du plan d'urbanisme, se déploie beaucoup plus dans les débats sur les grands projets que sur les mécanismes prévus à cette fin, qui comportent des embûches de par leur faible publicité et le caractère technique du processus réglementaire. Dans l'ensemble, notre étude met en lumière l'importance du contexte : autant le processus de débat que ses effets s'inscrivent dans des dynamiques contextuelles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A l’époque de la Nouvelle-France, il n’était pas rare que des enfants de moins d’un an décèdent. Les parents acceptaient avec sagesse et résignation le décès de leurs enfants. Telle était la volonté du Tout-Puissant. Grâce au Registre de la Population du Québec Ancien (R.P.Q.A.) élaboré par le Programme de Recherche en Démographie Historique (P.R.D.H), l’ampleur de la mortalité infantile a pu être mesurée selon plusieurs critères, quelques facteurs déterminants examinés ainsi qu’une composante intergénérationnelle identifiée. Couvrant pour la première fois la totalité de l’existence de la colonie, nos résultats confirment l’importance de la mortalité des enfants aux XVIIe et XVIIIe siècles (entre 140 et 260‰ avant correction pour le sous-enregistrement des décès). Des disparités tangibles ont été constatées entre les sexes, selon le lieu de naissance ainsi que selon la catégorie professionnelle à laquelle appartient le père de l’enfant. L’inégalité des probabilités de survie des tout-petits reflète l’iniquité physiologique entre les genres, avec une surmortalité masculine de l’ordre de 20%, et l’influence de l’environnement dans lequel vit la famille : les petits de la ville de Québec décédaient en moyenne 1,5 à 1,2 fois plus que les petits des campagnes. Montréal, véritable hécatombe pour l’instant inexpliquée, perdait 50% de ses enfants avant l’âge d’un an, ce qui représente 1,9 fois plus de décès infantiles que ceux des enfants de la campagne, qui jouissent malgré tout des bienfaits de leur environnement. Les effets délétères de l’usage de la mise en nourrice, qui touche plus de la moitié des enfants des classes aisées citadines, ravagent leur descendance de plus en plus profondément. L’examen de la mortalité infantile sous ses composantes endogène et exogène révèle que la mortalité de causes exogènes explique au moins 70% de tous les décès infantiles. La récurrence des maladies infectieuses, l’absence d’hygiène personnelle, l’insalubrité des villes constituaient autant de dangers pour les enfants. Dans une perspective davantage familiale et intergénérationnelle où l’enfant est partie intégrante d’une fratrie, des risques significatifs ont été obtenus pour plusieurs caractéristiques déterminantes. Les mères de moins de 20 ans ou de plus de 30 ans, les enfants de rang de naissance supérieur à 8, un intervalle intergénésique inférieur à 21 mois ou avoir son aîné décédé accroissent les risques de décéder avant le premier anniversaire de l’ordre de 10 à 70%, parce que le destin d’un enfant n’est pas indépendant des caractéristiques de sa mère ou de sa fratrie. Nous avons aussi constaté une relation positive entre la mortalité infantile expérimentée par une mère et celle de ses filles. La distribution observée des filles ayant perdu au moins 40% de leurs enfants au même titre que leur mère est 1,3 à 1,9 fois plus grande que celle attendue pour les filles ayant eu 9 enfants et moins ou 10 enfants et plus. Il existerait une transmission intergénérationnelle de la mortalité infantile même lorsqu’on contrôle pour la période et la taille de la famille.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le présent mémoire, je revisite l’oeuvre de Foucault à la lumière des analyses qu’il offre entre 1981 et 1984 dans ses derniers cours au Collège de France. À l’encontre de l’avis qui voit une rupture dans la pensée foucaldienne – opinion justifiée par la transition radicale qu’opère Foucault depuis l’étude de la relation entre pouvoir et savoir à l’analyse des techniques de subjectivation dans l’Antiquité – j’illustre qu’il y a continuité et complémentarité entre ses analyses des années 1970 et ses démonstrations des années 1980. Foucault trouve, au fondement de la pratique politique gréco-romaine, une éthique définie comme travail de soi sur soi. Aussi tente-t il, au travers de ses dernières analyses, de réactualiser l’askêsis comme fondement oublié de l’éthique, et l’êthos comme condition d’efficacité de la politique. Si, jusqu’en 1980, Foucault s’intéresse aux mécanismes et aux dispositifs permettant le gouvernement de la population, à partir de 1980, c’est la question du gouvernement de soi comme condition nécessaire du gouvernement des autres qui investit ses analyses. L’objectif de ce mémoire est d’illustrer, à partir de la redéfinition foucaldienne de l’éthique, la présence d’une nouvelle théorie de la résistance dans ses derniers cours au Collège de France. Par voie de conséquence, je propose implicitement des éclaircissements sur la fonction qu’occupent L’Usage des plaisirs et le Souci de soi, ultimes publications de l’auteur, au sein de son oeuvre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Polarisé par l’événement du jubilé de l’an 2000, Jean-Paul II, tout au long de son pontificat, achemine l’Église catholique dans un long pèlerinage vers le IIIe millénaire de l’humanité. À l’aube du XXIe siècle, avec le contenu théologique du concile Vatican II pour boussole fiable, le pape polonais arbore une vision pastorale originale marquée par l’expression « nouvelle évangélisation ». Reprise de l’épiscopat d’Amérique latine, cette expression devient ainsi son emblème et son fer de lance durant les quelque 27 années de son pontificat. Largement récupérée par maints milieux ecclésiaux, l’expression méritait qu’on en produise une étude systématique à la lumière de la théologie pastorale de celui qui en a été le divulgateur privilégié. Pour ce faire, nous avons choisi comme texte fondateur à notre étude sa lettre apostolique Tertio Millennio Adveniente publiée en 1994, en raison de la vision pastorale qui s’en dégage à l’aube de l’an 2000. Ce texte, qui couvre la période du concile Vatican II jusqu’à l’entrée de l’Église catholique dans le IIIe millénaire, définit le cadre temporel de notre recherche. Par ailleurs, il nous permet de retenir trois référents théologiques pour conduire notre étude. Nous les analysons et nous en conduisons une synthèse théologique à travers trois regards synoptiques qui acheminent progressivement la thèse vers sa conclusion. Le premier référent théologique retenu est l’exhortation apostolique Evangelii Nuntiandi du pape Paul VI ; le deuxième référent est l’ouvrage de Karol Wojtyla Aux sources du renouveau ; le troisième référent est l’exhortation postsynodale Ecclesia in America. Avec une démarche herméneutique justifiée, et par la synthèse de ces référents théologiques, trois aboutissants voient le jour. Le premier regarde l’application pastorale du concile Vatican II : dans un regard pastoral justifié par une anthropologie définie, le pasteur articule les constitutions Lumen Gentium et Gaudium et Spes pour proposer une praxis pastorale. Le second aboutissant parle alors de la notion de la créativité de la foi. Cette créativité de la foi se décline, elle, dans les médiations culturelles – troisième aboutissant – qui s’articulent elles-mêmes autour des concepts d’attitudes et de dialogue wojtylien. La critique proposée en conclusion de thèse porte directement sur l’anthropologie proposée par Jean-Paul II sous-jacente à chacun de ces trois aboutissants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le rodéo à Wall Street a pris fin. En effet, le président américain a promulgué la réforme de la régulation financière le 21 juillet 2010. Le H.R. 4173 : Dodd-Frank Wall Street Reform and Consumer Protection Act of 2010 n’est toutefois que le début d’un long processus. La majeure partie de l’édifice législatif repose sur l’intervention d’agences gouvernementales chargées d’édicter des décrets d’exécution dans un délai plus ou moins long. L’adoption de la réforme américaine constitue néanmoins un signal fort à destination des acteurs de la finance pour leur signifier que les règles du jeu ont changé. L’objectif de ce papier d’actualisation s’attache à exposer les dispositions visant les sociétés commerciales et portant sur leur gouvernance et la rémunération de leurs dirigeants. Ces deux thématiques prennent, à l’heure actuelle, une résonance particulière avec la révélation d’émoluments aux montants exorbitants consentis dans des sociétés et des établissements financiers mis à mal par des erreurs stratégiques de leur management.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous présentons ici la description clinique et génétique d’un syndrome neurocutané unique. Le laboratoire du Dr Cossette a entrepris la caractérisation clinique et génétique d'une famille canadienne-française qui a été identifiée par les Drs Giroux et Barbeau en 1972 et qui comprend plus de 100 personnes sur six générations. Les membres atteints de cette famille présentent des lésions typiques d'érythrokératodermie (EK) (OMIM 133190, EKV1 et EKV2), associées à une ataxie spinocérébelleuse pure. Dans cette famille, l'ataxie est caractérisée par des troubles de la coordination et de la démarche causés par une dégénérescence du cervelet et de la moelle épinière. Cette ataxie est transmise selon un mode autosomique dominant. Une étude antérieure de cette variante d'EK avec ataxie avait suggéré une liaison sur le chromosome 1p34-p35, soit la même région que les formes EKV de type 1 et 2, causées respectivement par des mutations dans les gènes connexin-31 (GJB3; OMIM 603324) et connexin-30.3 (GJB4; OMIM 605425). Cependant, aucune mutation n'a été retrouvée dans ces gènes pour la famille canadienne-française. Nous avons récemment recontacté la famille et effectué des examens détaillés, incluant une imagerie par résonance magnétique (IRM) et un électromyogramme (EMG). Les manifestations neurologiques des individus atteints sont compatibles avec une nouvelle forme d’ataxie cérébelleuse pure à transmission autosomique dominante (ADCA de type III dans la classification de Harding) que nous avons appelée SCA34. Une cartographie complète du génome nous a permis de localiser le gène SCA34 sur le chromosome 6p12.3-q16.2. Également, en collaboration avec les Drs Alexis Brice (Hôpital Pitié-La Salpêtrière, Paris) et Alfredo Brusco (Hôpital San Giovanni Battista di Torino, Italie), nous avons confirmé que trois autres familles européennes avec SCA inexpliquée étaient également liées au locus SCA34. Notre laboratoire a récemment entrepris la recherche des mutations responsables de SCA34. Les résultats de ce criblage de gènes candidats sont présentés dans le chapitre 3 de cette thèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audiovisuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La succession de plus en plus fréquente d’événements catastrophiques a amené les sociétés à poser les conditions d’une gestion proactive des risques « naturels ». Ainsi, dans une perspective exploratoire, nous étudions les processus de planification du rétablissement postcatastrophe et la place qu’occupe le concept de résilience urbaine au sein des pratiques de cette planification et des contenus et produits qui en sont issus. Nous entamons plus spécifiquement une réflexion entourant l’intelligibilité et l’opérationnalisation de la résilience. Pour ce faire, nous examinons deux cas signifiants d’inondation dans l’historique nord-américain, soit celui de la Nouvelle-Orléans en Louisiane et celui de la ville québécoise de La Baie, ayant été respectivement victimes des ouragans Katrina et Rita en 2005 et des pluies diluviennes de 1996. Après avoir procédé à une brève mise en contexte des désastres éprouvés, de leurs effets et des vulnérabilités physico-spatiales qu’ils ont mis en exergue, nous mettons en parallèle les logiques institutionnelles précatastrophe d’aménagement du territoire, d’urbanisme et de gestion des risques des villes. Nous observons ensuite l’évolution des deux processus de planification du rétablissement et les enjeux et débats qui les ont caractérisés, pour terminer avec une exposition des changements résilients qui en ont émané. Les deux derniers chapitres démontrent que la qualité de résilience des villes est fortement influencée par leurs cultures politiques, administratives et législatives propres et leurs traditions urbanistiques. Bien qu’elles aient su élaborer une stratégie de prévention des risques, qui accepte les inondations plutôt que de tenter de s’y opposer à tout prix, elles n’ont toutefois pas saisi l’entièreté des opportunités qui s’offraient à elles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.