989 resultados para Masses.
Resumo:
Le présent mémoire aborde les problématiques morales de la scission corps-esprit chez les soldats de la guerre du Việt Nam telles que représentées à travers certains films traitant de cette guerre. Notre démarche sera centrée sur le travail individuel que propose le film Apocalypse Now, plutôt que sur la representation de la guerre. Nous postulons que ce film met les individus devant les contradictions inhérentes d'une société qui prétend justement pacifier le monde en faisant la guerre, et qui plus est, comme ce fut le cas au Việt Nam, au moyen d’un déchainement de violence qui dépasse l'entendement (torture, massacre de masses, napalm et Agent Orange). Notre hypothèse est que le film, à travers son personnage central, nous propose une « voie » qui n’empêche pas la guerre, certes, mais permet du moins d'entreprendre une demarche de distanciation et de redefinition morale individuelle permettant de survivre au(x) temps de guerre(s). Cette mutation morale, chez le personnage principal, s'acquiert au bout d'un voyage réflexif à tout point de vue « au coeur des ténèbres » – de la jungle, tout autant que de son être.
Resumo:
Comment comprendre la volonté d'appartenir à la nation américaine des Afro-Américains en dépit d'une mémoire faite d'humiliation et d'une accumulation de revers? À plusieurs reprises durant l'histoire américaine, des élites ont proposé à la communauté noire des solutions dites « radicales » qui remettent en question le paradigme dominant de l'intégration à la nation américaine. Ce mémoire tente d'identifier les raisons qui expliquent pourquoi, au cours du mouvement pour les droits civiques, les Noirs font le choix de l'intégration défendu par Martin Luther King et rejettent le séparatisme défendu par Malcolm X. La spécificité du mémoire réside dans l'utilisation de la littérature sur la formation des nations qui me permet d'étudier le choix des Afro-Américains. La nation est vue comme le produit d'une construction qui fait interagir les élites et les masses. J'étudie « par le haut » la façon dont les entrepreneurs ethniques, King et Malcolm X, redéfinissent l'américanité. J'étudie également « par le bas » comment les masses reçoivent les discours de ces élites. Ma première hypothèse se consacre à la formation de l'alliance stratégique entre King et l'exécutif américain qui permet à King de définir l'agenda législatif et d'appuyer son discours sur les gains qu'il réalise. La deuxième hypothèse se penche sur la structure des opportunités s'offrant aux Afro-Américains qui orientent le choix qu'ils font.
Resumo:
L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
Introduction : Faute de tests diagnostiques précis, une étude histologique est souvent nécessaire pour diagnostiquer les tuméfactions latérales solides cervicales (TLSC) chez l’enfant. Nous étudierons les modalités diagnostiques pour les TLSC afin de créer une approche diagnostique standardisée intégrant de nouveaux outils diagnostics à ceux actuellement offerts. Méthodologie : Après révision des étiologies et des modalités diagnostiques, une revue de la littérature a été effectuée. Une étude rétrospective entre 2002 à 2012 est présentée suivie d’une étude de faisabilité de la cytoponction. Puis, un arbre décisionnel est créé basé sur nos résultats et sur l’avis d’un groupe d’experts de différentes disciplines médicales. Résultats : Le diagnostic différentiel des TLSC est varié, la littérature scientifique est désuète et la comparaison reste difficile. Pour nos 42 enfants avec un âge médian de sept ans, les tuméfactions inflammatoires représentent 59% (26/44 biopsies) des TLSC, surtout des lymphadénites à mycobactérie atypique (13/26) qui ont un dépistage ardu et multimodal. La biopsie fut peu contributive à la prise en charge dans 39% (17/44) des cas. La cytoponction sous échoguidance est une technique diagnostique faisable et moins invasive que la biopsie. L’arbre décisionnel offre aux cliniciens une approche diagnostique standardisée des TLSC appuyée sur des faits scientifiques que nous souhaitons valider par une étude prospective. Conclusion : Les TLSC chez l’enfant représentent un défi diagnostic et notre arbre décisionnel répond au manque de standardisation dans l’approche diagnostique. Une étude prospective sur notre arbre décisionnel est en voie d’acceptation au CHU Sainte-Justine.
Resumo:
Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.
Resumo:
Toute historiographie se construit sous la forme d’un récit, soutenue par une narration qui, autour d’une intrigue, sélectionne et organise les événements en fonction de leur importance relative à des critères prédéterminés. La période des années 1960, qui est habituellement décrite comme celle de la naissance de la littérature québécoise, est on ne peut plus représentative de cette logique narrative qui sous-tend toute démarche historique. Un événement retenu par cette histoire, la Nuit de la poésie du 27 mars 1970, s’est littéralement élevé au rang de mythe dans l’imaginaire littéraire, mais aussi identitaire des Québécois. Que ce soit à travers les triomphes de Claude Gauvreau et de Michèle Lalonde ou la foule de plusieurs milliers de personnes devant le Gesù qui espérait assister à la soirée, cet événement, mis sur pellicule par Jean-Claude Labrecque et Jean-Pierre Masse, a été conçu par plusieurs comme l’apothéose de « l’âge de la parole ». Une observation minutieuse de ce happening soulève cependant de nombreuses questions concernant la construction de ce rôle dans l’histoire littéraire québécoise. En effet, tant l’étude des conditions d’organisation de la soirée que l’analyse de son mode de transmission révèlent des motivations archivistiques qui laissent transparaître l’objectif de la Nuit à « faire événement », à produire des traces qui participeront à l’inscription historique de la poésie québécoise. Considérant que l’œuvre filmique de Labrecque et de Masse constitue le seul véritable document témoignant de cet événement et que celui-ci a fait l’objet d’un montage ne présentant qu’une facette de la soirée, les enjeux de représentation et de mise en récit inhérents au cinéma documentaire poussent à questionner le portrait désiré de la poésie de l’époque que l’on voulait créer à travers le long-métrage. Véritable plateau de tournage, le spectacle du 27 mars 1970 appelle à être analysé dans les termes d’une conscience historique qui pousse les acteurs du milieu littéraire de l’époque à ériger les monuments qui seront à la base du canon et de l’institution littéraires québécois. L’étude, mobilisant les ressources de l’analyse de texte, de la sociologie de la littérature, de la théorie historiographique et de la théorie du cinéma, portera principalement sur le documentaire La Nuit de la poésie 27 mars 1970, considéré comme véritable recueil de textes, mais aussi de façon tout à fait originale sur les archives inédites rejetées du montage final des réalisateurs de l’ONF. Au terme de ce travail, j’approfondirai la réflexion sur le rôle historique d’un événement emblématique de la littérature québécoise en explicitant la construction historique autour de celui-ci. Il s’agira non seulement de relativiser l’événement en tant que tel, mais aussi de réfléchir sur le grand récit espéré par les artistes de l’époque.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.
Resumo:
La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
L'obésité est une maladie associée à de nombreuses complications comme le diabète de type 2, l'hypertension et le cancer. De nos jours, les modifications au mode de vie, tels l’alimentation et le niveau d’activité physique, ne sont pas suffisants pour combattre les effets délétères de l'obésité. La pharmacothérapie est un traitement alternatif bien que les effets bénéfiques soient temporaires et ne peuvent être maintenus à long terme. Le besoin pour un traitement bénéfique à long terme sans effet secondaire n'est pas comblé. Mieux connu pour son rôle dans la régulation de la pression artérielle, le système rénine-angiotensine favorise l'entreposage du gras. Le récepteur à la prorénine et à la rénine est une composante du système rénine-angiotensine. Ainsi, le récepteur qui amplifie l'activation de celui-ci pourrait avoir un rôle clé dans le gain de masse grasse. Le but de ce projet de thèse est d'évaluer le rôle du récepteur à la prorénine et à la rénine dans le développement de l'obésité et de ses complications chez la souris et ce, en utilisant une combinaison de diète riche en gras et en hydrates de carbone et du handle region peptide, un bloqueur du récepteur à la prorénine à la rénine. Après une période de 10 semaines, nous avons constaté que l'expression et la protéine du récepteur à la prorénine et à la rénine augmentent spécifiquement dans le tissu adipeux sous-cutané et viscéral des souris obèses. Lorsqu'administré en concomitance avec une diète riche en gras et en hydrates de carbone, le handle region peptide favorise chez la souris des diminutions des gains des masses corporelles et adipeuses viscérales. Une diminution de l'expression de l'enzyme catalysant la dernière étape de la lipogenèse pourrait être responsable de la réduction de gras viscéral. Chez les mêmes animaux, l'expression de plusieurs adipokines est également diminuée dans le tissu adipeux suggérant une réduction de la résistance à l'insuline, de l'inflammation et de l'infiltration des macrophages localement dans le gras sous-cutané et viscéral. L'augmentation de l'expression d’un marqueur de l'adipogenèse dans le tissu adipeux sous-cutané pourrait suggérer un plus grand nombre d'adipocytes. Cela pourrait tamponner l'excès d'acides gras libres circulants puisque nous avons constaté une diminution de ce paramètre chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Nous avons émis l'hypothèse qu'un cycle futile pourrait être activé dans le gras sous-cutané car nous avons observé une augmentation de l'expression de plusieurs enzymes impliquées dans la lipogenèse et dans la lipolyse. Le ''brunissement'' du tissu adipeux est la présence de cellules similaires aux adipocytes bruns dans le tissu adipeux qui sont caractérisés par une grande densité mitochondriale et la thermogenèse. L'augmentation de l'expression des marqueurs de ''brunissement'' et de biogenèse de mitochondrie dans le gras sous-cutané suggère que le ''brunissement'' pourrait également être activé dans ce dépôt de gras. La sensibilité à l'insuline chez ces animaux pourrait être améliorée telle que suggérée en circulation par la diminution de l'insuline, par le glucose qui change peu, par l'augmentation du ratio glucose sur insuline ainsi que par un changement potentiel dans la corrélation entre le poids corporel de la souris et les niveaux d’adiponectine circulante. Nos travaux suggèrent que le handle region peptide pourrait augmenter la capacité du tissu adipeux sous-cutané à métaboliser les lipides circulants avec l'activation potentielle d'un cycle futile et le ''brunissement''. Cela préviendrait le dépôt ectopique de lipides vers les compartiments viscéraux comme le suggère la réduction de masse adipeuse viscérale chez les souris ayant une diète riche en gras et en hydrates de carbone et traitées avec le peptide. Utilisant un modèle de souris, cette étude démontre le potentiel pharmacologique du handle region peptide comme un nouveau traitement pour prévenir l'obésité.
Resumo:
Les polymères hydrosolubles sont utilisés dans diverses industries pour permettre la floculation, soit une séparation solide-liquide de particules présentes en suspension colloïdale. Afin de réduire les impacts environnementaux de l’exploitation des sables bitumineux en Alberta, l’industrie est à la recherche de nouveaux moyens et procédés pour traiter les résidus miniers permettant de séparer les matières solides et de récupérer l’eau. L’objectif des travaux présentés est d’améliorer la floculation, la densification et la déshydratation de ces résidus miniers aqueux par de nouveaux polymères synthétiques. Des homopolymères d’acrylamide de différentes masses molaires ont été synthétisés pour étudier l’influence de la masse molaire sur l’efficacité de floculation. Le taux initial de sédimentation (TIS) est le paramètre qui fut utilisé afin de comparer l’efficacité de floculation des différents polymères. Il a été possible de confirmer l’importance de la masse molaire sur l’efficacité de floculation et de déterminer une masse molaire minimale d’environ 6 MDa pour des polyacrylamides, afin d’obtenir l’efficacité de floculation maximale de suspensions colloïdales principalement composées de kaolin. Afin d’étudier l’effet des charges sur l’efficacité de floculation, des polymères anioniques et cationiques ont été synthétisés. Une série de copolymères d’acrylamide et d’acide acrylique ont été synthétisés comme polymères anioniques et deux séries de copolymères ont été synthétisés comme polymères cationiques, soit des copolymères d’acrylamide et de chlorure de diallyldiméthylammonium et des copolymères de 4-vinyl pyridine et de 1-méthyl-4-vinyl pyridinium. Il a été démontré que les charges anioniques des polymères avaient peu d’influence sur l’efficacité de floculation et que leur comportement en présence de sels était différent de ce que prévoyait la littérature. Il a aussi été démontré que les charges cationiques des polymères n’améliorent pas l’efficacité de floculation. Par la suite, des séries de copolymères amphiphiles, avec des monomères d’acrylamide, de N-alkylacrylamides et d’acrylonitrile, ont été synthétisés, pour étudier l’effet du caractère amphiphile sur la déshydratation des résidus miniers. Le pourcentage de déshydratation nette est le paramètre qui fut utilisé afin de comparer l’efficacité de déshydratation des différents polymères. Il a été possible de développer des copolymères amphiphiles qui améliorent l’efficacité de déshydratation par rapport à des homopolymères d’acrylamide. Il ne fut pas possible de déterminer une tendance entre la balance hydrophile/hydrophobe des copolymères amphiphiles et l’efficacité de déshydratation.
Resumo:
After skin cancer, breast cancer accounts for the second greatest number of cancer diagnoses in women. Currently the etiologies of breast cancer are unknown, and there is no generally accepted therapy for preventing it. Therefore, the best way to improve the prognosis for breast cancer is early detection and treatment. Computer aided detection systems (CAD) for detecting masses or micro-calcifications in mammograms have already been used and proven to be a potentially powerful tool , so the radiologists are attracted by the effectiveness of clinical application of CAD systems. Fractal geometry is well suited for describing the complex physiological structures that defy the traditional Euclidean geometry, which is based on smooth shapes. The major contribution of this research include the development of • A new fractal feature to accurately classify mammograms into normal and normal (i)With masses (benign or malignant) (ii) with microcalcifications (benign or malignant) • A novel fast fractal modeling method to identify the presence of microcalcifications by fractal modeling of mammograms and then subtracting the modeled image from the original mammogram. The performances of these methods were evaluated using different standard statistical analysis methods. The results obtained indicate that the developed methods are highly beneficial for assisting radiologists in making diagnostic decisions. The mammograms for the study were obtained from the two online databases namely, MIAS (Mammographic Image Analysis Society) and DDSM (Digital Database for Screening Mammography.