267 resultados para Résonance des plasmons de surface


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durant les dernières décennies, la technique Langmuir-Blodgett (LB) s’est beaucoup développée dans l’approche « bottom-up » pour la création de couches ultra minces nanostructurées. Des patrons constitués de stries parallèles d’environ 100 à 200 nm de largeur ont été générés avec la technique de déposition LB de monocouches mixtes de 1,2-dilauroyl-sn-glycéro-3-phosphatidylcholine (DLPC) et de 1,2-dipalmitoyl-sn-glycéro-3-phosphatidylcholine (DPPC) sur des substrats de silicium et de mica. Afin d’amplifier la fonctionnalité de ces patrons, la 1-palmitoyl-2-(16-(S-methyldithio)hexadécanoyl)-sn-glycéro-3-phosphatidylcholine (DSDPPC) et la 1-lauroyl-2-(12-(S-methyldithio)dodédecanoyl)-sn-glycéro-3-phosphatidylcholine (DSDLPC) ont été employées pour la préparation de monocouches chimiquement hétérogènes. Ces analogues de phospholipide possèdent un groupement fonctionnel méthyldisulfide qui est attaché à la fin de l’une des chaînes alkyles. Une étude exhaustive sur la structure de la phase des monocouches Langmuir, Langmuir-Schaefer (LS) et LB de la DSDPPC et de la DSDLPC et leurs différents mélanges avec la DPPC ou la DLPC est présentée dans cette thèse. Tout d’abord, un contrôle limité de la périodicité et de la taille des motifs des stries parallèles de DPPC/DLPC a été obtenu en variant la composition lipidique, la pression de surface et la vitesse de déposition. Dans un mélange binaire de fraction molaire plus grande de lipide condensé que de lipide étendu, une vitesse de déposition plus lente et une plus basse pression de surface ont généré des stries plus continues et larges. L’addition d’un tensioactif, le cholestérol, au mélange binaire équimolaire de la DPPC/DLPC a permis la formation de stries parallèles à de plus hautes pressions de surface. La caractérisation des propriétés physiques des analogues de phospholipides a été nécessaire. La température de transition de phase de la DSDPPC de 44.5 ± 1.5 °C comparativement à 41.5 ± 0.3 °C pour la DPPC. L’isotherme de la DSDPPC est semblable à celui de la DPPC. La monocouche subit une transition de phase liquide-étendue-à-condensée (LE-C) à une pression de surface légèrement supérieure à celle de la DPPC (6 mN m-1 vs. 4 mN m-1) Tout comme la DLPC, la DSDLPC demeure dans la phase LE jusqu’à la rupture de la monocouche. Ces analogues de phospholipide existent dans un état plus étendu tout au long de la compression de la monocouche et montrent des pressions de surface de rupture plus basses que les phospholipides non-modifiés. La morphologie des domaines de monocouches Langmuir de la DPPC et de la DSDPPC à l’interface eau/air a été comparée par la microscopie à angle de Brewster (BAM). La DPPC forme une monocouche homogène à une pression de surface (π) > 10 mN/m, alors que des domaines en forme de fleurs sont formés dans la monocouche de DSDPPC jusqu’à une π ~ 30 mN m-1. La caractérisation de monocouches sur substrat solide a permis de démontrer que le patron de stries parallèles préalablement obtenu avec la DPPC/DLPC était reproduit en utilisant des mélanges de la DSDPPC/DLPC ou de la DPPC/DSDLPC donnant ainsi lieu à des patrons chimiquement hétérogènes. En général, pour obtenir le même état de phase que la DPPC, la monocouche de DSDPPC doit être comprimée à de plus hautes pressions de surface. Le groupement disulfide de ces analogues de phospholipide a été exploité, afin de (i) former des monocouches auto-assemblées sur l’or et de (ii) démontrer la métallisation sélective des terminaisons fonctionnalisées des stries. La spectrométrie de photoélectrons induits par rayons X (XPS) a confirmé que la monocouche modifiée réagit avec la vapeur d’or pour former des thiolates d’or. L’adsorption de l’Au, de l’Ag et du Cu thermiquement évaporé démontre une adsorption préférentielle de la vapeur de métal sur la phase fonctionnalisée de disulfide seulement à des recouvrements sub-monocouche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réparation endovasculaire (EVAR) est une technique minimalement invasive permettant de traiter l’anévrisme de l’aorte abdominale (AAA) par l’entremise d’un stent- graft (SG). L’utilisation d’EVAR est actuellement limitée par de fréquentes complications liées à une guérison inadéquate autour de l’implant. Ce manque de guérison est principalement dû au type de recouvrement polymérique des SG, au milieu pro-apoptotique des AAA et à l’accès réduit aux nutriments et à l’oxygène après EVAR. L’objectif de cette thèse consistait à concevoir un revêtement bioactif permettant d’inhiber l’apoptose et stimuler la croissance des cellules musculaires lisses vasculaires (CMLV), pour ainsi favoriser la guérison des tissus vasculaires autour des SG. La chondroïtine-4-sulfate (CS) a d’abord été choisie, car elle a été identifiée comme un médiateur important de la réparation vasculaire. Il a été démontré que la CS en solution influence directement la résistance à l’apoptose des CMLV, en plus de favoriser la différenciation myofibroblastique chez les fibroblastes. Dans le cadre de ce projet, un premier revêtement à base de CS et de collagène a été créé. Bien que le revêtement permettait d’induire une résistance à l’apoptose chez les CMLV, il se désintégrait trop rapidement dans des conditions aqueuses. Une nouvelle méthodologie a donc été adaptée afin de greffer la CS directement sur des surfaces aminées, à l’aide d’un système utilisant un carbodiimide. Dans le but d’accroître la croissance des CMLV à la surface des revêtements, le facteur de croissance de l’épiderme (EGF) a ensuite été sélectionné. En plus de ses propriétés mitogéniques et chimiotactiques, l’EGF stimule la production d’éléments de la matrice extracellulaire, comme le collagène et la fibronectine. De plus, l’activation du récepteur de l’EGF inhibe également l’apoptose des CMLV. L’EGF a donc été greffé sur la CS. Le revêtement de CS+EGF a démontré une bonne uniformité et bioactivité sur des surfaces de verre aminé. iii iv Dans une 3ème étape, afin de permettre de transposer ce revêtement bioactif sur des implants, plusieurs méthodes permettant de créer des groupements d’amines primaires sur les biomatériaux polymériques comme le PET ou le ePTFE ont été étudiées. La polymérisation par plasma a été choisie pour créer le revêtement CS+EGF à la surface de PET. Une fois de plus, celui-ci a permis d’inhiber l’apoptose des CMLV, dans des conditions pro-apoptotiques, et de favoriser la croissance des cellules. Le revêtement de CS et d’EGF, déposé sur des surfaces aminées, possède des caractéristiques biologiques intéressantes et semble donc prometteur pour favoriser une meilleure guérison autour des SG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’hypertension artérielle est le facteur de risque le plus important dans les maladies cardiovasculaires (MCV) et les accidents vasculaires cérébraux (AVC). L’hypertension artérielle essentielle est une maladie complexe, multifactorielle et polygénique. Même si on a identifié de nombreux facteurs de risque de l’hypertension artérielle, on ne comprend pas encore clairement les mécanismes qui la régissent. Les kinases hépatocytes produisant l’érythropoïétine (Eph) constituent la plus grande famille des récepteurs tyrosine kinase qui se lient à des ligands de surface cellulaire appelés éphrines sur les cellules avoisinantes. On sait que les interactions de Eph et des éphrines sont essentielles aussi bien dans les processus de développement que dans le fonctionnement des organes et des tissus adultes. Cependant on n’a pas encore étudié la relation entre Eph/éphrines et l’hypertension artérielle. Nous avons créé des modèles de souris knockout (K.O.) Ephb6-/-, Efnb1-/- et Efnb3-/- pour cette étude. Dans le modèle EphB6-/-, nous avons observé que les souris K.O. Ephb6 castrées, mais pas les femelles, ainsi que les souris mâles non castrées présentaient une tension artérielle élevée (TA) par rapport à leurs homologues de type sauvage (TS). Ceci suggère que Ephb6 doit agir de concert avec l’hormone sexuelle mâle pour réguler la TA. Les petites artères des mâles castrés Ephb6-/- présentaient une augmentation de la contractilité, une activation de RhoA et une phosphorylation constitutive de la chaîne légère de la myosine (CLM) lorsque comparées à celles de leurs homologues TS. Ces deux derniers résultats indiquent que la phosphorylation de CLM et de RhoA passe par la voie de signalisation de Ephb6 dans les cellules du muscle lisse de la paroi vasculaire (CMLV). Nous avons démontré que la réticulation de Efnbs mais non celle de Ephb6 aboutit à une réduction de la contractilité des CMLV. Ceci montre que l’effet de Ephb6 passe par la signalisation inversée à travers Efnb. Dans le modèle Efnb1-/- conditionnel spécifique au muscle lisse, nous n’avons observé aucune différence entre Efnb1-/- et les souris de TS concernant la mesure de la TA dans des conditions normales. Cependant, la TA des souris K.O. Efnb1 lors d’un stress d’immobilisation est supérieure à celle des souris de TS. Dans les petites artères des souris K.O. Efnb1, le rétrécissement et la phosphorylation de CLM étaient élevés. In vitro, la contractilité et l’activation RhoA de la CMLV des souris TS étaient augmentées quand leur Efnb1 était réticulé. Ces résultats corroborent ceux des souris KO Ephb6 et prouvent que l’effet de Ephb6 dans le contrôle de la TA se produit au moins par l’intermédiaire d’un de ses ligands Efnb1 dans les CMLV. Dans le modèle Efnb3-/-, on a observé une augmentation de la TA et du rétrécissement des vaisseaux chez les femelles Efnb3-/-, mais non chez les mâles; l’échographie a aussi révélé une résistance accrue au débit sanguin des souris K.O. femelles. Cependant la mutation de Efnb3 ne modifie pas la phosphorylation de la CLM ou l’activation de RhoA in vivo. Dans l’expérience in vitro, les CMLV des souris femelles Efnb3-/- ont présenté une augmentation de la contractilité mais pas celle des souris mâles Efnb3-/-. La réticulation des CMLV chez les mâles ou les femelles de TS avec solide anti-Efnb3 Ab peut réduire leur contractilité. Notre étude est la première à évaluer le rôle de Eph/éphrines dans la régulation de la TA. Elle montre que les signalisations Eph/éphrines sont impliquées dans le contrôle de la TA. La signalisation inverse est principalement responsable du phénotype élevé de la TA. Bien que les Efnb1, Efnb3 appartiennent à la même famille, leur fonction et leur efficacité dans la régulation de la TA pourraient être différentes. La découverte de Eph/Efnb nous permet d’explorer plus avant les mécanismes qui gouvernent la TA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un protocole inspiré du test de simulation 309 de l’Organisation de coopération et de développement économiques (OCDE) nous a permis de mesurer la dégradation chimique (excluant la photolyse) dans des eaux de surface de même que la dégradation chimique et biologique de neuf contaminants émergents dans l’effluent d’un décanteur primaire d’eau usée municipale. Les données étaient compatibles avec le modèle de cinétique de pseudo ordre un. Les résultats démontrant une persistance de plus d’un an dans les eaux de surface et de 71 jours dans l’effluent du décanteur primaire suggèrent que les dégradations chimique et biologique ne contribuent pas significativement à la diminution de: atrazine, déséthylatrazine, carbamazépine et diclofénac dans la phase aqueuse des systèmes testés. Les autres composés se sont dégradés à différents niveaux. Le 17ß-estradiol ainsi que l’éthinylestradiol, la noréthindrone, la caféine et le sulfaméthoxazole ont tous été sujet à la dégradation biologique dans les effluents du décanteur primaire d’eau usée avec des constantes de dégradation k et des demi-vies t1/2 mesurées allant respectivement de 0.0082 à 0.59 j-1 et de 1.2 à 85 jours. Les paramètres de cinétique mesurés peuvent être combinés aux concentrations typiques des composés à l’étude dans un décanteur primaire d’eau usée pour y calculer leur vitesse de dégradation. Cependant, puisque les décanteurs primaires dans les usines de traitement d’eaux usées ont généralement des temps de résidence de quelques heures seulement, il est improbable que les neufs contaminants émergents à l’étude diminuent significativement par ces processus durant leur passage dans le compartiment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le contexte du changement climatique, la chaleur est, depuis le début des années 2000, une préoccupation grandissante, d’abord en tant qu’enjeu sanitaire puis comme problématique affectant la qualité de vie des citoyens. Au Québec, le concept d’îlot de chaleur urbain, issu de la climatologie urbaine, a graduellement émergé dans le discours des autorités et de certains acteurs de l’aménagement. Or, on constate l’existence d’un certain décalage entre les connaissances scientifiques et l’interprétation qu’en font les urbanistes. Dans le cadre de ce mémoire, on a tenté d’identifier les facteurs explicatifs de ce décalage en s’intéressant au processus d’acquisition des connaissances des urbanistes québécois. Par le biais d’entretiens réalisés auprès des principaux acteurs ayant contribué à l’émergence de l’ICU au Québec, on a été en mesure d’identifier les éléments ayant entraîné certaines distorsions des connaissances. L’absence d’interdisciplinarité entre la climatologie urbaine et l’urbanisme tout au long du processus d’acquisition des connaissances ainsi qu’une interprétation tronquée de la carte des températures de surface expliquent principalement la nature du décalage observé.