47 resultados para Agrégats


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les polymères amphiphiles sont largement utilisés pour les applications biomédicales et pharmaceutiques. Afin d’améliorer les chances de biocompatibilité des nouveaux polymères que nous voulons développer, nous avons utilisé des composés naturels, les acides biliaires, comme produits de départ dans la synthèse de ces polymères. De nouveaux polymères anioniques amphiphiles dérivés de l’acide cholique ont été préparés par polymérisation radicalaire par transfert d’atomes. Par un contrôle rigoureux des conditions de polymérisation, des bras de poly(acide acrylique) de différentes longueurs ont été greffés sur le squelette de l’acide cholique. L’architecture moléculaire des polymères a été étudiée par spectroscopie 1H RMN et par spectrométrie de masse. Ces polymères en étoile formés par l’acide biliaire modifié sont capables de s’agréger dans l’eau même si les groupements hydroxyles ont été remplacés par des segments plus volumineux. Il a été observé que les liaisons ester entre le polymère et le cœur d’acide cholique sont sensibles à l’hydrolyse en solution aqueuse. Pour remédier au problème de stabilité en solution aqueuse et pour avoir, en même temps, des bras hydrophiles non ioniques et biocompatibles, de l’oxyde d’éthylène a été polymérisé sur l’acide cholique par polymérisation anionique. Les liaisons éther formées entre le polymère et les groupements hydroxyles de l’acide biliaire sont plus stables que les liaisons ester sur le polymère de poly(acide acrylique). Les conditions de réaction de la polymérisation anionique ont été optimisées et ont donné des polymères aux architectures et aux masses molaires contrôlées. Les nouveaux polymères forment des agrégats sphériques tel qu’observé par microscopie électronique à transmission avec des échantillons préparés par la méthode de fracture à froid. Leur morphologie est différente de celle des agrégats cylindriques formés par les acides biliaires. Avec la méthode optimisée pour la polymérisation anionique, l’éther d’allyle et glycidyle a été polymérisé sur un dérivé d’acide cholique, suivi par une thiolation des liaisons doubles pour introduire l’amine ou l’acide sur la chaîne polymère. Cette addition radicalaire est efficace à plus de 90%. Les polymères qui en résultent sont solubles dans l’eau et s’agrègent à une certaine concentration critique. Il est particulièrement intéressant d’observer la thermosensibilité des polymères ayant des groupements amine, laquelle peut être modulée en acétylant partiellement les amines, donnant des points nuages entre 15 et 48°C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sites apuriniques/apyrimidiniques (AP) sont des sites de l’ADN hautement mutagène. Les dommages au niveau de ces sites peuvent survenir spontanément ou être induits par une variété d’agents. Chez l’humain, les sites AP sont réparés principalement par APE1, une enzyme de réparation de l’ADN qui fait partie de la voie de réparation par excision de base (BER). APE1 est une enzyme multifonctionnelle; c’est une AP endonucléase, 3’-diestérase et un facteur redox impliqué dans l’activation des facteurs de transcription. Récemment, il a été démontré qu’APE1 interagit avec l’enzyme glycolytique GAPDH. Cette interaction induit l’activation d’APE1 par réduction. En outre, la délétion du gène GAPDH sensibilise les cellules aux agents endommageant l’ADN, induit une augmentation de formation spontanée des sites AP et réduit la prolifération cellulaire. A partir de toutes ces données, il était donc intéressant d’étudier l’effet de la délétion de GAPDH sur la progression du cycle cellulaire, sur la distribution cellulaire d’APE1 et d’identifier la cystéine(s) d’APE1 cible(s) de la réduction par GAPDH. Nos travaux de recherche ont montré que la déficience en GAPDH cause un arrêt du cycle cellulaire en phase G1. Cet arrêt est probablement dû à l’accumulation des dommages engendrant un retard au cours duquel la cellule pourra réparer son ADN. De plus, nous avons observé des foci nucléaires dans les cellules déficientes en GAPDH qui peuvent représenter des agrégats d’APE1 sous sa forme oxydée ou bien des focis de la protéine inactive au niveau des lésions d’ADN. Nous avons utilisé la mutagénèse dirigée pour créer des mutants (Cys en Ala) des sept cystéines d’APE1 qui ont été cloné dans un vecteur d’expression dans les cellules de mammifères. Nous émettons l’hypothèse qu’au moins un mutant ou plus va être résistant à l’inactivation par oxydation puisque l’alanine ne peut pas s’engager dans la formation des ponts disulfures. Par conséquent, on anticipe que l’expression de ce mutant dans les cellules déficientes en GAPDH pourrait restaurer une distribution cellulaire normale de APE1, libérerait les cellules de l’arrêt en phase G1 et diminuerait la sensibilité aux agents endommageant l’ADN. En conclusion, il semble que GAPDH, en préservant l’activité d’APE1, joue un nouveau rôle pour maintenir l’intégrité génomique des cellules aussi bien dans les conditions normales qu’en réponse au stress oxydatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transplantation d’îlots de Langerhans microencapsulés est un traitement prometteur du diabète de type 1. La microcapsule protège l’îlot du système immunitaire, tout en permettant la diffusion de petites molécules. Comme la microcapsule empêche la revascularisation des îlots, leur oxygénation se fait par diffusion d’oxygène et ils sont exposés à l’hypoxie. Le manque d’oxygène est un facteur limitant dans la survie des îlots microencapsulés. Il est connu que les plus petits îlots sont plus résistant à l’hypoxie à cause d’une meilleure diffusion de l’oxygène. À cette fin, les agrégats de cellules dispersées d’îlots seront étudiés. Lorsque les cellules des îlots sont dispersées, elles ont la propriété de se ré-assembler dans une structure semblable à celle des îlots. La présente étude a permis de mettre au point une technique de formation des agrégats, de les caractériser et de comparer la résistance à l’hypoxie des îlots et des agrégats. Ceux-ci ont une structure semblable aux îlots et ils sont de plus petite taille. Pour cette raison, ils sont plus viables après un choc hypoxique tout en renversant efficacement l’hyperglycémie de souris diabétiques. Les agrégats sont une alternative intéressante pour la transplantation d’îlots microencapsulés puisque leur oxygénation est plus efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tau est une protéine associée aux microtubules enrichie dans l’axone. Dans la maladie d’Alzheimer, Tau devient anormalement hyperphosphorylée, s’accumule dans le compartiment somato-dendritique et s’agrège pour former des enchevêtrements neurofibrillaires (NFTs). Ces NFTs se propagent dans le cerveau dans un ordre bien précis. Ils apparaissent d’abord dans le cortex transenthorinal pour ensuite se propager là où ces neurones projettent, c’est-à-dire au cortex entorhinal. Les NFTs s’étendent ensuite à l’hippocampe puis à différentes régions du cortex et néocortex. De plus, des études récentes ont démontré que la protéine Tau peut être sécrétée par des lignées neuronales et que lorsqu’on injecte des agrégats de Tau dans un cerveau de souris, ceux-ci peuvent pénétrer dans les neurones et induire la pathologie de Tau dans le cerveau. Ces observations ont mené à l’hypothèse que la protéine Tau pathologique pourrait être sécrétée par les neurones, pour ensuite être endocytée par les cellules avoisinantes et ainsi propager la maladie. L’objectif de la présente étude était donc de prouver la sécrétion de la protéine Tau par les neurones et d’identifier par quelle voie elle est secrétée. Nos résultats ont permis de démontrer que la protéine Tau est sécrétée par des neurones corticaux de souris de type sauvage ainsi que dans un modèle de surexpression dans des cellules HeLa et PC12. Nos résultats indiquent que la sécrétion de Tau se ferait par les autophagosomes. Finalement, nous avons démontré que la protéine Tau sécrétée est déphosphorylée et clivée par rapport à la protéine Tau intracellulaire non sécrétée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les molécules classiques du CMH de classe II sont responsables de la présentation de peptides exogènes par les cellules présentatrices d’antigène aux lymphocytes T CD4+. Cette présentation antigénique est essentielle à l’établissement d’une réponse immunitaire adaptative. Cependant, la reconnaissance d’auto-antigènes ainsi que l’élimination des cellules du Soi sont des problèmes à l’origine de nombreuses maladies auto-immunes. Notamment, le diabète et la sclérose en plaque. D’éventuels traitements de ces maladies pourraient impliquer la manipulation de la présentation antigénique chez les cellules dont la reconnaissance et l’élimination engendrent ces maladies. Il est donc primordial d’approfondir nos connaissances en ce qui concerne les mécanismes de régulation de la présentation antigénique. La présentation antigénique est régulée tant au niveau transcriptionnel que post-traductionnel. Au niveau post-traductionnel, diverses cytokines affectent le processus. Parmi celles-ci, l’IL-10, une cytokine anti-inflammatoire, cause une rétention intracellulaire des molécules du CMH II. Son mécanisme d’action consiste en l’ubiquitination de la queue cytoplasmique de la chaîne bêta des molécules de CMH II. Cette modification protéique est effectuée par MARCH1, une E3 ubiquitine ligase dont l’expression est restreinte aux organes lymphoïdes secondaires. Jusqu’à tout récemment, il y avait très peu de connaissance concernant la structure et les cibles de MARCH1. Considérant son impact majeur sur la présentation antigénique, nous nous sommes intéressé à la structure-fonction de cette molécule afin de mieux caractériser sa régulation ainsi que les diverses conditions nécessaires à son fonctionnement. Dans un premier article, nous avons étudié la régulation de l’expression de MARCH1 au niveau protéique. Nos résultats ont révélé l’autorégulation de la molécule par formation de dimères et son autoubiquitination. Nous avons également démontré l’importance des domaines transmembranaires de MARCH1 dans la formation de dimères et l’interaction avec le CMH II. Dans un second article, nous avons investigué l’importance de la localisation de MARCH1 pour sa fonction. Les résultats obtenus montrent la fonctionnalité des motifs de localisation de la portion C-terminale de MARCH1 ainsi que la présence d’autres éléments de localisation dans la portion N-terminale de la protéine. Les nombreux mutants utilisés pour ce projet nous ont permis d’identifier un motif ‘‘VQNC’’, situé dans la portion cytoplasmique C-terminale de MARCH1, dont la valine est requise au fonctionnement optimal de la molécule. En effet, la mutation de la valine engendre une diminution de la fonction de la molécule et des expériences de BRET ont démontré une modification de l’orientation spatiale des queues cytoplasmiques. De plus, une recherche d’homologie de séquence a révélé la présence de ce même motif dans d’autres ubiquitines ligases, dont Parkin. Parkin est fortement exprimée dans le cerveau et agirait, entre autre, sur la dégradation des agrégats protéiques. La dysfonction de Parkin cause l’accumulation de ces agrégats, nommés corps de Lewy, qui entraînent des déficiences au niveau du fonctionnement neural observé chez les patients atteints de la maladie de Parkinson. La valine comprise dans le motif ‘’VQNC’’ a d’ailleurs été identifiée comme étant mutée au sein d’une famille où cette maladie est génétiquement transmise. Nous croyons que l’importance de ce motif ne se restreint pas à MARCH1, mais serait généralisée à d’autres E3 ligases. Ce projet de recherche a permis de caractériser des mécanismes de régulation de MARCH1 ainsi que de découvrir divers éléments structuraux requis à sa fonction. Nos travaux ont permis de mieux comprendre les mécanismes de contrôle de la présentation antigénique par les molécules de CMH II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines amyloïdes sont impliquées dans les maladies neurodégénératives comme Alzheimer, Parkinson et les maladies à prions et forment des structures complexes, les fibres amyloïdes. Le mécanisme de formation de ces fibres est un processus complexe qui implique plusieurs espèces d’agrégats intermédiaires. Parmi ces espèces, des petits agrégats, les oligomères, sont reconnus comme étant l’espèce amyloïde toxique, mais leur mécanisme de toxicité et d’agrégation sont mal compris. Cette thèse présente les résultats d’une étude numérique des premières étapes d’oligomérisation d’un peptide modèle GNNQQNY, issu d’une protéine prion, pour des systèmes allant du trimère au 50-mère, par le biais de simulations de dynamique moléculaire couplée au potentiel gros-grain OPEP. Nous trouvons que le mécanisme d’agrégation du peptide GNNQQNY suit un processus complexe de nucléation, tel qu’observé expérimentalement pour plusieurs protéines amyloïdes. Nous observons aussi que plusieurs chemins de formation sont accessibles à l’échelle du 20-mère et du 50-mère, ce qui confère aux structures un certain degré de polymorphisme et nous sommes capable de reproduire, dans nos simulations, des oligomères protofibrillaires qui présentent des caractéristiques structurelles observées expérimentalement chez les fibres amyloïdes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés intrinsèques, photophysiques, électrochimiques et cristallographiques des molécules fluorescentes 4,4'-bis(2-benzoxazolyle)stilbène (BBS) et 2,5-bis(5-tert-butyl-2-benzoxazolyle)thiophène (BBT) ont été étudiées en solution et dans les polymères semi-cristallins : poly(butylène succinate) (PBS) et polylactide (PLA). Les deux fluorophores sont caractérisés par de hauts rendements quantiques absolus de fluorescence. Toutefois, une désactivation de la fluorescence peut se produire par croisement intersystème vers l'état triplet pour le BBT, et par photoisomérisation trans-cis pour le BBS. La cinétique de ce dernier processus dépend de la concentration, résultant en un pur isomère cis photo-induit à faibles concentrations, qui est accompagné à des concentrations élevées par l'apparition d'un composé acide après photo-clivage suivi d'une oxydation. Cette étude a révélé des changements spectroscopiques prononcés suite à l’augmentation de la concentration des fluorophores, en particulier à l'état solide, spécifiques à l'agrégation des molécules à l'état fondamental pour le BBT et à la formation d’excimères pour le BBS, permettant ainsi de corréler les propriétés fluorescentes avec les caractéristiques du monocristal pour chaque fluorophore. En outre, le passage d’une dispersion moléculaire à une séparation de phases dans le cas du BBS est accompagné d'un changement de couleur du bleu au vert, qui est sensible à la déformation, à la température et au temps, affectant les rendements quantiques absolus de fluorescence et fournissant une large opportunité à la création d'une grande variété de polymères intelligents indicateurs capables d'auto-évaluation. D’autre part, la solubilité élevée du BBT dans les solvants courants, combinée à ses propriétés optoélectroniques élevées, en font un candidat en tant que référence universelle de fluorescence et matériau intelligent à la fois pour les études de polymères et en solution. Similairement aux mélanges comprenant des polymères miscibles, l'orientation du PBS augmente après ajout d'une molécule fluorescente, dont les monomères ont tendance à être orientés dans des films étirés, contrairement aux excimères ou agrégats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail a été réalisé en collaboration avec le laboratoire de mécanique acoustique de Marseille, France. Les simulations ont été menées avec les langages Matlab et C. Ce projet s'inscrit dans le champ de recherche dénommé caractérisation tissulaire par ultrasons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs recherches sont effectuées sur la laitue commercialisée (Lactuca sativa L.), afin d’améliorer sa résistance aux ravageurs. L’objectif de cette étude est d’examiner les impacts de la résistance de la laitue sur le puceron de la laitue, Nasonovia ribisnigri (Mosley) (Hemiptera : Aphididae) et son parasitoïde, Aphidius ervi Haliday (Hymenoptera: Braconidae). La résistance de la laitue affecte négativement la valeur adaptative du puceron en augmentant sa mortalité et son temps de développement et en diminuant sa fécondité, sa taille et son poids. Cet impact sur la valeur adaptative du puceron affecte aussi négativement le parasitoïde qui s'y développe en diminuant le pourcentage d’émergence, la taille et le poids des adultes, et en diminuant la fécondité des femelles. La femelle parasitoïde estime de manière absolue la qualité de ses hôtes puisqu’elle peut discriminer entre des hôtes de bonne et de faible qualité, sans expérience préalable. L’acceptation des hôtes de bonne qualité est similaire lorsqu’ils sont présentés successivement à la femelle; l’estimation de la valeur des hôtes est donc adéquate dès la première rencontre. Cependant, cet estimé absolu est modifié par l'expérience, puisque la femelle peut changer son exploitation selon la qualité des agrégats rencontrés. Lorsque des hôtes de basse qualité sont présentés successivement, l’acceptation de la femelle augmente. Accepter des hôtes de mauvaise qualité pour l’oviposition peut être préférable que de risquer de ne pas pondre tous ses œufs. L’utilisation d’une estimation absolue et relative par A. ervi peut mener à une exploitation optimale des agrégats.