81 resultados para Méthode de quantification


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réalisé en cotutelle avec le laboratoire M2S de Rennes 2

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de cette étude, nous avons d’abord localisé les récepteurs CB1 et CB2 sur les structures neuronales. Nous avons montré que les récepteurs CB1 et CB2 sont présents sur les dendrites et les axones et les filopodes. Dans le même ordre d’idée, nous avons localisé le récepteur DCC sur les structures neuronales. Celui-ci est aussi présent sur les dendrites, les axones et les filopodes. Ces résultats suggèrent que le récepteur DCC serait impliqué non seulement dans le processus de synaptogenèse médié par le récepteur CB1, comme cela a été montré dans le laboratoire du professeur Bouchard, mais aussi dans celui, éventuellement, médié par le récepteur CB2. Nous avons ensuite évalué l’effet des ligands du récepteur CB2. Nous n’avons détecté aucun effet clair des agonistes inverses (AM630 et JTE907) et des agonistes (JWH015 et JWH133) quant à la médiation du processus de synaptogenèse en terme de variation de la densité des filopodes et des points de contacts synaptiques. Nous avons obtenu des résultats variables. Ceux-ci furent non reproductibles. Nous avons obtenu des résultats différents des résultats originaux lorsque nous avons requantifié visuellement les mêmes photos à deux reprises Nous avons développé une méthode informatisée de quantification qui nous a permis d’obtenir des résultats reproductibles. Cependant, nous n’avons toujours pas détecté d’effets sur la synaptogenèse médiés par le récepteur CB2. Ces résultats préliminaires ne nous permettent ni d’infirmer, ni de confirmer d’éventuels effets sur la synaptogenèse médiés par le récepteur CB2. Une étude exhaustive serait nécessaire pour le déterminer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-dede 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les manuels d’histoire ont souvent fait l’objet d’analyses concernant leur contenu et leur qualité, mais rarement leurs usages en classe. Cette thèse vise à décrire et analyser comment des enseignants d’histoire du Québec au secondaire utilisent le manuel et toute autre ressource didactique. Le problème consiste à mieux connaître ce qui se passe en classe depuis l’implantation de la réforme curriculaire, en 2001, et comment les conceptions des enseignants influencent leurs pratiques en lien avec l’exercice de la méthode historique. Ce travail décrit des pratiques enseignantes selon leur intervention éducative, les ressources didactiques utilisées et l’activité de l’élève en classe. Pour ce faire, la collecte de données est réalisée au travers d’un sondage en ligne (n= 81), d’observations en classe et d’entrevues (n=8) avec les participants. Les enseignants d’histoire utilisent souvent le manuel, mais leur intervention n’est pas structurée par son contenu ou ses exercices. Les cahiers d’exercices ou le récit de l’enseignant semblent structurer principalement leurs interventions. En fait, leurs conceptions sur l’enseignement et l’apprentissage en histoire déterminent le plus souvent l’usage du manuel et des autres ressources didactiques d’une manière traditionnelle ou d’une manière qui exerce authentiquement la méthode historique. Afin de décrire ces différents usages, la thèse propose une typologie qui distingue les différentes modalités mises en place afin d’utiliser les ressources didactiques et exercer la méthode historique. Trois principaux types sont énoncés : intensif, extensif et critique. Un quatrième type a été ajouté afin de mieux nuancer les différentes pratiques enseignantes rencontrées : extensif-méthodique. Ce dernier type s’explique par une pratique enseignante qui concilie les types extensif et critique selon les besoins de l’enseignant. La thèse souligne la persistance de pratiques transmissives et magistrocentrées qui limitent un exercice authentique de la méthode historique, alors que le curriculum vise un enseignement constructiviste et que plus de ressources sont disponibles pour les enseignants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Malgré un intérêt grandissant pour la question du devenir des survivants de tumeur cérébrale pédiatrique, l’évaluation de leur équilibre est souvent négligée. Les objectifs de nos travaux étaient de 1) examiner les écrits portant sur l’équilibre chez les survivants de tumeur cérébrale pédiatrique; 2) comparer l'équilibre debout et la qualité de vie entre les survivants et un groupe d’enfants témoins; et 3) examiner l'association entre l'équilibre debout et qualité de vie chez les survivants. Notre recension des écrits démontra que les survivants de tumeur cérébrale présentent des troubles de l’équilibre, mais les limites méthodologiques des études nous empêchent de conclure de manière définitive. Ensuite, nous avons recruté un groupe d’enfants survivants d’une tumeur cérébrale de la fosse postérieure et un groupe d’enfants sains. Leur équilibre était évalué à l’aide du Bruininks-Oseretsky Test of Motor Proficiency-2nd edition (BOT-2) et du Pediatric Balance Scale (PBS). Certains participants ont aussi été évalués avec une plate-forme de force où les limites de stabilité étaient documentées. Finalement, tous les enfants et leurs parents remplissaient le Pediatric Quality of Life Inventory (PedsQL4.0). Nos résultats démontrent que les survivants présentent une diminution de l’équilibre mise en évidence par le BOT-2, mais que leur qualité de vie est similaire aux enfants sains. La performance au BOT-2 est associée à la dimension physique du PedsQL4.0, suggérant une relation entre l’équilibre et la qualité de vie. Nos résultats suggèrent qu’une évaluation de l’équilibre pourrait être bénéfique chez cette clientèle afin de mieux cerner ses besoins de réadaptation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le travail a été réalisé en collaboration avec le laboratoire de mécanique acoustique de Marseille, France. Les simulations ont été menées avec les langages Matlab et C. Ce projet s'inscrit dans le champ de recherche dénommé caractérisation tissulaire par ultrasons.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dysfonction diastolique du ventricule gauche (DDVG) réfère à une rigidité ainsi qu’à des troubles de relaxation au niveau de ce ventricule pendant la phase de la diastole. Nos connaissances sur les mécanismes moléculaires sous-jacents de cette pathologie demeurent limités. Les analyses géniques sont indispensables afin de bien identifier les voies par lesquelles cette maladie progresse. Plusieurs techniques de quantification de l’expression génique sont disponibles, par contre la RT-qPCR demeure la méthode la plus populaire vu sa haute sensibilité et de ses coûts modérés. Puisque la normalisation occupe un aspect très important dans les expériences de RT-qPCR, nous avons décidé de sélectionner des gènes montrant une haute stabilité d’expression dans un modèle de DDVG de lapin. Nous avons alors exposé 18 lapins blancs soit à une diète normale (n=7) ou bien à une diète hypercholestérolémiante additionnée de vitamine D2 (n=11). La DDVG a été évaluée par des mesures échocardiographiques. L’expression de l’ARNm de dix gènes communément utilisés dans la littérature comme normalisateur (Gapdh, Hprt1, Ppia, Sdha, Rpl5, Actb, Eef1e1, Ywhaz, Pgk1, et G6pd) a été mesurée par RT-qPCR. L’évaluation de leur stabilité a été vérifiée par les algorithmes de geNorm et Normfinder. Sdha et Gapdh ont obtenu les meilleurs scores de stabilité (M<0.2) et ont été suggérés par le geNorm, comme meilleure combinaison. Par contre, l’utilisation de Normfinder mène à la sélection d’Hprt1 et Rpl5 comme meilleure combinaison de gènes de normalisation (0.042). En normalisant par ces deux combinaisons de gènes, l’expression de l’ARNm des peptides natriurétiques de type A et B (Anp et Bnp), de la protéine chimiotactique des monocytes-1 (Mcp-1) et de la sous unité Nox-2 de la NADPH oxydase ont montré des augmentations similaires chez le groupe hypercholestérolémique comparé au groupe contrôle (p<0.05). Cette augmentation d’expressions a été corrélée avec plusieurs paramètres échocardiographiques de DDVG. À notre connaissance, c’est la première étude par laquelle une sélection de gènes de référence a été réalisée dans un modèle de lapin développant une DDVG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.