985 resultados para Méthodes expérimentales
Resumo:
Le terme délibération connaît une forte actualité. Des initiatives et des expérimentations se font jour sur ce thème dans des contextes organisationnels très différents. Les recherches sur les processus de décision éthique et l’analyse de plusieurs expérimentations sur ce thème nous conduisent à focaliser notre attention sur les processus décisionnels en lien avec ces nouvelles pratiques délibératives. S’agissant de la décision éthique et de sa légitimité, plus que l’analyse des convergences dans les systèmes de représentation et de jugement éthiques, la priorité doit être donnée à l’analyse du processus délibératif lui-même. Partant de cette conception, nous analysons comment des démarches et méthodes expérimentales proposées aux acteurs intègrent cette conception de la légitimité par la procédure délibérative.
Resumo:
En janvier 2008, une éclosion de réactions anaphylactoïdes (RA) potentiellement mortelles associées à l’injection intraveineuse d’héparine manufacturées en Chine et contaminée par le chondroïtine sulfate hypersulfaté (CSHS) a forcé le rappel de ces dernières par la U.S. Food and Drug Administration. Ces RA ont rapidement été attribuées à la libération de la bradykinine (BK) suite à l’activation du système de contact par le CSHS. Cependant, aucune évidence expérimentale définitive n’est à ce jour venue appuyer directement cette hypothèse. En se basant sur le nombre de morts déclaré et associé à la contamination (>150 morts au niveau mondial) ainsi qu’aux données épidémiologiques, qui stipulent que 25% des patients ayant développés une RA aux États-Unis étaient essentiellement des insuffisant rénaux en dialyse traités au moyen d’un inhibiteur de l’enzyme de conversion de l’angiotensine (iECA), nous avons émis l’hypothèse suivante : les RA causées par l’injection intraveineuse d’héparine contaminée au CSHS sont de nature multifactorielle et complexe. Le but de notre travail est donc, dans un premier temps, d’évaluer le pouvoir kininoformateur du CSHS en présence d’un iECA et de le comparer à celui du sulfate de dextran, un activateur de référence du système de contact. Comme les RA associées à l’injection intraveineuse d’héparine contaminée par le CSHS se produisent généralement dans les premières minutes des séances de dialyse, nous allons étudier l’effet de la dilution du plasma sur la quantité de BK libérée en présence ou en absence d’un iECA. Nous allons également mesurer les profils cinétiques de la libération de la BK sur un plasma stimulé par différents lots d’héparine contaminée, et associée à des RA, et nous comparerons cette cinétique avec celles d’une héparine de référence complémentée ou non avec différentes concentrations de CSHS synthétique. Enfin, nous allons caractériser le profil de libération de la BK et de son métabolite actif, la des-Arg9-BK, dans le plasma de patients dialysé ayant présenté une RA associée à une membrane de dialyse chargée négativement. L’application de méthodes expérimentales développées dans notre laboratoire nous a permis de montrer, pour la première fois, que l’héparine contaminée au CSHS a la capacité de libérer la BK à des concentrations susceptibles d’expliquer le rôle de ce peptide inflammatoire dans la physiopathologie des RA causées par l’injection intraveineuse d’héparine d’origine chinoise contaminée au CSHS.
Resumo:
La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
Certains philosophes affirment que les relations causales sont fondées sur les lois de la nature. Cette conception cadre mal avec la réalité des sciences biomédicales et des sciences humaines. Pour se rapprocher de la pratique réelle des diverses sciences, James Woodward propose une conception de la causalité et de l’explication causale fondée sur une relation beaucoup moins exigeante que celle de loi de la nature, qu’il appelle l’invariance. Le but de ce mémoire est de présenter le concept d’invariance et les autres concepts causaux qui s’y rattachent et, d’identifier certaines difficultés, dans le but de cerner l’usage approprié de cette famille de concepts. La conception causale de Woodward suppose que le but de la recherche des causes est pratique plutôt que simplement épistémique : il s’agit pour les agents de s’appuyer sur les causes pour modifier les phénomènes. Cette conception est également non-réductive; elle utilise des contrefactuels et reflète les méthodes expérimentales des diverses sciences. La cohérence de cette conception avec les généralisations causales réelles des sciences fait en sorte qu’elle abandonne l’objectif d’universalité rattaché à la notion de loi de la nature, en faveur d’un objectif de fiabilité temporaire. De plus, comme le critère d’invariance est peu exigeant, d’autres critères doivent lui être ajoutés pour identifier, parmi les relations causales (c’est-à-dire invariantes), les relations les plus susceptibles d’être employées pour modifier les phénomènes de façon fiable.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Dans le programme de sciences et technologies du primaire, la dimension expérimentale du travail scientifique qu'on souhaite insuffler à l'élève est rendue effective grâce à l'appropriation des concepts scientifiques et technologiques et des démarches à caractère scientifique. La réforme curriculaire dans laquelle s'inscrit ce programme se présente dans un contexte de stratification des représentations des enseignants à l'égard des sciences et des technologies qui les perçoivent comme secondaires. De ce fait, peu de temps serait alloué à cette discipline en classe et l'enseignement serait dispensé selon un mode de transmission et d'exercisation plutôt qu'en fonction de réels problèmes. Par ailleurs, le matériel mis à la disposition des enseignants ne rencontrerait pas toutes les attentes véhiculées dans les programmes. Dans son rapport de conjoncture 2004, le Conseil des sciences de la technologie révèle l'occasion unique engendrée par la réforme afin de renforcer l'enseignement de la science et de la technologie et rapelle le lien étroit entre l'école et les organismes de médiation scientifique, les acteurs de la promotion des sciences. Du même coup, il évoque le large éventail des réalisations de ces mêmes acteurs et la pertinence de celles-ci.
Resumo:
Certains philosophes affirment que les relations causales sont fondées sur les lois de la nature. Cette conception cadre mal avec la réalité des sciences biomédicales et des sciences humaines. Pour se rapprocher de la pratique réelle des diverses sciences, James Woodward propose une conception de la causalité et de l’explication causale fondée sur une relation beaucoup moins exigeante que celle de loi de la nature, qu’il appelle l’invariance. Le but de ce mémoire est de présenter le concept d’invariance et les autres concepts causaux qui s’y rattachent et, d’identifier certaines difficultés, dans le but de cerner l’usage approprié de cette famille de concepts. La conception causale de Woodward suppose que le but de la recherche des causes est pratique plutôt que simplement épistémique : il s’agit pour les agents de s’appuyer sur les causes pour modifier les phénomènes. Cette conception est également non-réductive; elle utilise des contrefactuels et reflète les méthodes expérimentales des diverses sciences. La cohérence de cette conception avec les généralisations causales réelles des sciences fait en sorte qu’elle abandonne l’objectif d’universalité rattaché à la notion de loi de la nature, en faveur d’un objectif de fiabilité temporaire. De plus, comme le critère d’invariance est peu exigeant, d’autres critères doivent lui être ajoutés pour identifier, parmi les relations causales (c’est-à-dire invariantes), les relations les plus susceptibles d’être employées pour modifier les phénomènes de façon fiable.
Resumo:
Cette thèse présente une série d'études qui visent la compréhension de la structure électronique de complexes de métaux de transition en employant diverses méthodes de spectroscopie. L'information sur la structure électronique aide à comprendre et développer des nouveaux matériaux, des nouvelles voies de synthèses, ainsi que des nouveaux modèles théoriques. Habituellement, afin d'explorer la structure électronique d'un système qui comporte en son centre un métal de transition, l'information fournie par les spectres d'un seul composé n'est pas suffisante. On étudie une série de composés similaires, qui ont le même métal de transition à un degré d'oxydation donné, ainsi que des ligands qui forment des liaisons de différentes forces et caractéristiques avec le métal. Cependant, ces changements, bien qu'on les désire de faible impact, créent une grande perturbation de la structure électronique visée par les études. Afin d'étudier en profondeur une seule structure électronique, nous employons une stratégie d'analyse moins perturbante. Nous appliquons une pression hydrostatique sur les complexes de métaux de transition. Cette pression perturbe le système suffisamment pour nous livrer davantage d'informations sur la structure électronique, sans la « dénaturer ». Afin d'étudier précisément ces systèmes perturbés, la technique d'application de pression est conjuguée, dans la littérature, aux diverses techniques de spectroscopie d'absorption UV-visible, de luminescence, ainsi que de diffusion Raman. Pour extraire un maximum d'informations de ces expériences, on emploie des techniques de calculs de structure électronique ainsi que de dynamique des noyaux. Dans cette thèse, on tente de mettre en lumière la structure électronique de composés de molybdène(IV), de platine(II) et palladium(II) à l'aide de la technique de pression couplée aux spectroscopies de luminescence et de diffusion Raman. Dans le chapitre 3, on observe un déplacement de la bande de luminescence de +12 cm-1/kbar entre la pression ambiante et 25 kbar pour le complexe trans-[MoOCl(CN-t-Bu)4]BPh4, dont le centre métallique molybdène(IV)est de configuration électronique 4d2. Il s'agit de la première variation positive observée pour un complexe de type métal-oxo. À des pressions plus élevées, la tendance s'inverse. Le maximum d'énergie de la bande de luminescence se déplace de -8 cm-1/kbar. Ce changement de variation présage d'une compétition interne entre les ligands situés sur les différents axes de l'octaèdre. À l'aide de calculs basés sur la théorie de la fonctionnelle de la densité, on propose un mécanisme pour expliquer ce phénomène. Au cours du chapitre 4, on étudie des complexes de palladium(II) et de platine(II) qui ont les mêmes ligands. Un de ces ligands est le 1,4,7-trithiacyclononane (ttcn). On constate qu'à basse pression le ligand est bidentate. Par contre, lorsque la pression augmente, on constate, par exemple à l'aide du complexe [Pt(ttcn)Cl2], qu'une interaction anti-liante supplémentaire se produit entre le ligand ttcn et le métal, ce qui change la nature de l'orbitale HOMO. On observe un déplacement de la bande de luminescence de -19 cm-1/kbar. Tel que pour le complexe de molybdène(IV), le déplacement de la bande de luminescence dépend de la compétition entre les ligands situés sur les différents axes de l'octaèdre. L'interaction liante entre l'ion platine(II) et l'atome de soufre axial est l'effet le plus plausible qui peut induire un déplacement de la bande de luminescence vers les basses énergies. Ceci nous indique que cette interaction domine. Par contre, pour ce qui est du complexe palladium(II), la compétition est remportée par d'autres effets, car le déplacement de la bande de luminescence est de +6 cm-1/kbar. Encore une fois, des calculs, basés sur la théorie de la fonctionnelle de la densité, aident à explorer les causes de ces observations en suggérant des explications corroborées simultanément par les diverses expériences de spectroscopie. Lors du chapitre 5, une étude plus exacte de la structure électronique ainsi que de la dynamique des noyaux de complexes de métaux de transition est présentée. En effet, les complexes de palladium(II) et de platine(II), de type [M(X)4]2-, ont une structure simple, très symétrique. Le premier état excité de ces molécules subit la distorsion Jahn-Teller. On veut établir un protocole de travail pour les expérimentateurs afin d'analyser des spectres de molécules pour lesquelles l'approximation de Born-Oppenheimer n'est pas valide. On utilise la théorie de la fonctionnelle de la densité dépendante du temps ainsi que le modèle de Heidelberg afin de décrire des effets non adiabatique. On tente d'établir l'influence des effets non adiabatiques sur les spectres de ce type de complexe.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.
Resumo:
L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.
Resumo:
L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.