941 resultados para combinatorial optimisation
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
La neurogenèse est présente, dans le cerveau adulte, dans la zone sous-ventriculaire (ZSV) encadrant les ventricules latéraux et dans le gyrus dentelé (GD) de l’hippocampe, permettant l’apprentissage, la mémoire et la fonction olfactive. Ces micro-environnements possèdent des signaux contrôlant l’auto-renouvellement des cellules souches neurales (CSN), leur prolifération, leur destin et leur différenciation. Or, lors du vieillissement, les capacités régénératives et homéostatiques et la neurogenèse déclinent. Les patients atteints de la maladie d’Alzheimer (MA), comme le modèle animal reproduisant cette maladie (3xTg-AD), montrent une accélération des phénotypes liés au vieillissement dont une diminution de la neurogenèse. Notre hypothèse est que la découverte des mécanismes affectant la neurogenèse, lors du vieillissement et de la MA, pourrait fournir de nouvelles cibles thérapeutiques pour prévenir le déclin cognitif. Les études sur l’âge d’apparition et les mécanismes altérant la neurogenèse dans la MA sont contrastées et nous ont guidé vers deux études. L’examen des changements dans les étapes de la neurogenèse lors du vieillissement et du développement de la neuropathologie. Nous avons étudié la ZSV, les bulbes olfactifs et le GD de souris femelles de 11 et 18 mois, et l’apparition des deux pathologies associées à la MA : les plaques amyloïdes et les enchevêtrements neurofibrillaires. Nous avons découvert que les souris 3xTg-AD possèdent moins de cellules en prolifération, de progéniteurs et de neuroblastes, induisant une diminution de l’intégration de nouvelles cellules dans le GD et les bulbes olfactifs. Notons que le taux de neurogenèse chez ces souris de 11 mois est similaire à celui des souris de phénotype sauvage de 18 mois, indiquant une accélération des changements liés au vieillissement dans la MA. Dans la ZSV, nous avons aussi démontré une accumulation de gouttelettes lipidiques, suggérant des changements dans l’organisation et le métabolisme de la niche. Enfin, nous avons démontré que le déficit de la neurogenèse apparait lors des premières étapes de la MA, avant l’apparition des plaques amyloïdes et des enchevêtrements neurofibrillaires. A l’examen des mécanismes inhibant la neurogenèse lors de la MA, nous voyons que chez des souris de 5 mois, le déficit de la neurogenèse dans la ZSV et le GD est corrélé avec l’accumulation de lipides, qui coïncide avec l’apparition du déclin cognitif. Nous avons aussi découvert que dans le cerveau humain de patients atteints de la MA et dans les 3xTg-AD, des gouttelettes lipidiques s’accumulaient dans les cellules épendymaires, représentant le principal soutien des CSN de la niche. Ces lipides sont des triglycérides enrichis en acide oléique qui proviennent de la niche et pas d’une défaillance du système périphérique. De plus, l’infusion locale d’acide oléique chez des souris de phénotype sauvage permet de reproduire l’accumulation de triglycérides dans les cellules épendymaires, comme dans la MA. Ces gouttelettes induisent un dérèglement de la voie de signalisation Akt-FoxO3 dans les CSN, menant à l’inhibition de leur activation in vitro et in vivo. Ces résultats permettent une meilleure compréhension de la régulation de la neurogenèse par le métabolisme lipidique. Nous avons démontré un nouveau mécanisme par lequel l’accumulation des lipides dans la ZSV induit une inhibition des capacités de prolifération et de régénération des CSN lors de la MA. Les travaux futurs permettront de comprendre comment et pourquoi le métabolisme lipidique du cerveau est altéré dans la MA, ce qui pourrait offrir de nouvelles voies thérapeutiques pour la prévention et la régénération.
Resumo:
La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Nous proposons une approche qui génère des scénarios de visualisation à partir des descriptions de tâches d'analyse de code. La dérivation de scénario est considérée comme un processus d'optimisation. Dans ce contexte, nous évaluons différentes possibilités d'utilisation d'un outil de visualisation donnée pour effectuer la tâche d'analyse, et sélectionnons le scénario qui nécessite le moins d'effort d'analyste. Notre approche a été appliquée avec succès à diverses tâches d'analyse telles que la détection des défauts de conception.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration des services infirmiers
Resumo:
Les azasulfurylpeptides sont des mimes peptidiques auxquels le carbone en position alpha et le carbonyle d’un acide aminé sont respectivement remplacés par un atome d’azote et un groupement sulfonyle (SO2). Le but premier de ce projet a été de développer une nouvelle méthode de synthèse de ces motifs, également appelés N-aminosulfamides. À cette fin, l’utilisation de sulfamidates de 4-nitrophénol s’est avérée importante dans la synthèse des azasulfuryltripeptides, permettant le couplage d’hydrazides avec l’aide d’irradiation aux micro-ondes (Chapitre 2). Par la suite, en quantité stoechiométrique d’une base et d’un halogénure d’alkyle, les azasulfurylglycines (AsG) formés peuvent être chimiosélectivement alkylés afin d’y insérer diverses chaînes latérales. Les propriétés conformationnelles des N-aminosulfamides à l’état solide ont été élucidées grâce à des études cristallographiques par rayons X : elles possèdent une structure tétraédrique autour de l’atome de soufre, des traits caractéristiques des azapeptides et des sulfonamides, ainsi que du potentiel à favoriser la formation de tours gamma (Chapitre 3). Après le développement d’une méthode de synthèse des N-aminosulfamides en solution, une approche combinatoire sur support solide a également été élaborée sur la résine amide de Rink afin de faciliter la génération d’une librairie d’azasulfurylpeptides. Cette étude a été réalisée en employant le growth hormone releasing peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). Ce dernier est un hexapeptide possédant une affinité pour deux récepteurs, le growth hormone secretagogue receptor 1a (GHS-R1a) et le récepteur cluster of differenciation 36 (CD36). Une affinité sélective envers le récepteur CD36 confère des propriétés thérapeutiques dans le traitement de la dégénérescence maculaire liée à l’âge (DMLA). Six analogues d’azasulfurylpeptides de GHRP-6 utilisés comme ligands du CD36 ont été synthétisés sur support solide, mettant en évidence le remplacement du tryptophane à la position 4 de GHRP-6 (Chapitre 4). Les analogues de GHRP-6 ont été ensuite analysés pour leur capacité à moduler les effets de la fonction et de la cascade de signalisation des ligands spécifiques au Toll-like receptor 2 (TLR2), en collaboration avec le Professeur Huy Ong du département de Pharmacologie à la Faculté de Pharmacie de l’Université de Montréal. Le complexe TLR2-TLR6 est reconnu pour être co-exprimé et modulé par CD36. En se liant au CD36, certains ligands de GHRP-6 ont eu un effet sur la signalisation du TLR2. Par exemple, les azasulfurylpeptides [AsF(4-F)4]- et [AsF(4-MeO)4]-GHRP-6 ont démontré une capacité à empêcher la surproduction du monoxyde d’azote (NO), un sous-produit réactif formé suite à l’induction d’un signal dans les macrophages par des ligands spécifiques liés au TLR2, tel le fibroblast-stimulating lipopeptide 1 (R-FSL-1) et l’acide lipotéichoïque (LTA). En addition, la sécrétion du tumor necrosis factor alpha (TNFa) et du monocyte chemoattractant protein 1 (MCP-1), ainsi que l’activation du nuclear factor kappa-light-chain-enhancer of activated B cells (NF-kB), ont été réduites. Ces résultats démontrent le potentiel de ces azasulfurylpeptides à pouvoir réguler le rôle du TLR2 qui déclenche des réponses inflammatoires et immunitaires innées (Perspectives). Finalement, le potentiel des azasulfurylpeptides d’inhiber des métallo-bêta-lactamases, tels le New-Delhi Metallo-bêta-lactamase 1 (NDM-1), IMP-1 et le Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), a été étudié en collaboration avec le Professeur James Spencer de l’Université de Bristol (Royaumes-Unis). Certains analogues ont été des inhibiteurs micromolaires du IMP-1 (Perspectives). Ces nouvelles voies de synthèse des azasulfurylpeptides en solution et sur support solide devraient donc permettre leur utilisation dans des études de relations structure-activité avec différents peptides biologiquement actifs. En plus d'expandre l'application des azasulfurylpeptides comme inhibiteurs d'enzymes, cette thèse a révélé le potentiel de ces N-aminosulfamides à mimer les structures secondaires peptidiques, tels que les tours gamma. À cet égard, l’application des azasulfurylpeptides a été démontrée par la synthèse de ligands du CD36 présentant des effets modulateurs sur le TLR2. Compte tenu de leur synthèse efficace et de leur potentiel en tant qu’inhibiteurs, les azasulfurylpeptides devraient trouver une large utilisation dans les sciences de peptides pour des applications dans la médecine et de la chimie biologique.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
Projet de maîtrise
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.
Resumo:
In the last few years, the development of a plasmid-based reverse genetics system for mammalian reovirus has allowed the production and characterization of mutant viruses. This could be especially significant in the optimization of reovirus strains for virotherapeutic applications, either as gene vectors or oncolytic viruses. The genome of a mutant virus exhibiting increased sensitivity to interferon was completely sequenced and compared with its parental virus. Viruses corresponding to either the parental or mutant viruses were then rescued by reverse genetics and shown to exhibit the expected phenotypes. Systematic rescue of different viruses harboring either of the four parental genes in a mutant virus backbone, or reciprocally, indicated that a single amino acid substitution in one of λ2 methyltransferase domains is the major determinant of the difference in interferon sensitivity between these two viruses.
Resumo:
En génétique dite « classique », l’examen d’un phénotype conduit à l’étude des gènes impliqués dans son obtention. La génétique inverse est une méthode expérimentale très puissante dans laquelle, au contraire, le matériel génétique est modifié et utilisé pour reconstruire un organisme complet, afin de déterminer le résultat de ces modifications. Cette approche est spécialement bien adaptée à l'étude des virus, compte tenu de la relative simplicité et de la petite taille de leurs génomes; l’obstacle principal demeure de récupérer des virus infectieux à partir de génomes viraux clonés. Au cours des années, cet exploit a été accompli pour des représentants de presque toutes les familles de virus de mammifères. Jusqu’à récemment, les Reoviridae, virus à génome d'ARN bicaténaire segmenté, faisaient toutefois exception. Dans cette revue, les progrès réalisés vers la mise au point de la génétique inverse pour l'étude du réovirus seront discutés. La génétique inverse pourrait avoir un impact majeur dans l'optimisation de nouvelles souches de réovirus pour leur utilisation en thérapie comme agents oncolytiques et pour le développement de vaccins dans le cas des rotavirus et des orbivirus. Les travaux actuels font toutefois ressortir les limites de l'approche, la nécessité d’une analyse prudente des résultats obtenus, ainsi que le besoin de développer des systèmes plus efficaces et polyvalents.
Resumo:
Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.
Resumo:
The present project was a systematic investigation of the physico-chemical properties and catalytic activity of some transition metal promoted sulphated zirconia systems. The characterisation and catalytic activity results were compared with that of pure Zr02 and simple sulphated zirconia systems. Sulphated zirconia samples were prepared by a controlled impregnation technique. In the case of metal incorporated systems, a single step impregnation was carried out using required amounts of sulphuric acid and metal salt solutions. As a preliminary step, optimisation of calcination temperature and sulphate content was achieved. For further studies, the optimised sulphate loading of 10 ml per gram of hydrous zirconium oxide and a calcination temperature of 700°C was employed. Metal incorporation had a positive influence on the physico-chemical properties. Vapour phase cumene conversion served as a test reaction for acidity. Some industrially important reactions like Friedel-Crafts reaction, phenol hydroxylation, nitration, etc. were selected to test the catalytic activity of the prepared systems.