2 resultados para Trichoderma harzianus Rifai

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cellulose et ses dérivés sont utilisés dans un vaste nombre d’applications incluant le domaine pharmaceutique pour la fabrication de médicaments en tant qu’excipient. Différents dérivés cellulosiques tels que le carboxyméthylcellulose (CMC) et l’hydroxyéthylcellulose (HEC) sont disponibles sur le commerce. Le degré de polymérisation et de modification diffèrent énormément d’un fournisseur à l’autre tout dépendamment de l’origine de la cellulose et de leur procédé de dérivation, leur conférant ainsi différentes propriétés physico-chimiques qui leurs sont propres, telles que la viscosité et la solubilité. Notre intérêt est de développer une méthode analytique permettant de distinguer la différence entre deux sources d’un produit CMC ou HEC. L’objectif spécifique de cette étude de maitrise était l’obtention d’un profil cartographique de ces biopolymères complexes et ce, par le développement d’une méthode de digestion enzymatique donnant les oligosaccharides de plus petites tailles et par la séparation de ces oligosaccharides par les méthodes chromatographiques simples. La digestion fut étudiée avec différents paramètres, tel que le milieu de l’hydrolyse, le pH, la température, le temps de digestion et le ratio substrat/enzyme. Une cellulase de Trichoderma reesei ATCC 26921 fut utilisée pour la digestion partielle de nos échantillons de cellulose. Les oligosaccharides ne possédant pas de groupements chromophores ou fluorophores, ils ne peuvent donc être détectés ni par absorbance UV-Vis, ni par fluorescence. Il a donc été question d’élaborer une méthode de marquage des oligosaccharides avec différents agents, tels que l’acide 8-aminopyrène-1,3,6-trisulfonique (APTS), le 3-acétylamino-6-aminoacridine (AA-Ac) et la phénylhydrazine (PHN). Enfin, l’utilisation de l’électrophorèse capillaire et la chromatographie liquide à haute performance a permis la séparation des produits de digestion enzymatique des dérivés de cellulose. Pour chacune de ces méthodes analytiques, plusieurs paramètres de séparation ont été étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.