997 resultados para enzyme optimization


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Population-based metaheuristics, such as particle swarm optimization (PSO), have been employed to solve many real-world optimization problems. Although it is of- ten sufficient to find a single solution to these problems, there does exist those cases where identifying multiple, diverse solutions can be beneficial or even required. Some of these problems are further complicated by a change in their objective function over time. This type of optimization is referred to as dynamic, multi-modal optimization. Algorithms which exploit multiple optima in a search space are identified as niching algorithms. Although numerous dynamic, niching algorithms have been developed, their performance is often measured solely on their ability to find a single, global optimum. Furthermore, the comparisons often use synthetic benchmarks whose landscape characteristics are generally limited and unknown. This thesis provides a landscape analysis of the dynamic benchmark functions commonly developed for multi-modal optimization. The benchmark analysis results reveal that the mechanisms responsible for dynamism in the current dynamic bench- marks do not significantly affect landscape features, thus suggesting a lack of representation for problems whose landscape features vary over time. This analysis is used in a comparison of current niching algorithms to identify the effects that specific landscape features have on niching performance. Two performance metrics are proposed to measure both the scalability and accuracy of the niching algorithms. The algorithm comparison results demonstrate the algorithms best suited for a variety of dynamic environments. This comparison also examines each of the algorithms in terms of their niching behaviours and analyzing the range and trade-off between scalability and accuracy when tuning the algorithms respective parameters. These results contribute to the understanding of current niching techniques as well as the problem features that ultimately dictate their success.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Many real-world optimization problems contain multiple (often conflicting) goals to be optimized concurrently, commonly referred to as multi-objective problems (MOPs). Over the past few decades, a plethora of multi-objective algorithms have been proposed, often tested on MOPs possessing two or three objectives. Unfortunately, when tasked with solving MOPs with four or more objectives, referred to as many-objective problems (MaOPs), a large majority of optimizers experience significant performance degradation. The downfall of these optimizers is that simultaneously maintaining a well-spread set of solutions along with appropriate selection pressure to converge becomes difficult as the number of objectives increase. This difficulty is further compounded for large-scale MaOPs, i.e., MaOPs possessing large amounts of decision variables. In this thesis, we explore the challenges of many-objective optimization and propose three new promising algorithms designed to efficiently solve MaOPs. Experimental results demonstrate the proposed optimizers to perform very well, often outperforming state-of-the-art many-objective algorithms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’atmosphère terrestre est très riche en azote (N2). Mais cet azote diatomique est sous une forme très stable, inutilisable par la majorité des êtres vivants malgré qu’il soit indispensable pour la synthèse de matériels organiques. Seuls les procaryotes diazotrophiques sont capables de vivre avec le N2 comme source d’azote. La fixation d’azote est un processus qui permet de produire des substances aminées à partir de l’azote gazeux présent dans l’atmosphère (78%). Cependant, ce processus est très complexe et nécessite la biosynthèse d’une vingtaine de protéines et la consommation de beaucoup d’énergie (16 molécules d’ATP par mole de N2 fixé). C’est la raison pour laquelle ce phénomène est rigoureusement régulé. Les bactéries photosynthétiques pourpres non-sulfureuses sont connues pour leur capacité de faire la fixation de l’azote. Les études faites à la lumière, dans le mode de croissance préféré de ces bactéries (photosynthèse anaérobie), ont montré que la nitrogénase (enzyme responsable de la fixation du diazote) est sujet d’une régulation à trois niveaux: une régulation transcriptionnelle de NifA (protéine activatrice de la transcription des gènes nif), une régulation post-traductionnelle de l’activité de NifA envers l’activation de la transcription des autres gènes nif, et la régulation post-traductionnelle de l’activité de la nitrogénase quand les cellules sont soumises à un choc d’ammoniaque. Le système de régulation déjà décrit fait intervenir essentiellement une protéine membranaire, AmtB, et les deux protéines PII, GlnB et GlnK. Il est connu depuis long temps que la nitrogénase est aussi régulée quand une culture photosynthétique est exposée à la noirceur, mais jusqu’aujourd’hui, on ignore encore la nature des systèmes intervenants dans cette régulation. Ainsi, parmi les questions qui peuvent se poser: quelles sont les protéines qui interviennent dans l’inactivation de la nitrogénase lorsqu’une culture anaérobie est placée à la noirceur? Une analyse de plusieurs souches mutantes, amtB- , glnK- , glnB- et amtY- poussées dans différentes conditions de limitation en azote, serait une façon pour répondre à ces interrogations. Alors, avec le suivi de l’activité de la nitrogénase et le Western Blot, on a montré que le choc de noirceur provoquerait un "Switch-off" de l’activité de la nitrogénase dû à une ADP-ribosylation de la protéine Fe. On a réussit aussi à montrer que ii tout le système déjà impliqué dans la réponse à un choc d’ammoniaque, est également nécessaire pour une réponse à un manque de lumière ou d’énergie (les protéines AmtB, GlnK, GlnB, DraG, DraT et AmtY). Or, Rhodobacter capsulatus est capable de fixer l’azote et de croitre aussi bien dans la micro-aérobie à la noirceur que dans des conditions de photosynthèse anaérobies, mais jusqu'à maintenant sa régulation dans l’obscurité est peu étudiée. L’étude de la fixation d’azote à la noirceur nous a permis de montrer que le complexe membranaire Rnf n’est pas nécessaire à la croissance de R. capsulatus dans de telles conditions. Dans le but de développer une façon d’étudier la régulation de la croissance dans ce mode, on a tout d’abord essayé d’identifier les conditions opératoires (O2, [NH4 + ]) permettant à R. capsulatus de fixer l’azote en microaérobie. L’optimisation de cette croissance a montré que la concentration optimale d’oxygène nécessaire est de 10% mélangé avec de l’azote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les sites apuriniques/apyrimidiniques (AP) sont des sites de l’ADN hautement mutagène. Les dommages au niveau de ces sites peuvent survenir spontanément ou être induits par une variété d’agents. Chez l’humain, les sites AP sont réparés principalement par APE1, une enzyme de réparation de l’ADN qui fait partie de la voie de réparation par excision de base (BER). APE1 est une enzyme multifonctionnelle; c’est une AP endonucléase, 3’-diestérase et un facteur redox impliqué dans l’activation des facteurs de transcription. Récemment, il a été démontré qu’APE1 interagit avec l’enzyme glycolytique GAPDH. Cette interaction induit l’activation d’APE1 par réduction. En outre, la délétion du gène GAPDH sensibilise les cellules aux agents endommageant l’ADN, induit une augmentation de formation spontanée des sites AP et réduit la prolifération cellulaire. A partir de toutes ces données, il était donc intéressant d’étudier l’effet de la délétion de GAPDH sur la progression du cycle cellulaire, sur la distribution cellulaire d’APE1 et d’identifier la cystéine(s) d’APE1 cible(s) de la réduction par GAPDH. Nos travaux de recherche ont montré que la déficience en GAPDH cause un arrêt du cycle cellulaire en phase G1. Cet arrêt est probablement dû à l’accumulation des dommages engendrant un retard au cours duquel la cellule pourra réparer son ADN. De plus, nous avons observé des foci nucléaires dans les cellules déficientes en GAPDH qui peuvent représenter des agrégats d’APE1 sous sa forme oxydée ou bien des focis de la protéine inactive au niveau des lésions d’ADN. Nous avons utilisé la mutagénèse dirigée pour créer des mutants (Cys en Ala) des sept cystéines d’APE1 qui ont été cloné dans un vecteur d’expression dans les cellules de mammifères. Nous émettons l’hypothèse qu’au moins un mutant ou plus va être résistant à l’inactivation par oxydation puisque l’alanine ne peut pas s’engager dans la formation des ponts disulfures. Par conséquent, on anticipe que l’expression de ce mutant dans les cellules déficientes en GAPDH pourrait restaurer une distribution cellulaire normale de APE1, libérerait les cellules de l’arrêt en phase G1 et diminuerait la sensibilité aux agents endommageant l’ADN. En conclusion, il semble que GAPDH, en préservant l’activité d’APE1, joue un nouveau rôle pour maintenir l’intégrité génomique des cellules aussi bien dans les conditions normales qu’en réponse au stress oxydatif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les protéines sont les produits finaux de la machinerie génétique. Elles jouent des rôles essentiels dans la définition de la structure, de l'intégrité et de la dynamique de la cellule afin de promouvoir les diverses transformations chimiques requises dans le métabolisme et dans la transmission des signaux biochimique. Nous savons que la doctrine centrale de la biologie moléculaire: un gène = un ARN messager = une protéine, est une simplification grossière du système biologique. En effet, plusieurs ARN messagers peuvent provenir d’un seul gène grâce à l’épissage alternatif. De plus, une protéine peut adopter plusieurs fonctions au courant de sa vie selon son état de modification post-traductionelle, sa conformation et son interaction avec d’autres protéines. La formation de complexes protéiques peut, en elle-même, être déterminée par l’état de modifications des protéines influencées par le contexte génétique, les compartiments subcellulaires, les conditions environmentales ou être intrinsèque à la croissance et la division cellulaire. Les complexes protéiques impliqués dans la régulation du cycle cellulaire sont particulièrement difficiles à disséquer car ils ne se forment qu’au cours de phases spécifiques du cycle cellulaire, ils sont fortement régulés par les modifications post-traductionnelles et peuvent se produire dans tous les compartiments subcellulaires. À ce jour, aucune méthode générale n’a été développée pour permettre une dissection fine de ces complexes macromoléculaires. L'objectif de cette thèse est d'établir et de démontrer une nouvelle stratégie pour disséquer les complexes protéines formés lors du cycle cellulaire de la levure Saccharomyces cerevisiae (S. cerevisiae). Dans cette thèse, je décris le développement et l'optimisation d'une stratégie simple de sélection basée sur un essai de complémentation de fragments protéiques en utilisant la cytosine déaminase de la levure comme sonde (PCA OyCD). En outre, je décris une série d'études de validation du PCA OyCD afin de l’utiliser pour disséquer les mécanismes d'activation des facteurs de transcription et des interactions protéine-protéines (IPPs) entre les régulateurs du cycle cellulaire. Une caractéristique clé du PCA OyCD est qu'il peut être utilisé pour détecter à la fois la formation et la dissociation des IPPs et émettre un signal détectable (la croissance des cellules) pour les deux types de sélections. J'ai appliqué le PCA OyCD pour disséquer les interactions entre SBF et MBF, deux facteurs de transcription clés régulant la transition de la phase G1 à la phase S. SBF et MBF sont deux facteurs de transcription hétérodimériques composés de deux sous-unités : une protéine qui peut lier directement l’ADN (Swi4 ou Mbp1, respectivement) et une protéine commune contenant un domain d’activation de la transcription appelée Swi6. J'ai appliqué le PCA OyCD afin de générer un mutant de Swi6 qui restreint ses activités transcriptionnelles à SBF, abolissant l’activité MBF. Nous avons isolé des souches portant des mutations dans le domaine C-terminal de Swi6, préalablement identifié comme responsable dans la formation de l’interaction avec Swi4 et Mbp1, et également important pour les activités de SBF et MBF. Nos résultats appuient un modèle où Swi6 subit un changement conformationnel lors de la liaison à Swi4 ou Mbp1. De plus, ce mutant de Swi6 a été utilisé pour disséquer le mécanisme de régulation de l’entrée de la cellule dans un nouveau cycle de division cellulaire appelé « START ». Nous avons constaté que le répresseur de SBF et MBF nommé Whi5 se lie directement au domaine C-terminal de Swi6. Finalement, j'ai appliqué le PCA OyCD afin de disséquer les complexes protéiques de la kinase cycline-dépendante de la levure nommé Cdk1. Cdk1 est la kinase essentielle qui régule la progression du cycle cellulaire et peut phosphoryler un grand nombre de substrats différents en s'associant à l'une des neuf protéines cycline régulatrice (Cln1-3, Clb1-6). Je décris une stratégie à haut débit, voir à une échelle génomique, visant à identifier les partenaires d'interaction de Cdk1 et d’y associer la cycline appropriée(s) requise(s) à l’observation d’une interaction en utilisant le PCA OyCD et des souches délétées pour chacune des cyclines. Mes résultats nous permettent d’identifier la phase(s) du cycle cellulaire où Cdk1 peut phosphoryler un substrat particulier et la fonction potentielle ou connue de Cdk1 pendant cette phase. Par exemple, nous avons identifié que l’interaction entre Cdk1 et la γ-tubuline (Tub4) est dépendante de Clb3. Ce résultat est conforme au rôle de Tub4 dans la nucléation et la croissance des faisceaux mitotiques émanant des centromères. Cette stratégie peut également être appliquée à l’étude d'autres IPPs qui sont contrôlées par des sous-unités régulatrices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: La cardiopathie ischémique (IHD) reste une cause majeure de mortalité en Amérique du Nord. La thérapie cellulaire cardiaque (CCT) a émergé comme une thérapie prometteuse pour aider à guérir certaines malades cardiaques. Parmi les cellulaires avec propriétés pluripotentes, les cellules stromales mésenchymateuses (MSC) sont prometteuses. Cependant, plusieurs questions demeurent non résolues et certaines défis empêchent l'application clinique de la CCT se dans l'IHD, tels que le faible taux de rétention cellulaire in situ, le suivi des cellules in vivo post-implantation et post-acheminements et l`apoptose. Ici, le traitement préliminaire des MSC avec des facteurs de croissance et leur couplage avec des nanoparticules (NP) seront étudiés comme des méthodes pour optimiser MSC. Méthodes: Des MSCs provenant du rat (rMSC) et du cochon (pMSC) ont été isolés à partir de moelle osseuse. Les rMSC ont été préconditionnées avec SDF-1a, TSG-6 et PDGF-BB, et ensuite soumises à une hypoxie, une privation de sérum et a un stress oxydatif. Des études de cicatrisation ont également été effectués avec rMSCs préconditionnées. En parallèle, de nouvelles NP ferromagnétiques liées aux silicones ont été synthétisées. Les NPs ont été couplées aux pMSCs suivant leur fonctionnalisation avec l`anticorps, CD44, un antigène de surface du MSC bien connu. Par la suite, les études de biocompatibilité ont été réalisées sur pMSC-NP et en incluant des tests des processus cellulaires tels que la migration, l'adhésion, la prolifération et les propriétés de la différenciation. Résultats: Parmi toutes les cytokines testées, PDGF-BB a démontré la plus grande capacité à améliorer la survie de MSC dans des conditions d'hypoxie, de privation de sérum et en reponse au stress oxydatif. La conjugaison de NP a atténué la migration et la prolifération des pMSCs, mais n`a pas changé leur capacité de différenciation. Enfin, la complexe du MSC-NP est détectable par IRM. Conclusion: Nos données suggèrent que de nouvelles stratégies, telles que traitement préliminaire de PDGF-BB et le couplage des nanoparticules ferromagnétiques, peuvent être considérés comme des avenues prometteuse pour optimiser les MSCs pour la CCT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.