6 resultados para Efficient Production Scale

em Université de Montréal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les sulfilimines et les sulfoximines sont des motifs structuraux dont l’intérêt synthétique est grandissant, notamment du fait de leurs applications en chimie médicinale et en agrochimie. Les travaux rapportés dans cet ouvrage décrivent le développement de nouvelles méthodes de synthèse efficaces pour la production de ces unités atypiques. Ces méthodes sont basées sur la réactivité d’une source d’azote électrophile, vis-à-vis de thioéthers et de sulfoxydes. L’utilisation d’un complexe métallique introduit en quantité catalytique a permis de favoriser le processus réactionnel. En tirant bénéfice de l’expertise de notre groupe de recherche sur le développement de réactions d’amination stéréosélectives de liaisons C-H et d’aziridination de styrènes, nous avons d’abord étudié la réactivité des N-mésyloxycarbamates comme source d’azote électrophile. Après avoir optimisé sa synthèse sur grande échelle, ce réactif chiral a été utilisé dans des réactions d’amination de thioéthers et de sulfoxydes, catalysées par un dimère de rhodium (II) chiral. Un processus diastéréosélectif efficace a été mis au point, permettant de produire des sulfilimines et des sulfoximines chirales avec d’excellents rendements et sélectivités. Au cours de l’optimisation de cette méthode de synthèse, nous avons pu constater l’effet déterminant de certains additifs sur la réactivité et la sélectivité de la réaction. Une étude mécanistique a été entreprise afin de comprendre leur mode d’action. Il a été observé qu’une base de Lewis telle que le 4-diméthylaminopyridine (DMAP) pouvait se coordiner au dimère de rhodium(II) et modifier ses propriétés structurales et redox. Les résultats que nous avons obtenus suggèrent que l’espèce catalytique active est un dimère de rhodium de valence mixte Rh(II)/Rh(III). Nous avons également découvert que l’incorporation de sels de bispyridinium avait une influence cruciale sur la diastéréosélectivité de la réaction. D’autres expériences sur la nature du groupe partant du réactif N-sulfonyloxycarbamate nous ont permis de postuler qu’une espèce nitrénoïde de rhodium était l’intermédiaire clé du processus d’amination. De plus, l’exploitation des techniques de chimie en débit continu nous a permis de développer une méthode d’amination de thioéthers et de sulfoxydes très performante, en utilisant les azotures comme source d’azote électrophile. Basée sur la décompositon photochimique d’azotures en présence d’un complexe de fer (III) simple et commercialement disponible, nous avons été en mesure de produire des sulfilimines et des sulfoximines avec d’excellents rendements. Le temps de résidence du procédé d’amination a pu être sensiblement réduit par la conception d’un nouveau type de réacteur photochimique capillaire. Ces améliorations techniques ont permis de rendre la synthèse plus productive, ce qui constitue un élément important d’un point de vue industriel.