847 resultados para Stabilité linéaire
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
L’objectif principal de cette thèse était de créer, d’implanter et d’évaluer l’efficacité d’un programme de remédiation cognitive, intervenant de façon comparable sur les aspects fluide (Gf) et cristallisé (Gc) de l’intelligence, au sein d’une population d’intérêt clinique, les adolescents présentant un fonctionnement intellectuel limite (FIL). Compte tenu de la forte prévalence de ce trouble, le programme de remédiation GAME (Gains et Apprentissages Multiples pour Enfant) s’est développé autour de jeux disponibles dans le commerce afin de faciliter l’accès et l’implantation de ce programme dans divers milieux.
Le premier article de cette thèse, réalisé sous forme de revue systématique de la littérature, avait pour objectif de faire le point sur les études publiées utilisant le jeu comme outil de remédiation cognitive dans la population pédiatrique. L’efficacité, ainsi que la qualité du paradigme utilisé ont été évaluées, et des recommandations sur les aspects méthodologiques à respecter lors de ce type d’étude ont été proposées. Cet article a permis une meilleure compréhension des écueils à éviter et des points forts méthodologiques à intégrer lors de la création du programme de remédiation GAME. Certaines mises en garde méthodologiques relevées dans cet article ont permis d’améliorer la qualité du programme de remédiation cognitive développé dans ce projet de thèse.
Compte tenu du peu d’études présentes dans la littérature scientifique concernant la population présentant un FIL (70
Resumo:
L’utilisation de nanovecteurs pour la livraison contrôlée de principes actifs est un concept commun de nous jours. Les systèmes de livraison actuels présentent encore cependant des limites au niveau du taux de relargage des principes actifs ainsi que de la stabilité des transporteurs. Les systèmes composés à la fois de nanovecteurs (liposomes, microgels et nanogels) et d’hydrogels peuvent cependant permettre de résoudre ces problèmes. Dans cette étude, nous avons développé un système de livraison contrôlé se basant sur l’incorporation d’un nanovecteur dans une matrice hydrogel dans le but de combler les lacunes des systèmes se basant sur un vecteur uniquement. Une telle combinaison pourrait permettre un contrôle accru du relargage par stabilisation réciproque. Plus spécifiquement, nous avons développé un hydrogel structuré intégrant des liposomes, microgels et nanogels séparément chargés en principes actifs modèles potentiellement relargués de manière contrôlé. Ce contrôle a été obtenu par la modification de différents paramètres tels que la température ainsi que la composition et la concentration en nanovecteurs. Nous avons comparé la capacité de chargement et la cinétique de relargage de la sulforhodamine B et de la rhodamine 6G en utilisant des liposomes de DOPC et DPPC à différents ratios, des nanogels de chitosan/acide hyaluronique et des microgels de N-isopropylacrylamide (NIPAM) à différents ratios d’acide méthacrylique, incorporés dans un hydrogel modèle d’acrylamide. Les liposomes présentaient des capacités de chargement modérés avec un relargage prolongé sur plus de dix jours alors que les nanogels présentaient des capacités de chargement plus élevées mais une cinétique de relargage plus rapide avec un épuisement de la cargaison en deux jours. Comparativement, les microgels relarguaient complétement leur contenu en un jour. Malgré une cinétique de relargage plus rapide, les microgels ont démontré la possibilité de contrôler finement le chargement en principe actif. Ce contrôle peut être atteint par la modification des propriétés structurelles ou en changeant le milieu d’incubation, comme l’a montré la corrélation avec les isothermes de Langmuir. Chaque système développé a démontré un potentiel contrôle du taux de relargage, ce qui en fait des candidats pour des investigations futures.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
La sialylation des N-glycanes du fragment Fc des immunogobulines G (IgG) est une modification peu fréquente des IgG humaines. Pourtant, elle est l’objet de beaucoup d’attention depuis que deux articles fondateurs ont été publiés, qui montrent l’un que la sialylation des IgG diminue leur capacité à déclencher la cytotoxicité cellulaire dépendant de l’anticorps (ADCC), et l’autre que les IgG sialylées en α2,6 seraient la fraction efficace des IgG intraveineuses (IgIV) anti-inflammatoires. Les anticorps monoclonaux thérapeutiques, qui sont le plus souvent des IgG recombinantes produites en culture de cellules de mammifère, connaissent depuis la fin des années 90 un succès et une croissance phénoménaux sur le marché pharmaceutique. La maîtrise de la N-glycosylation du Fc des IgG est une clé de l’efficacité des anticorps monoclonaux. Si les IgG sialylées sont des molécules peu fréquentes in vivo, elles sont très rares en culture cellulaire. Dans cette étude, nous avons développé une méthode de production d’IgG avec une sialylation de type humain en cellules CHO. Nous avons travaillé principalement sur la mise au point d’une stratégie de production d’IgG sialylées par co-expression transitoire d’une IgG1 avec la β1,4-galactosyltransférase I (β4GTI) et la β-galactoside-α2,6-sialyltransférase I (ST6GalI). Nous avons montré que cette méthode permettait d’enrichir l’IgG1 en glycane fucosylé di-galactosylé mono-α2,6-sialylé G2FS(6)1, qui est le glycane sialylé présent sur les IgG humaines. Nous avons ensuite adapté cette méthode à la production d’IgG présentant des profils de glycosylation riches en acides sialiques, riches en galactose terminal, et/ou appauvris en fucosylation. L’analyse des profils de glycosylation obtenus par la co-expression de diverses combinaisons enzymatiques avec l’IgG1 native ou une version mutante de l’IgG1 (F243A), a permis de discuter des influences respectives de la sous-galactosylation des IgG1 en CHO et des contraintes structurales du Fc dans la limitation de la sialylation des IgG en CHO. Nous avons ensuite utilisé les IgG1 produites avec différents profils de glycosylation afin d’évaluer l’impact de la sialylation α2,6 sur l’interaction de l’IgG avec le récepteur FcγRIIIa, principal récepteur impliqué dans la réponse ADCC. Nous avons montré que la sialylation α2,6 augmentait la stabilité du complexe formé par l’IgG avec le FcγRIIIa, mais que ce bénéfice n’était pas directement traduit par une augmentation de l’efficacité ADCC de l’anticorps. Enfin, nous avons débuté le développement d’une plateforme d’expression stable d’IgG sialylées compatible avec une production à l’échelle industrielle. Nous avons obtenu une lignée capable de produire des IgG enrichies en G2FS(6)1 à hauteur de 400 mg/L. Cette étude a contribué à une meilleure compréhension de l’impact de la sialylation sur les fonctions effectrices des IgG, et a permis d’augmenter la maîtrise des techniques de modulation du profil de glycosylation des IgG en culture cellulaire.