993 resultados para Semi-infinite optimization
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
Contexte: La cardiopathie ischémique (IHD) reste une cause majeure de mortalité en Amérique du Nord. La thérapie cellulaire cardiaque (CCT) a émergé comme une thérapie prometteuse pour aider à guérir certaines malades cardiaques. Parmi les cellulaires avec propriétés pluripotentes, les cellules stromales mésenchymateuses (MSC) sont prometteuses. Cependant, plusieurs questions demeurent non résolues et certaines défis empêchent l'application clinique de la CCT se dans l'IHD, tels que le faible taux de rétention cellulaire in situ, le suivi des cellules in vivo post-implantation et post-acheminements et l`apoptose. Ici, le traitement préliminaire des MSC avec des facteurs de croissance et leur couplage avec des nanoparticules (NP) seront étudiés comme des méthodes pour optimiser MSC. Méthodes: Des MSCs provenant du rat (rMSC) et du cochon (pMSC) ont été isolés à partir de moelle osseuse. Les rMSC ont été préconditionnées avec SDF-1a, TSG-6 et PDGF-BB, et ensuite soumises à une hypoxie, une privation de sérum et a un stress oxydatif. Des études de cicatrisation ont également été effectués avec rMSCs préconditionnées. En parallèle, de nouvelles NP ferromagnétiques liées aux silicones ont été synthétisées. Les NPs ont été couplées aux pMSCs suivant leur fonctionnalisation avec l`anticorps, CD44, un antigène de surface du MSC bien connu. Par la suite, les études de biocompatibilité ont été réalisées sur pMSC-NP et en incluant des tests des processus cellulaires tels que la migration, l'adhésion, la prolifération et les propriétés de la différenciation. Résultats: Parmi toutes les cytokines testées, PDGF-BB a démontré la plus grande capacité à améliorer la survie de MSC dans des conditions d'hypoxie, de privation de sérum et en reponse au stress oxydatif. La conjugaison de NP a atténué la migration et la prolifération des pMSCs, mais n`a pas changé leur capacité de différenciation. Enfin, la complexe du MSC-NP est détectable par IRM. Conclusion: Nos données suggèrent que de nouvelles stratégies, telles que traitement préliminaire de PDGF-BB et le couplage des nanoparticules ferromagnétiques, peuvent être considérés comme des avenues prometteuse pour optimiser les MSCs pour la CCT.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Pour décrire les vibrations à l'intérieur des molécules diatomiques, le potentiel de Morse est une meilleure approximation que le système de l'oscillateur harmonique. Ainsi, en se basant sur la définition des états cohérents et comprimés donnée dans le cadre du problème de l'oscillateur harmonique, la première partie de ce travail suggère une construction des états cohérents et comprimés pour le potentiel de Morse. Deux types d’états seront construits et leurs différentes propriétés seront étudiées en portant une attention particulière aux trajectoires et aux dispersions afin de confirmer la quasi-classicité de ces états. La deuxième partie de ce travail propose d'insérer ces deux types d’états cohérents et comprimés de Morse dans un miroir semi-transparent afin d'introduire un nouveau moyen de créer de l'intrication. Cette intrication sera mesurée à l’aide de l’entropie linéaire et nous étudierons la dépendance par rapport aux paramètres de cohérence et de compression.
Resumo:
Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.
Resumo:
Une compréhension profonde de la séparation de charge à l’hétérojonction de semi-con- ducteurs organiques est nécessaire pour le développement de diodes photovoltaïques organiques plus efficaces, ce qui serait une grande avancée pour répondre aux besoins mondiaux en énergie durable. L’objectif de cette thèse est de décrire les processus impliqués dans la séparation de charges à hétérojonctions de semi-conducteurs organiques, en prenant en exemple le cas particulier du PCDTBT: PCBM. Nous sondons les excitations d’interface à l’aide de méthodes spectroscopiques résolues en temps couvrant des échelles de temps de 100 femto- secondes à 1 milliseconde. Ces principales méthodes spectroscopiques sont la spectroscopie Raman stimulée femtoseconde, la fluorescence résolue en temps et l’absorption transitoire. Nos résultats montrent clairement que le transfert de charge du PCDTBT au PCBM a lieu avant que l’exciton ne soit relaxé et localisé, un fait expérimental irréconciliable avec la théorie de Marcus semi-classique. La paire de charges qui est créée se divise en deux catégories : les paires de polarons géminales non piégées et les paires profondément piégées. Les premiers se relaxent rapidement vers l’exciton à transfert de charge, qui se recombine radiativement avec une constante de temps de 1– 2 nanoseconde, alors que les seconds se relaxent sur de plus longues échelles de temps via l’effet tunnel. Notre modèle photophysique quantitatif démontre que 2 % de l’excitation créée ne peut jamais se dissocier en porteurs de charge libre, un chiffre qui est en accord avec les rendements élevés rapportés pour ce type de système.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Cet ouvrage présente une étude portant sur le polymère P3EHT (poly(3-(20-ethyl)hexyl-thiophene)). Parmi les nombreuses caractéristiques de la dynamique des polarons pouvant être étudiées, seules celles liées aux changement de morphologie le seront dans ce travail. De plus, la vérification du modèle HJ permet d’expliquer la photophysique des polymères conjugués, grâce à l’étude des spectres de photoluminescence. L’étude de la dynamique des polarons à travers l’absorption photo-induite en fonction de la fréquence a permis de trouver les durées de vie pour un même échantillon avec des morphologies différentes. Les résultats ont démontré que la morphologie est non seulement fondamentale pour l’étude des polarons, mais consiste aussi en une caractéristique essentielle pour comprendre le nouveau modèle HJ.
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
Les prairies indigènes présentent une source importante d'alimentation pour le pâturage du bétail dans les prairies Canadiennes semi-arides. L'addition de légumineuses fixatrices d'azote et de phosphore dans les prairies indigènes peut améliorer la productivité et la valeur nutritive de fourrage. Ces pratiques peuvent induire des modifications de la structure et de la diversité des communautés fongiques du sol, ce qui peut en retour avoir un impact sur la production et le contenu nutritionnel du fourrage. L’objectif de cette étude était de développer un système de pâturage à bas niveau d’intrants, productif, autonome et durable. À court terme, nous voulions 1) déterminer l'effet des légumineuses (Medicago sativa, une légumineuse cultivée ou Dalea purpurea, une légumineuse indigène) et la fertilité en phosphore du sol sur la productivité et la valeur nutritive des graminées indigènes, comparées avec celles de la graminée introduite Bromus biebersteinii en mélange avec le M. sativa, 2) identifier l'effet de ces pratiques sur la diversité et la structure des communautés des champignons mycorhiziens à arbuscules (CMA) et des champignons totaux, 3) identifier l'effet des légumineuses et des CMA sur les interactions compétitives entre les graminées de saison fraîche et les graminées de saison chaude. Les expériences menées au champ ont montré que M. sativa améliorait les teneurs en azote et en phosphore des graminées indigènes au début de l'été, ainsi que la teneur en azote de la graminée de saison chaude Bouteloua gracilis à la fin de l'été de l'année sèche 2009. Par contre, la fertilité en phosphore du sol n'ait pas affecté la productivité des plantes. D'autre part, l'inclusion des légumineuses augmentait la diversité des CMA dans le mélange de graminées indigènes. Cette modification présentait des corrélations positives avec la productivité et la quantité totale d'azote chez le M. sativa et avec la teneur en phosphore des graminées indigènes, au début de l'été. La structure des communautés de champignons totaux était influencée par l'interaction entre le mélange des espèces et la fertilité en phosphore du sol seulement en 2008 (année humide). Cet effet pourrait être lié en partie avec la productivité des plantes et l'humidité du sol. Les expériences menées en chambre de culture ont montré que les CMA peuvent favoriser la productivité des graminées de saison chaude au détriment des graminées de saison fraîche. En effet, Glomus cubense augmentait la productivité de la graminée de saison chaude B. gracilis, en présence de M. sativa. Cet effet pourrait être associé à l’effet négatif du G. cubense sur la fixation de l’azote par le M. sativa et à la diminution de l’efficacité d’utilisation de l'azote de certaines graminées de saison fraîche résultant en une augmentation de la disponibilité de l'azote pour B. gracilis. Par contre, le Glomus sp. augmentait la biomasse de Schizachyrium scoparium, autre graminée de saison chaude, en absence de légumineuse. Ce phénomène pourrait être attribuable à une amélioration de l’efficacité d’utilisation du P de cette graminée. En conclusion, mes travaux de recherche ont montré que la légumineuse cultivée M. sativa peut améliorer la valeur nutritive des graminées indigènes au début de l'été ainsi que celle de la graminée de saison chaude B. gracilis, dans des conditions de sécheresse sévère de la fin de l'été. De plus, l'addition de M. sativa dans le mélange de graminées indigènes peut contribuer à augmenter le nombre des espèces bénéfiques des CMA pour la production et la nutrition du fourrage au début de l'été.
Resumo:
Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.
Resumo:
In this paper, a new methodology for the prediction of scoliosis curve types from non invasive acquisitions of the back surface of the trunk is proposed. One hundred and fifty-nine scoliosis patients had their back surface acquired in 3D using an optical digitizer. Each surface is then characterized by 45 local measurements of the back surface rotation. Using a semi-supervised algorithm, the classifier is trained with only 32 labeled and 58 unlabeled data. Tested on 69 new samples, the classifier succeeded in classifying correctly 87.0% of the data. After reducing the number of labeled training samples to 12, the behavior of the resulting classifier tends to be similar to the reference case where the classifier is trained only with the maximum number of available labeled data. Moreover, the addition of unlabeled data guided the classifier towards more generalizable boundaries between the classes. Those results provide a proof of feasibility for using a semi-supervised learning algorithm to train a classifier for the prediction of a scoliosis curve type, when only a few training data are labeled. This constitutes a promising clinical finding since it will allow the diagnosis and the follow-up of scoliotic deformities without exposing the patient to X-ray radiations.
Resumo:
The present study on some infinite convex invariants. The origin of convexity can be traced back to the period of Archimedes and Euclid. At the turn of the nineteenth centaury , convexicity became an independent branch of mathematics with its own problems, methods and theories. The convexity can be sorted out into two kinds, the first type deals with generalization of particular problems such as separation of convex sets[EL], extremality[FA], [DAV] or continuous selection Michael[M1] and the second type involved with a multi- purpose system of axioms. The theory of convex invariants has grown out of the classical results of Helly, Radon and Caratheodory in Euclidean spaces. Levi gave the first general definition of the invariants Helly number and Radon number. The notation of a convex structure was introduced by Jamison[JA4] and that of generating degree was introduced by Van de Vel[VAD8]. We also prove that for a non-coarse convex structure, rank is less than or equal to the generating degree, and also generalize Tverberg’s theorem using infinite partition numbers. Compare the transfinite topological and transfinite convex dimensions
Resumo:
Significant results of our experimental investigations on the dependence of pH on real time transmission characteristics on recording media fabricated by doping PVC with complexed methylene blue are presented. The optimum pH value for faster bleaching was found to be 4×5. In typical applications, the illumination from one side, normal to the surface of this material, initiates a chemical sequence that records the incident light pattern in the polymer. Thus direct imaging can be successfully done on this sample. The recorded letters were very legible with good contrast and no scattering centres. Diffraction efficiency measurements were also carried out on this material.