10 resultados para Stochastics, Brownian Motion, Polymer Physics, Computational Physics, Hydrodynamics

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cancer pulmonaire est la principale cause de décès parmi tous les cancers au Canada. Le pronostic est généralement faible, de l'ordre de 15% de taux de survie après 5 ans. Les déplacements internes des structures anatomiques apportent une incertitude sur la précision des traitements en radio-oncologie, ce qui diminue leur efficacité. Dans cette optique, certaines techniques comme la radio-chirurgie et la radiothérapie par modulation de l'intensité (IMRT) visent à améliorer les résultats cliniques en ciblant davantage la tumeur. Ceci permet d'augmenter la dose reçue par les tissus cancéreux et de réduire celle administrée aux tissus sains avoisinants. Ce projet vise à mieux évaluer la dose réelle reçue pendant un traitement considérant une anatomie en mouvement. Pour ce faire, des plans de CyberKnife et d'IMRT sont recalculés en utilisant un algorithme Monte Carlo 4D de transport de particules qui permet d'effectuer de l'accumulation de dose dans une géométrie déformable. Un environnement de simulation a été développé afin de modéliser ces deux modalités pour comparer les distributions de doses standard et 4D. Les déformations dans le patient sont obtenues en utilisant un algorithme de recalage déformable d'image (DIR) entre les différentes phases respiratoire générées par le scan CT 4D. Ceci permet de conserver une correspondance de voxels à voxels entre la géométrie de référence et celles déformées. La DIR est calculée en utilisant la suite ANTs («Advanced Normalization Tools») et est basée sur des difféomorphismes. Une version modifiée de DOSXYZnrc de la suite EGSnrc, defDOSXYZnrc, est utilisée pour le transport de particule en 4D. Les résultats sont comparés à une planification standard afin de valider le modèle actuel qui constitue une approximation par rapport à une vraie accumulation de dose en 4D.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le sujet principal de ce mémoire est l'étude de la distribution asymptotique de la fonction f_m qui compte le nombre de diviseurs premiers distincts parmi les nombres premiers $p_1,...,p_m$. Au premier chapitre, nous présentons les sept résultats qui seront démontrés au chapitre 4. Parmi ceux-ci figurent l'analogue du théorème d'Erdos-Kac et un résultat sur les grandes déviations. Au second chapitre, nous définissons les espaces de probabilités qui serviront à calculer les probabilités asymptotiques des événements considérés, et éventuellement à calculer les densités qui leur correspondent. Le troisième chapitre est la partie centrale du mémoire. On y définit la promenade aléatoire qui, une fois normalisée, convergera vers le mouvement brownien. De là, découleront les résultats qui formeront la base des démonstrations de ceux chapitre 1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.