9 resultados para Free-surface Flows

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le problème d’oscillation de fluides dans un conteneur est un problème classique d’hydrodynamique qui est etudié par des mathématiciens et ingénieurs depuis plus de 150 ans. Le présent travail est lié à l’étude de l’alternance des fonctions propres paires et impaires du problème de Steklov-Neumann pour les domaines à deux dimensions ayant une forme symétrique. On obtient des résultats sur la parité de deuxième et troisième fonctions propres d’un tel problème pour les trois premiers modes, dans le cas de domaines symétriques arbitraires. On étudie aussi la simplicité de deux premières valeurs propres non nulles d’un tel problème. Il existe nombre d’hypothèses voulant que pour le cas des domaines symétriques, toutes les valeurs propres sont simples. Il y a des résultats de Kozlov, Kuznetsov et Motygin [1] sur la simplicité de la première valeur propre non nulle obtenue pour les domaines satisfaisants la condition de John. Dans ce travail, il est montré que pour les domaines symétriques, la deuxième valeur propre non-nulle du problème de Steklov-Neumann est aussi simple.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse rapporte le greffage chimique de brosses de polymères neutres de poly(acrylate de tert-butyle) (PtBA) et de brosses chargées d’acide polyacrylique (PAA) sur des substrats de mica afin d’étudier leur conformation en fonction de la densité de greffage, du pH et de la force ionique. Le greffage est réalisé par polymérisation contrôlée par transfert d’atome (ATRP) initiée depuis la surface de mica afin de contrôler la croissance du polymère et sa densité de greffage. L’étude de la conformation des brosses de PtBA et de PAA a été menée avec la technique AFM en mesurant les épaisseurs des films à sec et gonflés sous différentes conditions de solvant, de pH et de force ionique. Une monocouche d’amorceurs est tout d’abord greffée sur du mica porteur de groupes hydroxyles créés par plasma (Ar/H2O). Cette couche a été caractérisée par des mesures d’angle de contact et par la technique TOF-SIMS. L’amorceur greffé a ensuite permis d’initier l’ATRP directement depuis la surface pour former des brosses neutres de PtBA liés de façon covalente au mica. La croissance linéaire de l’épaisseur du film avec la masse molaire du polymère en solution et le taux de conversion montre que la polymérisation est contrôlée. De plus, la ré-initiation des chaînes greffées atteste du caractère vivant de la polymérisation. L’hydrolyse des brosses de PtBA, confirmée par des mesures d’angle de contact, d’épaisseur et par FT-IR, conduit à des brosses de PAA. Les différentes couches greffées sont stables à l’air, en milieu organique et en milieu aqueux et leur gonflement est réversible. Le degreffage de la couche de PAA est observé suite à une longue exposition à pH basique. Cette étude représente le premier exemple de brosses greffées chimiquement sur du mica par polymérisation initiée depuis la surface. La variation des paramètres de la réaction de greffage de l’amorceur, tels que la concentration et la durée de réaction, a permis de contrôler le taux de recouvrement de l’amorceur et la densité de greffage du polymère. Une grande gamme de taux de recouvrement de l’amorceur est accessible et se traduit par un intervalle de densités de greffage allant de faibles à élevées (e.g. 0,04 chaîne/nm2 à 0,5 chaîne/nm2). L’étude de la conformation des chaînes de PtBA dans le DMF montre que cet intervalle de densités recouvre le régime crêpe au régime brosse. Le gonflement de brosses de PAA et la variation de la hauteur de la brosse L ont été étudiés en fonction de la densité de greffage, du pH et du sel ajouté cs (NaCl). Une transition brusque de collapsée à étirée est observée avec l’augmentation du pH, indépendamment de la densité de greffage. A pH neutre, les brosses sont collapsées et se comportent comme des brosses neutres en mauvais solvant. A pH basique, les brosses sont gonflées et chargées et se trouvent dans un régime de Pincus caractéristique des polyélectrolytes forts. En présence de sel, les charges sont partiellement écrantées et les répulsions électrostatiques dominent toujours dans la brosse. Cette étude contribue à une meilleure compréhension du comportement complexe des brosses de polyélectrolytes faibles et apporte un soutien expérimental à la théorie sur le comportement de ces brosses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au cours de la dernière décennie, les nanoparticules ont connu un essor sans précédent dans plusieurs domaines. On peut retrouver ces nanoparticules dans des secteurs aussi variés tels que la médecine, l’électronique, les écrans solaires, les cosmétiques et les plastiques, pour ne nommer que ceux-là. Cette utilisation massive a eu un effet pervers sur l’environnement, sachant qu’une grande partie de ces produits se sont retrouvés inévitablement dans les milieux naturels. Plusieurs études révèlent qu’autant la présence des nanoparticules que leurs produits de dissolution sont à prendre en considération lorsque des travaux toxicologiques ou le devenir de ces matériaux sont étudiés. Il est désormais clair que les propriétés de surface de ces nanoparticules jouent un rôle central sur leur comportement dans les solutions aqueuses; que ce soit les interactions avec des organismes ou entre les particules elles-mêmes. Afin d’évaluer le devenir de nZnO, une étude sur la dissolution ainsi que la bioaccumulation a été réalisée avec l’algue modèle Chlamydomonas reinhardtii en présence de nanoparticules ayant différents enrobages. Les nanoparticules d’oxyde de zinc suivantes ont été étudiées : (i) nZnO sans enrobage (nZnO); (ii) nZnO avec enrobage d’acide polyacrylique (nZnO-PAA) et (iii) nZnO avec enrobage d’hexamétaphosphate de sodium (nZnO-HMP). La dissolution était mesurée à l’aide de trois techniques : ultrafiltration par centrifugation (CU); technique potentiométrique (scanned stripping chronopotentiometry, SSCP) et spectrométrie de masse – plasma à couplage inductif couplé à une résine échangeuse d’ions (resin-based inductively coupled plasma-mass spectrometry, resin-based ICP-MS). Les résultats obtenus démontrent une grande tendance à la dissolution pour le nZnO (presque totale) tandis que pour le nZnO-PAA et le nZnO-HMP, la dissolution est dépendante de la nature de l’enrobage le composant. Pour la bioaccumulation sur l’algue testée, les données montrent une grande dépendance au zinc libre issu de la dissolution pour nZnO et nZnO-PAA. À l’inverse, le nZnO-HMP démontre une bioaccumulation plus élevée par comparaison aux mêmes concentrations d’expositions du zinc libre, expliquée par la stimulation de l’internalisation du zinc provoqué par la présence de phosphate constituant l’enrobage de nZnO-HMP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper explores the role of capital flows and exchange rate dynamics in shaping the global economy's adjustment in a liquidity trap. Using a multi-country model with nominal rigidities, we shed light on the global adjustment since the Great Recession, a period where many advanced economies were pushed to the zero bound on interest rates. We establish three main results: (i) When the North hits the zero bound, downstream capital flows alleviate the recession by reallocating demand to the South and switching expenditure toward North goods. (ii) A free capital flow regime falls short of supporting efficient demand and expenditure reallocations and induces too little downstream (upstream) flows during (after) the liquidity trap. (iii) When it comes to capital flow management, individual countries' incentives to manage their terms of trade conflict with aggregate demand stabilization and global efficiency. This underscores the importance of international policy coordination in liquidity trap episodes.