864 resultados para MHD instabilities
Resumo:
We investigate line formation processes in Type IIb supernovae (SNe) from 100 to 500 days post-explosion using spectral synthesis calculations. The modelling identifies the nuclear burning layers and physical mechanisms that produce the major emission lines, and the diagnostic potential of these. We compare the model calculations with data on the three best observed Type IIb SNe to-date - SN 1993J, SN 2008ax, and SN 2011dh. Oxygen nucleosynthesis depends sensitively on the main-sequence mass of the star and modelling of the [O I] lambda lambda 6300, 6364 lines constrains the progenitors of these three SNe to the M-ZAMS = 12-16 M-circle dot range (ejected oxygen masses 0.3-0.9 M-circle dot), with SN 2011dh towards the lower end and SN 1993J towards the upper end of the range. The high ejecta masses from M-ZAMS greater than or similar to 17 M-circle dot progenitors give rise to brighter nebular phase emission lines than observed. Nucleosynthesis analysis thus supports a scenario of low-to-moderate mass progenitors for Type IIb SNe, and by implication an origin in binary systems. We demonstrate how oxygen and magnesium recombination lines may be combined to diagnose the magnesium mass in the SN ejecta. For SN 2011dh, a magnesium mass of 0.02-0.14 M-circle dot is derived, which gives a Mg/O production ratio consistent with the solar value. Nitrogen left in the He envelope from CNO burning gives strong [N II] lambda lambda 6548, 6583 emission lines that dominate over Ha emission in our models. The hydrogen envelopes of Type IIb SNe are too small and dilute to produce any noticeable H alpha emission or absorption after similar to 150 days, and nebular phase emission seen around 6550 angstrom is in many cases likely caused by [N II] lambda lambda 6548, 6583. Finally, the influence of radiative transport on the emergent line profiles is investigated. Significant line blocking in the metal core remains for several hundred days, which affects the emergent spectrum. These radiative transfer effects lead to early-time blueshifts of the emission line peaks, which gradually disappear as the optical depths decrease with time. The modelled evolution of this effect matches the observed evolution in SN 2011dh.
Resumo:
Sunspots on the surface of the Sun are the observational signatures of intense manifestations of tightly packed magnetic field lines, with near-vertical field strengths exceeding 6,000 G in extreme cases1. It is well accepted that both the plasma density and the magnitude of the magnetic field strength decrease rapidly away from the solar surface, making high-cadence coronal measurements through traditional Zeeman and Hanle effects difficult as the observational signatures are fraught with low-amplitude signals that can become swamped with instrumental noise2, 3. Magneto-hydrodynamic (MHD) techniques have previously been applied to coronal structures, with single and spatially isolated magnetic field strengths estimated as 9–55 G (refs 4,5,6,7). A drawback with previous MHD approaches is that they rely on particular wave modes alongside the detectability of harmonic overtones. Here we show, for the first time, how omnipresent magneto-acoustic waves, originating from within the underlying sunspot and propagating radially outwards, allow the spatial variation of the local coronal magnetic field to be mapped with high precision. We find coronal magnetic field strengths of 32 ± 5 G above the sunspot, which decrease rapidly to values of approximately 1 G over a lateral distance of 7,000 km, consistent with previous isolated and unresolved estimations. Our results demonstrate a new, powerful technique that harnesses the omnipresent nature of sunspot oscillations to provide magnetic field mapping capabilities close to a magnetic source in the solar corona.
Proton acceleration enhanced by a plasma jet in expanding foils undergoing relativistic transparency
Resumo:
Ion acceleration driven by the interaction of an ultraintense (2 × 1020 W cm-2) laser pulse with an ultrathin ( nm) foil target is experimentally and numerically investigated. Protons accelerated by sheath fields and via laser radiation pressure are angularly separated and identified based on their directionality and signature features (e.g. transverse instabilities) in the measured spatial-intensity distribution. A low divergence, high energy proton component is also detected when the heated target electrons expand and the target becomes relativistically transparent during the interaction. 2D and 3D particle-in-cell simulations indicate that under these conditions a plasma jet is formed at the target rear, supported by a self-generated azimuthal magnetic field, which extends into the expanded layer of sheath-accelerated protons. Electrons trapped within this jet are directly accelerated to super-thermal energies by the portion of the laser pulse transmitted through the target. The resulting streaming of the electrons into the ion layers enhances the energy of protons in the vicinity of the jet. Through the addition of a controlled prepulse, the maximum energy of these protons is demonstrated experimentally and numerically to be sensitive to the picosecond rising edge profile of the laser pulse.
Resumo:
We study the magnetospheric structure and the ionospheric Joule Heating of planets orbiting M-dwarf stars in the habitable zone using a set of magnetohydrodynamic models. The stellar wind solution is used to drive a model for the planetary magnetosphere, which is coupled with a model for the planetary ionosphere. Our simulations reveal that the space environment around close-in habitable planets is extreme, and the stellar wind plasma conditions change from sub- to super-Alfvénic along the planetary orbit. As a result, the magnetospheric structure changes dramatically with a bow shock forming in the super-Alfvénic sectors, while no bow shock forms in the sub-Alfvénic sectors. The planets reside most of the time in the sub-Alfvénic sectors with poor atmospheric protection. A significant amount of Joule Heating is provided at the top of the atmosphere as a result of the intense stellar wind. For the steady-state solution, the heating is about 0.1%-3% of the total incoming stellar irradiation, and it is enhanced by 50% for the time-dependent case. The significant Joule Heating obtained here should be considered in models for the atmospheres of habitable planets in terms of the thickness of the atmosphere, the top-side temperature and density, the boundary conditions for the atmospheric pressure, and particle radiation and transport. Here we assume constant ionospheric Pedersen conductance similar to that of the Earth. The conductance could be greater due to the intense EUV radiation leading to smaller heating rates. We plan to quantify the ionospheric conductance in future study.
Resumo:
As part of the Young Stellar Object VARiability (YSOVAR) program, wemonitored NGC 1333 for ∼35 days at 3.6 and 4.5 μm using theSpitzer Space Telescope. We report here on the mid-infrared variabilityof the point sources in the ∼10‧ × ∼20‧ areacentered on 03:29:06, +31:19:30 (J2000). Out of 701 light curves ineither channel, we find 78 variables over the YSOVAR campaign. Abouthalf of the members are variable. The variable fraction for the mostembedded spectral energy distributions (SEDs) (Class I, flat) is higherthan that for less embedded SEDs (Class II), which is in turn higherthan the star-like SEDs (Class III). A few objects have amplitudes(10–90th percentile brightness) in [3.6] or [4.5] > 0.2 mag; amore typical amplitude is 0.1–0.15 mag. The largest color changeis >0.2 mag. There are 24 periodic objects, with 40% of them beingflat SED class. This may mean that the periodic signal is primarily fromthe disk, not the photosphere, in those cases. We find 9 variableslikely to be “dippers,” where texture in the disk occultsthe central star, and 11 likely to be “bursters,” whereaccretion instabilities create brightness bursts. There are 39 objectsthat have significant trends in [3.6]–[4.5] color over thecampaign, about evenly divided between redder-when-fainter (consistentwith extinction variations) and bluer-when-fainter. About a third of the17 Class 0 and/or jet-driving sources from the literature are variableover the YSOVAR campaign, and a larger fraction (∼half) are variablebetween the YSOVAR campaign and the cryogenic-era Spitzer observations(6–7 years), perhaps because it takes time for the envelope torespond to changes in the central source. The NGC 1333 brown dwarfs donot stand out from the stellar light curves in any way except there is amuch larger fraction of periodic objects (∼60% of variable browndwarfs are periodic, compared to ∼30% of the variables overall).
Resumo:
The Northern Ireland conflict is shaped by an ethno-national contest between a minority Catholic/Nationalist/Republican population who broadly want to see the reunification of Ireland; and a majority Protestant/Unionist/Loyalist one, who mainly wish to maintain the sovereign connection with Britain. After nearly three decades of violence, which intensified segregation in schooling, labour markets and especially housing, a Peace Agreement was signed on Good Friday 1998. This paper is concerned with the peace process after the Agreement, not so much for the ambiguous political compromise, but for the way in which the city is constitutive of transformation and how Belfast in particular, is now embedded with a range of social instabilities and spatial contradictions. The Agreement encouraged rapid economic expansion, inward investment, especially in knowledge–intensive sectors and a short-lived optimism that markets and the neo-liberal fix would drive the post-conflict, post-industrial and post-political city. Capital would trump ethnicity and the economic uplift would bind citizens to a new expression of hope based on property speculation, tourism and global corporate investment.
Resumo:
When a planet transits its host star, it blocks regions of the stellar surface from view; this causes a distortion of the spectral lines and a change in the line-of-sight (LOS) velocities, known as the Rossiter-McLaughlin (RM) effect. Since the LOS velocities depend, in part, on the stellar rotation, the RM waveform is sensitive to the star-planet alignment (which provides information on the system’s dynamical history). We present a new RM modelling technique that directly measures the spatially-resolved stellar spectrum behind the planet. This is done by scaling the continuum flux of the (HARPS) spectra by the transit light curve, and then subtracting the infrom the out-of-transit spectra to isolate the starlight behind the planet. This technique does not assume any shape for the intrinsic local profiles. In it, we also allow for differential stellar rotation and centre-to-limb variations in the convective blueshift. We apply this technique to HD 189733 and compare to 3D magnetohydrodynamic (MHD) simulations. We reject rigid body rotation with high confidence (>99% probability), which allows us to determine the occulted stellar latitudes and measure the stellar inclination. In turn, we determine both the sky-projected (λ ≈ −0.4 ± 0.2◦) and true 3D obliquity (ψ ≈ 7+12 −4 ◦ ). We also find good agreement with the MHD simulations, with no significant centre-to-limb variations detectable in the local profiles. Hence, this technique provides a new powerful tool that can probe stellar photospheres, differential rotation, determine 3D obliquities, and remove sky-projection biases in planet migration theories. This technique can be implemented with existing instrumentation, but will become even more powerful with the next generation of high-precision radial velocity spectrographs.
Resumo:
Perturbations of asymptotically Anti-de-Sitter (AdS) spacetimes are often considered by imposing field vanishing boundary conditions (BCs) at the AdS boundary. Such BCs, of Dirichlet-type, imply a vanishing energy flux at the boundary, but the converse is, generically, not true. Regarding AdS as a gravitational box, we consider vanishing energy flux (VEF) BCs as a more fundamental physical requirement and we show that these BCs can lead to a new branch of modes. As a concrete example, we consider Maxwell perturbations on Kerr-AdS black holes in the Teukolsky formalism, but our formulation applies also for other spin fields. Imposing VEF BCs, we find a set of two Robin BCs, even for Schwarzschild-AdS black holes. The Robin BCs on the Teukolsky variables can be used to study quasinormal modes, superradiant instabilities and vector clouds. As a first application, we consider here the quasinormal modes of Schwarzschild-AdS black holes. We find that one of the Robin BCs yields the quasinormal spectrum reported in the literature, while the other one unveils a new branch for the quasinormal spectrum.
Resumo:
Tese de doutoramento (co-tutela), Geologia (Geodinâmica Interna), Faculdade de Ciências da Universidade de Lisboa, Faculté des Sciences D’Orsay-Université Paris-Sud, 2014
Resumo:
Tese de doutoramento, Biologia (Biologia Marinha e Aquacultura), Universidade de Lisboa, Faculdade de Ciências, 2015
Resumo:
O presente trabalho apresenta os resultados dos estudos geotécnicos e de uma base de dados da zona ribeirinha de Vila Nova de Gaia, com o objectivo de compreender melhor os aspectos geotécnicos em ambiente urbano numa área sensível com um registo histórico de instabilidade de taludes rochosos. Além disso, os escassos estudos científicos recentes de natureza geológica e geotécnica em Vila Nova de Gaia justificam o estudo exploratório da geotecnia urbana da zona ribeirinha de Vila Nova de Gaia. A importância de Vila Nova de Gaia como a terceira maior cidade portuguesa e como centro de intensa actividade económica e cultural despoleta uma constante necessidade de expansão. O aumento da densidade populacional acarreta a realização de projectos complexos de engenharia, utilizando o subsolo para a construção e, com frequência, em terrenos com características geotécnicas desfavoráveis. As cidades de Vila Nova de Gaia e do Porto foram sendo edificadas ao longo de encostas numa plataforma litoral caracterizada por uma vasta área aplanada, inclinando ligeiramente para Oeste. Esta plataforma foi cortada pelo Rio Douro num vale encaixado de vertentes abruptas, nas quais se localizam as zonas ribeirinhas das duas cidades. Este trabalho envolveu, inicialmente, uma caracterização topográfica, morfoestrutural, geotectónica e geomecânica da área de estudo e, numa fase posterior, o desenvolvimento duma base de dados geotécnica. Todos os dados geológicos e geotécnicos locais e os estudos geotécnicos levados a cabo in situ pelas diversas empresas e instituições foram representados cartograficamente numa base apoiada pelos Sistemas de Informação Geográfica (SIG). Esta metodologia inter‐disciplinar foi de grande valor para um melhor conhecimento dos riscos geológico‐geotécnicos ao longo das margens do Rio Douro. De facto, a cartografia geotécnica da zona ribeirinha de Vila Nova de Gaia deve constituir uma ferramenta importante para uma previsão mais rigorosa de futuras instabilidades de taludes e um bom instrumento para a gestão do espaço urbano.
Resumo:
Water is a limited resource for which demand is growing. Contaminated water from inadequate wastewater treatment provides one of the greatest health challenges as it restricts development and increases poverty in emerging and developing countries. Therefore, the connection between wastewater and human health is linked to access to sanitation and to human waste disposal. Adequate sanitation is expected to create a barrier between disposed human excreta and sources of drinking water. Different approaches to wastewater management are required for different geographical regions and different stages of economic governance depending on the capacity to manage wastewater. Effective wastewater management can contribute to overcome the challenges of water scarcity. Separate collection of human urine at its source is one promising approach that strongly reduces the economic and load demands on wastewater treatment plants (WWTP). Treatment of source-separated urine appears as a sanitation system that is affordable, produces a valuable fertiliser, reduces pollution of water resources and promotes health. However, the technical realisation of urine separation still faces challenges. Biological hydrolysis of urea causes a strong increase of ammonia and pH. Under these conditions ammonia volatilises which can cause odour problems and significant nitrogen losses. The above problems can be avoided by urine stabilisation. Biological nitrification is a suitable process for stabilisation of urine. Urine is a highly concentrated nutrient solution which can lead to strong inhibition effects during bacterial nitrification. This can further lead to process instabilities. The major cause of instability is accumulation of the inhibitory intermediate compound nitrite, which could lead to process breakdown. Enhanced on-line nitrite monitoring can be applied in biological source-separated urine nitrification reactors as a sustainable and efficient way to improve the reactor performance, avoiding reactor failures and eventual loss of biological activity. Spectrophotometry appears as a promising candidate for the development and application of on-line nitrite monitoring. Spectroscopic methods together with chemometrics are presented in this work as a powerful tool for estimation of nitrite concentrations. Principal component regression (PCR) is applied for the estimation of nitrite concentrations using an immersible UV sensor and off-line spectra acquisition. The effect of particles and the effect of saturation, respectively, on the UV absorbance spectra are investigated. The analysis allows to conclude that (i) saturation has a substantial effect on nitrite estimation; (ii) particles appear to have less impact on nitrite estimation. In addition, improper mixing together with instabilities in the urine nitrification process appears to significantly reduce the performance of the estimation model.
Resumo:
L’objectif de ce mémoire de maîtrise est de développer et de caractériser diverses sources de neutres réactifs destinées à des études fondamentales des interactions plasmas-surfaces. Ce projet s’inscrit dans le cadre d’une vaste étude de la physique des interactions plasmas-parois mises en jeu dans les procédés de gravure par plasma des matériaux de pointe. Une revue de la littérature scientifique sur les diverses méthodes permettant de générer des faisceaux de neutres réactifs nous a permis de sélectionner deux types de sources. La première, une source pyrolitique, a été caractérisée par spectrométrie de masse en utilisant le C2F6 comme molécule mère. Nous avons montré que le C2F6 était dissocié à plus de 90% à 1000ºC et qu’il formait du CF4, lui-même dissocié en CF2 vers 900ºC. Ces résultats ont été validés à l’aide d’un modèle basé sur des calculs d’équilibres chimiques, qui a aussi prédit la formation de F à 1500ºC. La seconde source, un plasma entretenu par une onde électromagnétique de surfaces, a été caractérisée par spectroscopie optique d’émission et par interférométrie haute fréquence. Dans le cas du plasma d’argon créé par un champ électromagnétique (>GHz), nos travaux ont révélé une distribution en énergie des électrons à trois températures avec Te-low>Te-high
Resumo:
De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.