988 resultados para atmospheric deep convection


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The West African summer monsoon (WAM) is an important driver of the global climate and locally provides most of the annual rainfall. A solid climatological knowledge of the complex vertical cloud structure is invaluable to forecasters and modelers to improve the understanding of the WAM. In this paper, 4 years of data from the CloudSat profiling radar and CALIPSO are used to create a composite zonal mean vertical cloud and precipitation structure for the WAM. For the first time, the near-coincident vertical radar and lidar profiles allow for the identification of individual cloud types from optically thin cirrus and shallow cumulus to congestus and deep convection. A clear diurnal signal in zonal mean cloud structure is observed for the WAM, with deep convective activity enhanced at night producing extensive anvil and cirrus, while daytime observations show more shallow cloud and congestus. A layer of altocumulus is frequently observed over the Sahara at night and day, extending southward to the coastline, and the majority of this cloud is shown to contain supercooled liquid in the top. The occurrence of deep convective systems and congestus in relation to the position of the African easterly jet is studied, but only the daytime cumulonimbus distribution indicates some influence of the jet position.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We study the feasibility of using the singular vector technique to create initial condition perturbations for short-range ensemble prediction systems (SREPS) focussing on predictability of severe local storms and in particular deep convection. For this a new final time semi-norm based on the convective available potential energy (CAPE) is introduced. We compare singular vectors using the CAPE-norm with SVs using the more common total energy (TE) norm for a 2-week summer period in 2007, which includes a case of mesoscale extreme rainfall in the south west of Finland. The CAPE singular vectors perturb the CAPE field by increasing the specific humidity and temperature of the parcel and increase the lapse rate above the parcel in the lower troposphere consistent with physical considerations. The CAPE-SVs are situated in the lower troposphere. This in contrast to TE-SVs with short optimization times which predominantly remain in the high troposphere. By examining the time evolution of the CAPE singular values we observe that the convective event in the south west of Finland is clearly associated with high CAPE singular values.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Convective equilibrium is a long-standing and useful concept for understanding many aspects of the behaviour of deep moist convection. For example, it is often invoked in developing parameterizations for large-scale models. However, the equilibrium assumption may begin to break down as models are increasingly used with shorter timesteps and finer resolutions. Here we perform idealized cloud-system resolving model simulations of deep convection with imposed time variations in the surface forcing. A range of rapid forcing timescales from 1 − 36hr are used, in order to induce systematic departures from equilibrium. For the longer forcing timescales, the equilibrium assumption remains valid, in at least the limited sense that cycle-integrated measures of convective activity are very similar from cycle to cycle. For shorter forcing timescales, cycle-integrated convection becomes more variable, with enhanced activity on one cycle being correlated with reduced activity on the next, suggesting a role for convective memory. Further investigation shows that the memory does not appear to be carried by the domain-mean thermodynamic fields but rather by structures on horizontal scales of 5 − 20km. Such structures are produced by the convective clouds and can persist beyond the lifetime of the cloud, even through to the next forcing cycle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In Part I of this study it was shown that moving from a moisture-convergent- to a relative-humidity-dependent organized entrainment rate in the formulation for deep convection was responsible for significant advances in the simulation of the Madden – Julian Oscillation (MJO) in the ECMWF model. However, the application of traditional MJO diagnostics were not adequate to understand why changing the control on convection had such a pronounced impact on the representation of the MJO. In this study a set of process-based diagnostics are applied to the hindcast experiments described in Part I to identify the physical mechanisms responsible for the advances in MJO simulation. Increasing the sensitivity of the deep convection scheme to environmental moisture is shown to modify the relationship between precipitation and moisture in the model. Through dry-air entrainment, convective plumes ascending in low-humidity environments terminate lower in the atmosphere. As a result, there is an increase in the occurrence of cumulus congestus, which acts to moisten the mid troposphere. Due to the modified precipitation – moisture relationship more moisture is able to build up, which effectively preconditions the tropical atmosphere for the t ransition t o d eep convection. R esults from this study suggest that a tropospheric moisture control on convection is key to simulating the interaction between the convective heating and the large-scale wave forcing associated with the MJO.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study aims to characterise the rainfall exceptionality and the meteorological context of the 20 February 2010 flash-floods in Madeira (Portugal). Daily and hourly precipitation records from the available rain-gauge station networks are evaluated in order to reconstitute the temporal evolution of the rainstorm, as its geographic incidence, contributing to understand the flash-flood dynamics and the type and spatial distribution of the associated impacts. The exceptionality of the rainstorm is further confirmed by the return period associated with the daily precipitation registered at the two long-term record stations, with 146.9 mm observed in the city of Funchal and 333.8 mm on the mountain top, corresponding to an estimated return period of approximately 290 yr and 90 yr, respectively. Furthermore, the synoptic associated situation responsible for the flash-floods is analysed using different sources of information, e.g., weather charts, reanalysis data, Meteosat images and radiosounding data, with the focus on two main issues: (1) the dynamical conditions that promoted such anomalous humidity availability over the Madeira region on 20 February 2010 and (2) the uplift mechanism that induced deep convection activity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Interpretation of ice-core records is currently limited by paucity of modelling at adequate temporal and spatial resolutions. Several key questions relate to mechanisms of polar amplification and inter-hemispheric coupling on glacial/interglacial timescales. Here, we present the first results from a large set of global ocean–atmosphere climate model ‘snap-shot’ simulations covering the last 120 000 years using the Hadley Centre climate model (HadCM3) at up to 1 kyr temporal resolution. Two sets of simulations were performed in order to examine the roles of orbit and greenhouse gases versus ice-sheet forcing of orbital-scale climate change. A series of idealised Heinrich events were also simulated, but no changes to aerosols or vegetation were prescribed. This paper focuses on high latitudes and inter-hemispheric linkages. The simulations reproduce polar temperature trends well compared to ice-core reconstructions, although the magnitude is underestimated. Polar amplification varies with obliquity, but this variability is dampened by including variations in land ice coverage, while the overall amplification factor increases. The relatively constant amplification of Antarctic temperatures (with ice-sheet forcing included) suggests it is possible to use Antarctic temperature reconstructions to estimate global changes (which are roughly half the magnitude). Atlantic Ocean overturning circulation varies considerably only with the introduction of Northern Hemisphere ice sheets, but only weakens in the North Atlantic in the deep glacial, when ocean–sea-ice feedbacks result in the movement of the region of deep convection to lower latitudes and with the introduction of freshwater to the surface North Atlantic in order to simulate Heinrich events.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents single-column model (SCM) simulations of a tropical squall-line case observed during the Coupled Ocean-Atmosphere Response Experiment of the Tropical Ocean/Global Atmosphere Programme. This case-study was part of an international model intercomparison project organized by Working Group 4 ‘Precipitating Convective Cloud Systems’ of the GEWEX (Global Energy and Water-cycle Experiment) Cloud System Study. Eight SCM groups using different deep-convection parametrizations participated in this project. The SCMs were forced by temperature and moisture tendencies that had been computed from a reference cloud-resolving model (CRM) simulation using open boundary conditions. The comparison of the SCM results with the reference CRM simulation provided insight into the ability of current convection and cloud schemes to represent organized convection. The CRM results enabled a detailed evaluation of the SCMs in terms of the thermodynamic structure and the convective mass flux of the system, the latter being closely related to the surface convective precipitation. It is shown that the SCMs could reproduce reasonably well the time evolution of the surface convective and stratiform precipitation, the convective mass flux, and the thermodynamic structure of the squall-line system. The thermodynamic structure simulated by the SCMs depended on how the models partitioned the precipitation between convective and stratiform. However, structural differences persisted in the thermodynamic profiles simulated by the SCMs and the CRM. These differences could be attributed to the fact that the total mass flux used to compute the SCM forcing differed from the convective mass flux. The SCMs could not adequately represent these organized mesoscale circulations and the microphysicallradiative forcing associated with the stratiform region. This issue is generally known as the ‘scale-interaction’ problem that can only be properly addressed in fully three-dimensional simulations. Sensitivity simulations run by several groups showed that the time evolution of the surface convective precipitation was considerably smoothed when the convective closure was based on convective available potential energy instead of moisture convergence. Finally, additional SCM simulations without using a convection parametrization indicated that the impact of a convection parametrization in forced SCM runs was more visible in the moisture profiles than in the temperature profiles because convective transport was particularly important in the moisture budget.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We present ocean model sensitivity experiments aimed at separating the influence of the projected changes in the “thermal” (near-surface air temperature) and “wind” (near-surface winds) forcing on the patterns of sea level and ocean heat content. In the North Atlantic, the distribution of sea level change is more due to the “thermal” forcing, whereas it is more due to the “wind” forcing in the North Pacific; in the Southern Ocean, the “thermal” and “wind” forcing have a comparable influence. In the ocean adjacent to Antarctica the “thermal” forcing leads to an inflow of warmer waters on the continental shelves, which is somewhat attenuated by the “wind” forcing. The structure of the vertically integrated heat uptake is set by different processes at low and high latitudes: at low latitudes it is dominated by the heat transport convergence, whereas at high latitudes it represents a small residual of changes in the surface flux and advection of heat. The structure of the horizontally integrated heat content tendency is set by the increase of downward heat flux by the mean circulation and comparable decrease of upward heat flux by the subgrid-scale processes; the upward eddy heat flux decreases and increases by almost the same magnitude in response to, respectively, the “thermal” and “wind” forcing. Regionally, the surface heat loss and deep convection weaken in the Labrador Sea, but intensify in the Greenland Sea in the region of sea ice retreat. The enhanced heat flux anomaly in the subpolar Atlantic is mainly caused by the “thermal” forcing.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Initializing the ocean for decadal predictability studies is a challenge, as it requires reconstructing the little observed subsurface trajectory of ocean variability. In this study we explore to what extent surface nudging using well-observed sea surface temperature (SST) can reconstruct the deeper ocean variations for the 1949–2005 period. An ensemble made with a nudged version of the IPSLCM5A model and compared to ocean reanalyses and reconstructed datasets. The SST is restored to observations using a physically-based relaxation coefficient, in contrast to earlier studies, which use a much larger value. The assessment is restricted to the regions where the ocean reanalyses agree, i.e. in the upper 500 m of the ocean, although this can be latitude and basin dependent. Significant reconstruction of the subsurface is achieved in specific regions, namely region of subduction in the subtropical Atlantic, below the thermocline in the equatorial Pacific and, in some cases, in the North Atlantic deep convection regions. Beyond the mean correlations, ocean integrals are used to explore the time evolution of the correlation over 20-year windows. Classical fixed depth heat content diagnostics do not exhibit any significant reconstruction between the different existing observation-based references and can therefore not be used to assess global average time-varying correlations in the nudged simulations. Using the physically based average temperature above an isotherm (14 °C) alleviates this issue in the tropics and subtropics and shows significant reconstruction of these quantities in the nudged simulations for several decades. This skill is attributed to the wind stress reconstruction in the tropics, as already demonstrated in a perfect model study using the same model. Thus, we also show here the robustness of this result in an historical and observational context.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Initialising the ocean internal variability for decadal predictability studies is a new area of research and a variety of ad hoc methods are currently proposed. In this study, we explore how nudging with sea surface temperature (SST) and salinity (SSS) can reconstruct the three-dimensional variability of the ocean in a perfect model framework. This approach builds on the hypothesis that oceanic processes themselves will transport the surface information into the ocean interior as seen in ocean-only simulations. Five nudged simulations are designed to reconstruct a 150 years “target” simulation, defined as a portion of a long control simulation. The nudged simulations differ by the variables restored to, SST or SST + SSS, and by the area where the nudging is applied. The strength of the heat flux feedback is diagnosed from observations and the restoring coefficients for SSS use the same time-scale. We observed that this choice prevents spurious convection at high latitudes and near sea-ice border when nudging both SST and SSS. In the tropics, nudging the SST is enough to reconstruct the tropical atmosphere circulation and the associated dynamical and thermodynamical impacts on the underlying ocean. In the tropical Pacific Ocean, the profiles for temperature show a significant correlation from the surface down to 2,000 m, due to dynamical adjustment of the isopycnals. At mid-to-high latitudes, SSS nudging is required to reconstruct both the temperature and the salinity below the seasonal thermocline. This is particularly true in the North Atlantic where adding SSS nudging enables to reconstruct the deep convection regions of the target. By initiating a previously documented 20-year cycle of the model, the SST + SSS nudging is also able to reproduce most of the AMOC variations, a key source of decadal predictability. Reconstruction at depth does not significantly improve with amount of time spent nudging and the efficiency of the surface nudging rather depends on the period/events considered. The joint SST + SSS nudging applied everywhere is the most efficient approach. It ensures that the right water masses are formed at the right surface density, the subsequent circulation, subduction and deep convection further transporting them at depth. The results of this study underline the potential key role of SSS for decadal predictability and further make the case for sustained large-scale observations of this field.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit wurden im Rahmen der UTOPIHAN- und HOHPEX04-Projekte Peroxid- und Formaldehydmessungen in der Troposphäre durchgeführt und wissenschaftlich interpretiert. Die Messungen während UTOPIHAN fanden dabei an Bord eines für Forschungszwecke umgerüsteten Flugzeuges (Learjet 35A) im Wesentlichen in der freien, insbesondere in der oberen Troposphäre über Europa statt. Die Messungen während HOHPEX04 waren hingegen als Bodenmessungen an der sich abwechselnd in der bodennahen Grenzschicht und in von dieser Schicht entkoppelten Luftmassen liegenden Bergstation Hohenpeißenberg (bayerisches Voralpenland) konzipiert. Um eine quantitative Auswertbarkeit der Messungen sicherzustellen, wurden die verwendeten, auf chemischer Derivatisierung und fluorimetrischer Detektion basierenden Messgeräte AL 2001CA (Peroxide) und AL 4021 (Formaldehyd) (AEROLASER) genau charakterisiert. Dabei wurde speziell die bekannte Ozoninterferenz beider Geräte in einer großen Zahl von Laborexperimenten mit unterschiedlichen Randbedingungen bezüglich Wasserdampf- und Kohlenwasserstoffgehalt der Luft untersucht. Für beide Verbindungen wurden Höhen- sowie Breitenprofile erstellt und mit Ergebnissen eines 3D-Chemie-Transport-Modells (CTM) sowie früherer Studien verglichen. In einem weiteren Kapitel werden Ergebnisse einer quantitativen Studie zum Einfluss hochreichender Konvektion auf das HCHO-Budget in der mittleren und oberen Troposphäre präsentiert. Diese Studie kommt zu dem Schluss, dass der rasche Aufwärtstransport von Vorläufergasen von HCHO und HOx wie Methanol, Aceton und sogar gut löslicher Spurengase wie CH3OOH beziehungsweise H2O2 aus der Grenzschicht einen signifikanten, auf Grund der längeren Lebensdauer von NOx über mehrere Tage andauernden und damit großräumigen Einfluss auf die Budgets von HCHO, HOx und auch O3 in der oberen Troposphäre haben kann. Die Befunde der Studie legen desweiteren nahe, dass fehlerhafte Modellvorhersagen für die NO-Mischungsverhältnisse in der Tropopausenregion, die zum Beispiel mit Mängeln des Modells bezüglich der Höhe der Konvektion und des Stratosphären-Troposphären-Austauschs zu tun haben, hauptverantwortlich sind für gefundene Differenzen zwischen Messdaten und dem verwendeten 3D-Chemie-Transport-Modell. Um die Signifikanz der Aussagen zu erhöhen, wurde eine Sensitivitätsstudie durchgeführt, in der die Konzentration einiger chemischer Verbindungen sowie die Photolyseraten variiert wurden. Eine weitere Studie zum Einfluss verschiedener Parameter auf das CH3OOH/H2O2-Verhältnis kommt zu dem Schluss, dass dieses Verhältnis keinen idealen Indikator für Wolkenprozessierung von Luftmassen darstellt, während eine signifikant positive Abweichung vom H2O2/H2O-Verhältnis in der oberen Troposphäre ein guter Indikator für rasch aufwärts transportierte Luftmassen sein kann. Im Rahmen dieser Studie werden auch Höhen- und Breitenprofile des CH3OOH/H2O2-Verhältnisses diskutiert. In einer letzten Untersuchung zu HCHO-Messungen am Observatorium Hohenpeißenberg im Sommer 2004 werden für die in zwei Windrichtungssektoren eingeteilten Daten Korrelationen anderer Spurengase wie O3, PAN, CO, NOy und Isopren mit HCHO interpretiert. In diesem Zusammenhang wird auch versucht, den beobachteten Tagesgang von HCHO zu erklären.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ozon (O3) ist in der Atmosphäre ein wichtiges Oxidanz und Treibhausgas. Während die höchsten Konzentrationen in der Stratosphäre beobachtet werden und die vor der gefährlichen UV-Strahlung schützende Ozonschicht bilden, können sich signifikante Änderungen der Ozon-Konzentration in der Region der Tropopause auf das Klima der Erde auswirken. Des Weiteren ist Ozon eine der Hauptquellen für das Hydroxylradikal (OH) und nimmt damit entscheidend Einfluss auf die Oxidationskraft der Atmosphäre. Der konvektive Transport von Ozon und seinen Vorläufergasen aus Regionen nahe der Erdoberfläche in die freie Troposphäre beeinflusst das Budget dieser Spezies in der Tropopausenregion.rnDie Datengrundlage der Studie in der vorliegenden Arbeit basiert auf den flugzeuggetragenen Messkampagnen GABRIEL 2005 (Suriname, Südamerika) sowie HOOVER I 2006 und HOOVER II 2007 (beide in Europa). Mit dem zur Verfügung stehenden Datensatz wird das Ozonbudget in der freien, unbelasteten Hintergrundatmosphäre und in der durch hochreichende Konvektion gestörten, oberen Troposphäre untersucht. Anhand der auf in-situ Messungen von O3, NO, OH, HO2 und dem aktinischen Strahlungsfluss basierten Berechnung der Netto-Ozonproduktionsrate (NOPR) werden für das Messgebiet Ozontendenzen in der unbelasteten Troposphäre abgeleitet und mit Simulationen des globalen Chemie-Transport-Modells MATCH-MPIC verglichen. Mit Hilfe zweier Fallstudien in den Tropen in Südamerika und den mittleren Breiten in Europa werden die Auswirkungen von hochreichender Konvektion auf die obere Troposphäre quantifiziert.rnDie Ergebnisse zeigen für die Grenzschicht in niedrigen und mittleren Breiten eine eindeutige Tendenz zur Produktion von Ozon, was für den tropischen Regenwald in der Messregion nicht der allgemeinen Erwartung entsprach, nach der diese Region durch die Zerstörung von Ozon charakterisiert sein sollte. In der oberen Troposphäre ab etwa 7 km wird für die beiden Regionen eine leichte Tendenz zur Ozonproduktion beobachtet. Signifikante Unterschiede zeigen die Ergebnisse für die mittlere Troposphäre. Während die Tropen in dieser Region durch eine eindeutige Tendenz zur Zerstörung von Ozon charakterisiert sind, lässt sich über den mittleren Breiten zwar eine hohe photochemische Aktivität aber keine derart klare Tendenz feststellen. Die hohen Breiten zeichnen sich durch eine neutrale Troposphäre in Bezug auf die Ozontendenz aus und weisen kaum photochemische Aktivität auf. Der Vergleich dieser Ergebnisse mit dem MATCH-MPIC Modell zeigt in weiten Teilen der Messregionen eine grundlegende Übereinstimmung in der Tendenz zur Produktion oder Zerstörung von Ozon. Die absoluten Werte werden vom Modell aber generell unterschätzt. Signifikante Unterschiede zwischen in-situ Daten und Modellsimulationen werden in der Grenzschicht über dem tropischen Regenwald identifiziert.rnDer Einfluss der Konvektion ist durch eine signifikant erhöhte NOPR gekennzeichnet. In dieser Arbeit wird in den Tropen mit einem Median-Wert von 0.20 ppbv h−1 eine um den Faktor 3.6 erhöhte NOPR im Vergleich zur ungestörten oberen Troposphäre abgeschätzt. In den mittleren Breiten führt die um eine Größenordnung höhere NO-Konzentration zu einem Wert von 1.89 ppbv h−1, was einer Überhöhung um einen Faktor 6.5 im Vergleich zum ungestörten Zustand entspricht. Diese Ergebnisse zeigen für beide Regionen in der oberen Troposphäre eine erhöhte Ozonproduktion als Folge konvektiver Aktivität. rnrnHochreichende Konvektion ist zudem ein sehr effektiver Mechanismus für den Vertikaltransport aus der Grenzschicht in die obere Troposphäre. Die schnelle Hebung in konvektiven Wolken führt bei Spurengasen mit Quellen an der Erdoberfläche zu einer Erhöhung ihrer Konzentration in der oberen Troposphäre. Die hochgradig löslichen Spurenstoffe Formaldehyd (HCHO) und Wasserstoffperoxid (H2O2) sind wichtige Vorläufergase der HOx-Radikale. Es wird angenommen, dass sie aufgrund ihrer Löslichkeit in Gewitterwolken effektiv ausgewaschen werden.rnIn der vorliegenden Arbeit wird eine Fallstudie von hochreichender Konvektion im Rahmen des HOOVER II Projekts im Sommer 2007 analysiert. Am 19.07.2007 entwickelten sich am Nachmittag am Südostrand eines in nordöstlicher Richtung ziehenden mesoskaligen konvektiven Systems drei zunächst isolierte konvektive Zellen. Flugzeuggetragene Messungen in der Aus- und der Einströmregion einer dieser Gewitterzellen stellen einen exzellenten Datensatz bereit, um die Auswirkungen von hochreichender Konvektion auf die Verteilung verschiedener Spurengase in der oberen Troposphäre zu untersuchen. Der Vergleich der Konzentrationen von Kohlenstoffmonoxid (CO) und Methan (CH4) zwischen der oberen Troposphäre und der Grenzschicht deutet auf einen nahezu unverdünnten Transport dieser langlebigen Spezies in der konvektiven Zelle hin. Die Verhältnisse betragen (0.94±0.04) für CO und (0.99±0.01) für CH4. Für die löslichen Spezies HCHO und H2O2 beträgt dieses Verhältnis in der Ausströmregion (0.55±0.09) bzw. (0.61±0.08). Dies ist ein Indiz dafür, dass diese Spezies nicht so effektiv ausgewaschen werden wie angenommen. Zum besseren Verständnis des Einflusses der Konvektion auf die Budgets dieser Spezies in der oberen Troposphäre wurden im Rahmen dieser Arbeit Boxmodell-Studien für den Beitrag der photochemischen Produktion in der Ausströmregion durchgeführt, wobei die gemessenen Spezies und Photolysefrequenzen als Randbedingungen dienten. Aus den Budgetbetrachtungen für HCHO und H2O2 wird eine Auswascheffizienz von (67±24) % für HCHO und (41±18) % für H2O2 abgeschätzt. Das für H2O2 überraschende Ergebnis lässt darauf schließen, dass dieses Molekül in einer Gewitterwolke deutlich effektiver transportiert werden kann, als aufgrund seiner hohen Löslichkeit aus der Henry-Konstanten zu erwarten wäre. Das Ausgasen von gelöstem H2O2 beim Gefrieren eines Wolkentropfens, d.h. ein Retentionskoeffizient kleiner 1, ist ein möglicher Mechanismus, der zum beobachteten Mischungsverhältnis dieser löslichen Spezies in der Ausströmregion beitragen kann.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.