939 resultados para Global model
Resumo:
Zusammenfassung Ein 3-dimensionales globales Modell der unterenAtmosphäre wurde für die Untersuchung derOzonchemie, sowie der Chemie des Hydroxylradikals (OH) undwichtiger Vorläufersubstanzen, wie reaktiverStickstoffverbindungen und Kohlenwasserstoffe, verwendet.Hierfür wurde die Behandlung vonNicht-Methan-Kohlenwasserstoffen (NMKW) hinzugefügt,was auch die Entwicklung einer vereinfachten Beschreibungihrer Chemie, sowie die Erfassung von Depositionsprozessenund Emissionen erforderte. Zur Lösung der steifengewöhnlichen Differentialgleichungen der Chemie wurdeeine schnelles Rosenbrock-Verfahren eingesetzt, das soimplementiert wurde, dass die Modell-Chemie fürzukünftige Studien leicht abgeändert werden kann. Zur Evaluierung des Modells wurde ein umfangreicherVergleich der Modellergebnisse mit Bodenmessungen, sowieFlugzeug-, Sonden- und Satelliten-Daten durchgeführt.Das Modell kann viele Aspekte der Beobachtungen derverschieden Substanzen realistisch wiedergeben. Es wurdenjedoch auch einige Diskrepanzen festgestellt, die Hinweiseauf fehlerhafte Emissionsfelder oder auf die Modell-Dynamikund auch auf fehlende Modell-Chemie liefern. Zur weiteren Untersuchung des Einflusses verschiedenerStoffgruppen wurden drei Läufe mit unterschiedlichkomplexer Chemie analysiert. Durch das Berücksichtigender NMKW wird die Verteilung mehrerer wichtiger Substanzensignifikant beeinflusst, darunter z.B. ein Anstieg desglobalen Ozons. Es wurde gezeigt, dass die biogene SubstanzIsopren etwa die Hälfte des Gesamteffekts der NMKWausmachte (mehr in den Tropen, weniger anderswo). In einer Sensitivitätsstudie wurden die Unsicherheitenbei der Modellierung von Isopren weitergehend untersucht.Dabei konnte gezeigt werden, dass die Unsicherheit beiphysikalischen Aspekten (Deposition und heterogene Prozesse)ebenso groß sein kann, wie die aus dem chemischenGasphasen-Mechanismus stammende, welche zu globalbedeutsamen Abweichungen führte. Lokal können sichnoch größere Abweichungen ergeben. Zusammenfassend kann gesagt werden, dass die numerischenStudien dieser Arbeit neue Einblicke in wichtige Aspekte derPhotochemieder Troposphäre ergaben und in Vorschläge fürweiter Studien mündeten, die die wichtigsten gefundenenUnsicherheiten weiter verringern könnten.
Resumo:
The interaction between atmosphere–land–ocean–biosphere systems plays a prominent role on the atmospheric dynamics and on the convective rainfall distribution over the West Africa monsoon area during the boreal summer. In particular, the initialization of convective systems in the Sub – Sahelian region has been directly linked to soil moisture heterogeneities identified as the major triggering, development and propagation of convective systems. The present study aims at investigating African monsoon large scale convective dynamics and rainfall diurnal cycle through an exploration of the hypothesis behind the mechanisms of a monsoon phenomenon as an emergence of a collective dynamics of many propagating convective systems. Such hypothesis is based on the existence of an internal self – regulation mechanism among the various components. To achieve these results a multiple analysis was performed based on remote sensed rainfall dataset, and global and regional modelling data for a period of 5 seasons: 2004 - 2008. Satellite rainfall data and convective occurrence variability were studied for assessing typical spatio – temporal signatures and characteristics with an emphasis to the diurnal cycle footprint. A global model and regional model simulation datasets, specifically developed for this analysis and based on Regional Atmospheric Modelling System – RAMS, have been analysed. Results from numerical model datasets highlight the evidence of a synchronization between the destabilization of the convective boundary layer and rainfall occurrence due to the solar radiation forcing through the latent heat release. This supports the conclusion that the studied interacting systems are associated with a process of mutual adjustment of rhythms. Furthermore, this rainfall internal coherence was studied in relation to the West African Heat Low pressure system, which has a prominent role in the large scale summer variability over the Mediterranean area since it is acting as one of dynamic link between sub tropical and midlatitudes variability.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn
Resumo:
Der erste Teil dieser Arbeit befaßt sich mit der Adsorption von H2O2 auf nicht-wachsendem Eis. Die Experimente wurden in einem zylindrischen Strömungsreaktor mit massenspektrometrischer Detektion (Elektronenstoß und chemische Ionisation) ausgeführt. Die Daten einer zuvor bereits am Max Planck-Institut für Chemie (Mainz) von Dr. N. Pouvesle ausgeführten Laborstudie zur Adsorption von H2O2 auf Eis bei 203 bis 233 K wurden im Rahmen der vorliegenden Arbeit durch Coadsorptionsexperimente mit Ameisensäure und Verwendung unterschiedlicher Ionisationsmodi validiert. Zusätzlich wurde eine Korrelation der Langmuir-Konstanten und der Kondensationsenthalpie für H2O2 und andere Moleküle durchgeführt, welche die Ergebnisse der MPI-Studie ebenfalls stützt. Die Ergebnisse belegen, daß die Aufnahme von H2O2 in Eiswolken um bis zu 3 Größenordnungen höher ist als bisher angenommen. Anhand dieser Erkenntnisse wurde die atmosphärische Relevanz der Adsorption von H2O2 auf Eis in der oberen Troposphäre neu bewertet. Der zweite Teil der Arbeit widmet sich der Aufnahme verschiedener organischer Verbindungen (Ethanol, 1-Butanol, Ameisensäure, Trifluoressigsäure) und HCl auf Eis während dieses wächst. Der hierfür erstmals in Betrieb genommene Eiswachstumsreaktor wurde zunächst durch Messung der Adsorptionsisotherme von Ethanol und Butanol und Berechnung der Adsorptionsenthalpien aus experimentellen Daten evaluiert. Im Anschluß wurden die Ergebnisse der Wachstumsexperimente der oben aufgeführten Verbindungen vorgestellt, wobei jedoch nur Trifluoressigsäure und HCl eine erhöhte Aufnahme zeigen. Der Aufnahmekoeffizient g_trapp von HCl wurde bei Temperaturen zwischen 194,3 und 228 K und HCl-Gasphasenkonzentrationen von 6,4x10^9 bis 2,2x10^11 cm^-3 gemessen und war unter den untersuchten Bedingungen proportional zu Eiswachstumsgeschwindigkeit x und antikorreliert zum Bedeckungsgrad theta und der Eistemperatur T. Der vom wachsenden Eis aufgenommene Fluß von HCl-Molekülen war positiv mit x und negativ mit T korreliert, während theta keinen Einfluß hatte. Anhand der erzielten Resultate wurde eine Parametrisierung für g_trapp entwickelt, mit der die Aufnahme künftig in Abhängigkeit von x, T und [HCl]_gas leicht berechnet werden kann, beispielsweise in globalen Modellsimulation der troposphärischen Chemie. Abschließend wurden die Ergebnisse mit einem von Kärcher et al. (2009) entwickelten semiempirischen Modell verglichen und für die offenen Parameter des Modells wurden aus den experimentellen Daten ebenfalls Parametrisierungen entwickelt.
Resumo:
Troposphärisches Ozon ist bekannt als wichtiges Oxidationsmittel und als Vorläufergas hoch reaktiver Radikale. Es zählt zu den wichtigsten Treibhausgasen und wirkt bei hohen Konzentrationen an der Erdoberfläche giftig für alle Lebewesen. Zwar wird der Großteil des troposphärischen Ozons photochemisch produziert, ein erheblicher Anteil hat aber stratosphärischen Ursprung und wird entlang von Tropopausenfalten in Zyklonen in die Troposphäre transportiert. Dieser Transport von Luftmassen aus der Stratosphäre in diernTroposphäre (STT) kann zu einem kurzzeitigen, starken Ozonanstieg am Boden führen und langfristig die Chemie der Troposphäre beeinflussen. Die Quantifizierung des Ozoneintrages und die Identifizierung der dafür verantwortlichen Prozesse ist mit großen Unsicherheiten belastet und ein aktuelles Forschungsthema.rnAufgrund ihrer groben Auflösung ist es mit globalen Modellen nicht möglich, die Details dieser STT-Prozesse zu erfassen. Deshalb wird in dieser Arbeit das Modellsystem MECO(n) genutzt, welches das regionale Atmosphärenchemie- und Klimamodell COSMO/MESSy mit dem globalen Chemie-Klimamodell ECHAM5/MESSy (EMAC) koppelt. Eine einheitliche Prozessparametrisierung ermöglicht konsistente, simultane Simulationen in verschiedenen Modellauflösungen. Ein als Teil dieser Arbeit neu entwickeltes Submodell erlaubt die Initialisierung künstlicher, passiver Tracer in Abhängigkeit verschiedener Variablen. Mit einem auf diese Weise freigesetzten, stratosphärischen Tracer lässt sich Ozon mit stratosphärischer Herkunft von solchem, das photochemisch produziert wurde, unterscheiden.rnIm Rahmen einer Fallstudie werden die Austauschprozesse an einer Tropopausenfalte sowohl aus der Eulerischen, als auch aus der Lagrangeschen Perspektive betrachtet. Die Analyse der STT-Prozesse zeigt, dass Luftmassen aus der Stratosphäre durch turbulente und diabatische Prozesse am Rand der Tropopausenfalte in die Troposphäre gelangen und anschließend bis zum Boden transportiert werden. Diese absinkenden, stratosphärischen Luftmassen führen in den Simulationen zu Ozonanstiegen am Boden, die mit Beobachtungsdaten evaluiert werden können. Es wird gezeigt, dass die Ergebnisse der feiner auflösendenrnModellinstanz gut mit den Messungen übereinstimmen.rnIn einer Lagrangeschen Analyse lassen sich Mischungszeitskalen für STT-Prozesse bestimmen. Es wird gezeigt, dass Luftpakete, die sich länger als zehn Stunden in der Troposphäre aufhalten, diese durch den Eintrag ihrer stratosphärischen Tracereigenschaften beeinflussen und daher nicht vernachlässigbar sind. Eine weitere Studie gibt Aufschluss über die Effektivität der Mischung an Tropopausenfalten: Fast die gesamte Luftmasse, die sich zu einem bestimmten Zeitpunkt in der Tropopausenfalte befindet, gelangt innerhalb von zwei Tagen in die Troposphäre.
Resumo:
Die Förderung regelmäßiger Bewegungs- und Sportaktivitäten bei älteren Menschen gewinnt zunehmend an Bedeutung. Für eine effiziente Bewegungs- und Sportförderung werden zielgruppenspezifische Maßnahmen gefordert. Sportbezogene Motive und Ziele von Älteren werden aktuell selten systematisch in die Konzeption von Interventionen miteinbezogen, wenngleich sie für das Wohlbefinden und die Aufrechterhaltung des Sportverhaltens eine zentrale Rolle einnehmen. Das bereits bestehende BMZI ermöglicht die Individualdiagnose von Motiven und Zielen im Freizeit- und Gesundheitssport bei Personen im mittleren Erwachsenenalter. Der vorliegende Beitrag zielt auf eine Adaption des Fragebogens für Menschen im höheren Erwachsenenalter. Das BMZI-HEA deckt mit insgesamt 27 Items folgende Motive und Ziele ab: Figur/Aussehen, Kontakt, Wettkampf/Leistung, Alltagskompetenz/Gesundheit, Positive Bewegungserfahrungen, Kognitive Funktionsfähigkeit, Stimmungsregulation. Der Fragebogen wurde an drei Stichproben explorativ und konfirmatorisch überprüft. Der globale Modell-Fit des BMZI-HEA ist als zufriedenstellend zu beurteilen. Die erwartungskonformen Zusammenhänge mit der Selbstkonkordanz verweisen auf eine gute Konstruktvalidität des Instruments. Das BMZI-HEA empfiehlt sich als ökonomisches Instrument für die Individualdiagnose der psychischen Handlungsvoraussetzungen für das Sporttreiben von Menschen im höheren Erwachsenenalter.
Resumo:
INTRODUCTION Every joint registry aims to improve patient care by identifying implants that have an inferior performance. For this reason, each registry records the implant name that has been used in the individual patient. In most registries, a paper-based approach has been utilized for this purpose. However, in addition to being time-consuming, this approach does not account for the fact that failure patterns are not necessarily implant specific but can be associated with design features that are used in a number of implants. Therefore, we aimed to develop and evaluate an implant product library that allows both time saving barcode scanning on site in the hospital for the registration of the implant components and a detailed description of implant specifications. MATERIALS AND METHODS A task force consisting of representatives of the German Arthroplasty Registry, industry, and computer specialists agreed on a solution that allows barcode scanning of implant components and that also uses a detailed standardized classification describing arthroplasty components. The manufacturers classified all their components that are sold in Germany according to this classification. The implant database was analyzed regarding the completeness of components by algorithms and real-time data. RESULTS The implant library could be set up successfully. At this point, the implant database includes more than 38,000 items, of which all were classified by the manufacturers according to the predefined scheme. Using patient data from the German Arthroplasty Registry, several errors in the database were detected, all of which were corrected by the respective implant manufacturers. CONCLUSIONS The implant library that was developed for the German Arthroplasty Registry allows not only on-site barcode scanning for the registration of the implant components but also its classification tree allows a sophisticated analysis regarding implant characteristics, regardless of brand or manufacturer. The database is maintained by the implant manufacturers, thereby allowing registries to focus their resources on other areas of research. The database might represent a possible global model, which might encourage harmonization between joint replacement registries enabling comparisons between joint replacement registries.
Resumo:
Diatoms are the major marine primary producers on the global scale and, recently, several methods have been developed to retrieve their abundance or dominance from satellite remote sensing data. In this work, we highlight the importance of the Southern Ocean (SO) in developing a global algorithm for diatom using an Abundance Based Approach (ABA). A large global in situ data set of phytoplankton pigments was compiled, particularly with more samples collected in the SO. We revised the ABA to take account of the information on the penetration depth (Zpd) and to improve the relationship between diatoms and total chlorophyll-a (TChla). The results showed that there is a distinct relationship between diatoms and TChla in the SO, and a new global model (ABAZpd) improved the estimation of diatoms abundance by 28% in the SO compared with the original ABA model. In addition, we developed a regional model for the SO which further improved the retrieval of diatoms by 17% compared with the global ABAZpd model. As a result, we found that diatom may be more abundant in the SO than previously thought. Linear trend analysis of diatom abundance using the regional model for the SO showed that there are statistically significant trends, both increasing and decreasing, in diatom abundance over the past eleven years in the region.
Resumo:
Se presenta el algoritmo implementado para probar la estabilidad de pilas de puente de forma global, es decir, integradas en la estructura más general del puente. El método planteado constituye una alternativa más general al método habitual de leyes momento-curvatura. Se describe su aplicación al puente atirantado de Bucaramanga de 292 m de luz y pilas de 50 y 70 m de altura (altura total de la torre mayor de 133 m). Su aplicación, considerando confinamiento en determinadas secciones de pilas permite tener en cuenta la generación de rótulas plásticas y demostrar el grado de ductilidad alcanzado en la estructura, constituyendo una aplicación practica del método de calculo sísmico por capacidad o push-over a pilas de puente.The relevance of this article is threefold: 1st It presents in detail the algorithm used to test the stability of bridge piers in a global model, i.e., integrated in the most general structure of the bridge. 2nd The method put forward represents a more general alternative to the commonly used moment-curvature method of sectional analysis for biaxial bending under constant axial force. 3rd It describes the algorithm’s application to a 292 m span cable-stayed bridge with piers of 50 and 70 m in height (total height of the biggest tower 133 m). Its application, considering confinement in some particular cross-sections of piers permits the taking into account of “plastic hinges” phenomena due to earthquakes and demonstrates the degree of ductility achieved in the structure. This constitutes a practical application of the push-over method to bridge piers.
Resumo:
There is evidence that the climate changes and that now, the change is influenced and accelerated by the CO2 augmentation in atmosphere due to combustion by humans. Such ?Climate change? is on the policy agenda at the global level, with the aim of understanding and reducing its causes and to mitigate its consequences. In most countries and international organisms UNO (e.g. Rio de Janeiro 1992), OECD, EC, etc . . . the efforts and debates have been directed to know the possible causes, to predict the future evolution of some variable conditioners, and trying to make studies to fight against the effects or to delay the negative evolution of such. The Protocol of Kyoto 1997 set international efforts about CO2 emissions, but it was partial and not followed e.g. by USA and China . . . , and in Durban 2011 the ineffectiveness of humanity on such global real challenges was set as evident. Among all that, the elaboration of a global model was not boarded that can help to choose the best alternative between the feasible ones, to elaborate the strategies and to evaluate the costs, and the authors propose to enter in that frame for study. As in all natural, technological and social changes, the best-prepared countries will have the best bear and the more rapid recover. In all the geographic areas the alternative will not be the same one, but the model must help us to make the appropriated decision. It is essential to know those areas that are more sensitive to the negative effects of climate change, the parameters to take into account for its evaluation, and comprehensive plans to deal with it. The objective of this paper is to elaborate a mathematical model support of decisions, which will allow to develop and to evaluate alternatives of adaptation to the climatic change of different communities in Europe and Latin-America, mainly in especially vulnerable areas to the climatic change, considering in them all the intervening factors. The models will consider criteria of physical type (meteorological, edaphic, water resources), of use of the ground (agriculturist, forest, mining, industrial, urban, tourist, cattle dealer), economic (income, costs, benefits, infrastructures), social (population), politician (implementation, legislation), educative (Educational programs, diffusion) and environmental, at the present moment and the future. The intention is to obtain tools for aiding to get a realistic position for these challenges, which are an important part of the future problems of humanity in next decades.
Resumo:
Climate change is on the policy agenda at the global level, with the aim of understanding and reducing its causes and to mitigate its consequences. In most of the countries and international organisms UNO, OECD, EC, etc … the efforts and debates have been directed to know the possible causes, to predict the future evolution of some variable conditioners, and trying to make studies to fight against the effects or to delay the negative evolution of such. Nevertheless, the elaboration of a global model was not boarded that can help to choose the best alternative between the feasible ones, to elaborate the strategies and to evaluate the costs. As in all natural, technological and social changes, the best-prepared countries will have the best bear and the more rapid recover. In all the geographic areas the alternative will not be the same one, but the model should help us to make the appropriated decision. It is essential to know those areas that are more sensitive to the negative effects of climate change, the parameters to take into account for its evaluation, and comprehensive plans to deal with it. The objective of this paper is to elaborate a mathematical model support of decisions, that will allow to develop and to evaluate alternatives of adaptation to the climatic change of different communities in Europe and Latin-America, mainly, in vulnerable areas to the climatic change, considering in them all the intervening factors. The models will take into consideration criteria of physical type (meteorological, edaphic, water resources), of use of the ground (agriculturist, forest, mining, industrial, urban, tourist, cattle dealer), economic (income, costs, benefits, infrastructures), social (population), politician (implementation, legislation), educative (Educational programs, diffusion), sanitary and environmental, at the present moment and the future.
Resumo:
There is now an emerging need for an efficient modeling strategy to develop a new generation of monitoring systems. One method of approaching the modeling of complex processes is to obtain a global model. It should be able to capture the basic or general behavior of the system, by means of a linear or quadratic regression, and then superimpose a local model on it that can capture the localized nonlinearities of the system. In this paper, a novel method based on a hybrid incremental modeling approach is designed and applied for tool wear detection in turning processes. It involves a two-step iterative process that combines a global model with a local model to take advantage of their underlying, complementary capacities. Thus, the first step constructs a global model using a least squares regression. A local model using the fuzzy k-nearest-neighbors smoothing algorithm is obtained in the second step. A comparative study then demonstrates that the hybrid incremental model provides better error-based performance indices for detecting tool wear than a transductive neurofuzzy model and an inductive neurofuzzy model.
Resumo:
The fluid–particle interaction and the impact of different heat transfer conditions on pyrolysis of biomass inside a 150 g/h fluidised bed reactor are modelled. Two different size biomass particles (350 µm and 550 µm in diameter) are injected into the fluidised bed. The different biomass particle sizes result in different heat transfer conditions. This is due to the fact that the 350 µm diameter particle is smaller than the sand particles of the reactor (440 µm), while the 550 µm one is larger. The bed-to-particle heat transfer for both cases is calculated according to the literature. Conductive heat transfer is assumed for the larger biomass particle (550 µm) inside the bed, while biomass–sand contacts for the smaller biomass particle (350 µm) were considered unimportant. The Eulerian approach is used to model the bubbling behaviour of the sand, which is treated as a continuum. Biomass reaction kinetics is modelled according to the literature using a two-stage, semi-global model which takes into account secondary reactions. The particle motion inside the reactor is computed using drag laws, dependent on the local volume fraction of each phase. FLUENT 6.2 has been used as the modelling framework of the simulations with the whole pyrolysis model incorporated in the form of User Defined Function (UDF).
Resumo:
In this paper we discuss a fast Bayesian extension to kriging algorithms which has been used successfully for fast, automatic mapping in emergency conditions in the Spatial Interpolation Comparison 2004 (SIC2004) exercise. The application of kriging to automatic mapping raises several issues such as robustness, scalability, speed and parameter estimation. Various ad-hoc solutions have been proposed and used extensively but they lack a sound theoretical basis. In this paper we show how observations can be projected onto a representative subset of the data, without losing significant information. This allows the complexity of the algorithm to grow as O(n m 2), where n is the total number of observations and m is the size of the subset of the observations retained for prediction. The main contribution of this paper is to further extend this projective method through the application of space-limited covariance functions, which can be used as an alternative to the commonly used covariance models. In many real world applications the correlation between observations essentially vanishes beyond a certain separation distance. Thus it makes sense to use a covariance model that encompasses this belief since this leads to sparse covariance matrices for which optimised sparse matrix techniques can be used. In the presence of extreme values we show that space-limited covariance functions offer an additional benefit, they maintain the smoothness locally but at the same time lead to a more robust, and compact, global model. We show the performance of this technique coupled with the sparse extension to the kriging algorithm on synthetic data and outline a number of computational benefits such an approach brings. To test the relevance to automatic mapping we apply the method to the data used in a recent comparison of interpolation techniques (SIC2004) to map the levels of background ambient gamma radiation. © Springer-Verlag 2007.