943 resultados para data transformation
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
The Box-Cox transformation is a technique mostly utilized to turn the probabilistic distribution of a time series data into approximately normal. And this helps statistical and neural models to perform more accurate forecastings. However, it introduces a bias when the reversion of the transformation is conducted with the predicted data. The statistical methods to perform a bias-free reversion require, necessarily, the assumption of Gaussianity of the transformed data distribution, which is a rare event in real-world time series. So, the aim of this study was to provide an effective method of removing the bias when the reversion of the Box-Cox transformation is executed. Thus, the developed method is based on a focused time lagged feedforward neural network, which does not require any assumption about the transformed data distribution. Therefore, to evaluate the performance of the proposed method, numerical simulations were conducted and the Mean Absolute Percentage Error, the Theil Inequality Index and the Signal-to-Noise ratio of 20-step-ahead forecasts of 40 time series were compared, and the results obtained indicate that the proposed reversion method is valid and justifies new studies. (C) 2014 Elsevier B.V. All rights reserved.
Resumo:
Although an essential condition for the occurrence of human development, economic growth is not always efficiently converted into quality of life by nation-states. Accordingly, the objective of this study is to measure the social efficiency-the ability of a nation-state to convert its produced wealth into quality of life-of a set of 101 countries. To achieve this goal, the Data Envelopment Analysis method was used in its standard, cross-multiplicative and inverted form, by means of a new approach called 'triple index'. The main results indicated that the former Soviet republics and Eastern European countries stood out in terms of social efficiency. The developed countries, notwithstanding their high social indicators, did not excel in efficiency; however, the countries of south of Africa, despite having the worst social conditions, were also the most inefficient.
Resumo:
To evaluate the effect of grinding and airborne-particle abrasion on the biaxial flexural strength (BFS) and phase transformation of a Y-TZP ceramic, and examine whether sintering the veneering porcelain renders the previous heat treatment recommended by the manufacturer unnecessary. Materials and Methods: Lava zirconia specimens (N = 108) were obtained with the following dimensions: 14.0 mm diameter × 1.3 mm thickness (n = 36) and 14.0 mm × 1.6 mm (n = 72). The thicker specimens were ground with diamond burs under irrigation and received (heat-treated groups) or not (non-heat-treated groups) a heat treatment (1000°C for 30 min) prior to the four firing cycles applied to simulate the sintering of the veneering porcelain. All specimens were air abraded as follows (n = 12): 1) 30-μm silica-modified Al2O3 particles (Rocatec Soft); 2) 110-μm silica-modified Al2O3 particles (Rocatec Plus); and 3) 120-μm Al2O3 particles, followed by Rocatec Plus. Three specimens of each group were analyzed by x-ray diffraction (XRD) to assess the monoclinic phase content (%). The BFS test was performed in a mechanical testing machine (Instron 8874). Data (MPa) were analyzed by two-way ANOVA (grinding × airborne-particle abrasion and heat treatment × airborne-particle abrasion) and Tukey's post-hoc test (α = 0.05). The strength reliability was analyzed using the Weibull distribution. Results: Grinding significantly decreased the BFS of the non-heat-treated groups (p < 0.01). Within the ground groups, the previous heat treatment did not influence the BFS (p > 0.05). Air abrasion only influenced the BFS of the ground/heat-treated groups (p < 0.01). For the non-heat-treated groups, the grinding did not decrease the Weibull modulus (m), but it did decrease the characteristic strength (σ0). For Rocatec Soft and 120-μm Al2O3 particles + Rocatec Plus, the heat-treated groups presented lower m and higher σ0 than the ground/non-heat-treated groups. The independent variables did not seem to influence phase transformation. Air-abraded surfaces presented higher monoclinic zirconia content than the as-sintered and ground surfaces, which exhibited similar content. Conclusion: Even under irrigation, grinding compromised the Y-TZP ceramic strength. The sintering of the veneering porcelain rendered the previous heat treatment recommended by the manufacturer unnecessary. Airborneparticle abrasion influenced the strength of heat-treated zirconia.
Resumo:
To evaluate the effect of grinding and airborne-particle abrasion on the biaxial flexural strength (BFS) and phase transformation of a Y-TZP ceramic, and examine whether sintering the veneering porcelain renders the previous heat treatment recommended by the manufacturer unnecessary. Materials and Methods: Lava zirconia specimens (N = 108) were obtained with the following dimensions: 14.0 mm diameter × 1.3 mm thickness (n = 36) and 14.0 mm × 1.6 mm (n = 72). The thicker specimens were ground with diamond burs under irrigation and received (heat-treated groups) or not (non-heat-treated groups) a heat treatment (1000°C for 30 min) prior to the four firing cycles applied to simulate the sintering of the veneering porcelain. All specimens were air abraded as follows (n = 12): 1) 30-μm silica-modified Al2O3 particles (Rocatec Soft); 2) 110-μm silica-modified Al2O3 particles (Rocatec Plus); and 3) 120-μm Al2O3 particles, followed by Rocatec Plus. Three specimens of each group were analyzed by x-ray diffraction (XRD) to assess the monoclinic phase content (%). The BFS test was performed in a mechanical testing machine (Instron 8874). Data (MPa) were analyzed by two-way ANOVA (grinding × airborne-particle abrasion and heat treatment × airborne-particle abrasion) and Tukey's post-hoc test (α = 0.05). The strength reliability was analyzed using the Weibull distribution. Results: Grinding significantly decreased the BFS of the non-heat-treated groups (p < 0.01). Within the ground groups, the previous heat treatment did not influence the BFS (p > 0.05). Air abrasion only influenced the BFS of the ground/heat-treated groups (p < 0.01). For the non-heat-treated groups, the grinding did not decrease the Weibull modulus (m), but it did decrease the characteristic strength (σ0). For Rocatec Soft and 120-μm Al2O3 particles + Rocatec Plus, the heat-treated groups presented lower m and higher σ0 than the ground/non-heat-treated groups. The independent variables did not seem to influence phase transformation. Air-abraded surfaces presented higher monoclinic zirconia content than the as-sintered and ground surfaces, which exhibited similar content. Conclusion: Even under irrigation, grinding compromised the Y-TZP ceramic strength. The sintering of the veneering porcelain rendered the previous heat treatment recommended by the manufacturer unnecessary. Airborneparticle abrasion influenced the strength of heat-treated zirconia.
Resumo:
Statement of problem Because airborne-particle abrasion is an efficient method of improving the bond at the zirconia-cement interface, understanding its effect on the strength of yttria-stabilized tetragonal zirconia polycrystal is important. Purpose The purpose of this study was to evaluate the effect of the particle size used for airborne-particle abrasion on the flexural strength and phase transformation of a commercially available yttria-stabilized tetragonal zirconia polycrystal ceramic. Material and Methods For both flexural strength (20.0 × 4.0 × 1.2 mm) (n=14) and phase transformation (14.0-mm diameter × 1.3-mm thickness) (n=4), the zirconia specimens were made from Lava, and their surfaces were treated in the following ways: as-sintered (control); with 50-μm aluminum oxide (Al2O3) particles; with 120-μm Al2O3 particles; with 250-μm Al2O3 particles; with 30-μm silica-modified Al2O3 particles (Cojet Sand); with 120-μm Al2O3 particles, followed by 110-μm silica-modified Al2O3 particles (Rocatec Plus); and with Rocatec Plus. The phase transformation (%) was assessed by x-ray diffraction analysis. The 3-point flexural strength test was conducted in artificial saliva at 37°C in a mechanical testing machine. The data were analyzed by 1-way ANOVA and the Tukey honestly significant difference post hoc test (α=.05). Results Except for the Cojet Sand group, which exhibited statistically similar flexural strength to that of the as-sintered group and for the group abraded with 250-μm Al2O3 particles, which presented the lowest strength, airborne-particle abrasion with the other particle sizes provided the highest values, with no significant difference among them. The as-sintered specimens presented no monoclinic phase. The groups abraded with smaller particles (30 μm and 50 μm) and those treated with the larger ones (110 μm and/or 120 μm particles and 250 μm) exhibited percentages of monoclinic phase that varied from 4% to 5% and from 8.7% to 10%. Conclusions Except for abrasion with Cojet Sand, depending on the particle size, zirconia exhibited an increase or a decrease in its flexural strength. Airborne-particle abrasion promoted phase transformation (tetragonal to monoclinic), and the percentage of monoclinic phase varied according to the particle size.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Mashups are becoming increasingly popular as end users are able to easily access, manipulate, and compose data from several web sources. To support end users, communities are forming around mashup development environments that facilitate sharing code and knowledge. We have observed, however, that end user mashups tend to suffer from several deficiencies, such as inoperable components or references to invalid data sources, and that those deficiencies are often propagated through the rampant reuse in these end user communities. In this work, we identify and specify ten code smells indicative of deficiencies we observed in a sample of 8,051 pipe-like web mashups developed by thousands of end users in the popular Yahoo! Pipes environment. We show through an empirical study that end users generally prefer pipes that lack those smells, and then present eleven specialized refactorings that we designed to target and remove the smells. Our refactorings reduce the complexity of pipes, increase their abstraction, update broken sources of data and dated components, and standardize pipes to fit the community development patterns. Our assessment on the sample of mashups shows that smells are present in 81% of the pipes, and that the proposed refactorings can reduce that number to 16%, illustrating the potential of refactoring to support thousands of end users developing pipe-like mashups.
Resumo:
Background: Cryptococcus neoformans causes meningitis and disseminated infection in healthy individuals, but more commonly in hosts with defective immune responses. Cell-mediated immunity is an important component of the immune response to a great variety of infections, including yeast infections. We aimed to evaluate a specific lymphocyte transformation assay to Cryptococcus neoformans in order to identify immunodeficiency associated to neurocryptococcosis (NCC) as primary cause of the mycosis. Methods: Healthy volunteers, poultry growers, and HIV-seronegative patients with neurocryptococcosis were tested for cellular immune response. Cryptococcal meningitis was diagnosed by India ink staining of cerebrospinal fluid and cryptococcal antigen test (Immunomycol-Inc, SP, Brazil). Isolated peripheral blood mononuclear cells were stimulated with C. neoformans antigen, C. albicans antigen, and pokeweed mitogen. The amount of H-3-thymidine incorporated was assessed, and the results were expressed as stimulation index (SI) and log SI, sensitivity, specificity, and cut-off value (receiver operating characteristics curve). We applied unpaired Student t tests to compare data and considered significant differences for p<0.05. Results: The lymphotoxin alpha showed a low capacity with all the stimuli for classifying patients as responders and non-responders. Lymphotoxin alpha stimulated by heated-killed antigen from patients with neurocryptococcosis was not affected by TCD4+ cell count, and the intensity of response did not correlate with the clinical evolution of neurocryptococcosis. Conclusion: Response to lymphocyte transformation assay should be analyzed based on a normal range and using more than one stimulator. The use of a cut-off value to classify patients with neurocryptococcosis is inadequate. Statistical analysis should be based on the log transformation of SI. A more purified antigen for evaluating specific response to C. neoformans is needed.
Resumo:
A new method for analysis of scattering data from lamellar bilayer systems is presented. The method employs a form-free description of the cross-section structure of the bilayer and the fit is performed directly to the scattering data, introducing also a structure factor when required. The cross-section structure (electron density profile in the case of X-ray scattering) is described by a set of Gaussian functions and the technique is termed Gaussian deconvolution. The coefficients of the Gaussians are optimized using a constrained least-squares routine that induces smoothness of the electron density profile. The optimization is coupled with the point-of-inflection method for determining the optimal weight of the smoothness. With the new approach, it is possible to optimize simultaneously the form factor, structure factor and several other parameters in the model. The applicability of this method is demonstrated by using it in a study of a multilamellar system composed of lecithin bilayers, where the form factor and structure factor are obtained simultaneously, and the obtained results provided new insight into this very well known system.
Resumo:
Background The use of the knowledge produced by sciences to promote human health is the main goal of translational medicine. To make it feasible we need computational methods to handle the large amount of information that arises from bench to bedside and to deal with its heterogeneity. A computational challenge that must be faced is to promote the integration of clinical, socio-demographic and biological data. In this effort, ontologies play an essential role as a powerful artifact for knowledge representation. Chado is a modular ontology-oriented database model that gained popularity due to its robustness and flexibility as a generic platform to store biological data; however it lacks supporting representation of clinical and socio-demographic information. Results We have implemented an extension of Chado – the Clinical Module - to allow the representation of this kind of information. Our approach consists of a framework for data integration through the use of a common reference ontology. The design of this framework has four levels: data level, to store the data; semantic level, to integrate and standardize the data by the use of ontologies; application level, to manage clinical databases, ontologies and data integration process; and web interface level, to allow interaction between the user and the system. The clinical module was built based on the Entity-Attribute-Value (EAV) model. We also proposed a methodology to migrate data from legacy clinical databases to the integrative framework. A Chado instance was initialized using a relational database management system. The Clinical Module was implemented and the framework was loaded using data from a factual clinical research database. Clinical and demographic data as well as biomaterial data were obtained from patients with tumors of head and neck. We implemented the IPTrans tool that is a complete environment for data migration, which comprises: the construction of a model to describe the legacy clinical data, based on an ontology; the Extraction, Transformation and Load (ETL) process to extract the data from the source clinical database and load it in the Clinical Module of Chado; the development of a web tool and a Bridge Layer to adapt the web tool to Chado, as well as other applications. Conclusions Open-source computational solutions currently available for translational science does not have a model to represent biomolecular information and also are not integrated with the existing bioinformatics tools. On the other hand, existing genomic data models do not represent clinical patient data. A framework was developed to support translational research by integrating biomolecular information coming from different “omics” technologies with patient’s clinical and socio-demographic data. This framework should present some features: flexibility, compression and robustness. The experiments accomplished from a use case demonstrated that the proposed system meets requirements of flexibility and robustness, leading to the desired integration. The Clinical Module can be accessed in http://dcm.ffclrp.usp.br/caib/pg=iptrans webcite.
Resumo:
Abstract Background The study and analysis of gene expression measurements is the primary focus of functional genomics. Once expression data is available, biologists are faced with the task of extracting (new) knowledge associated to the underlying biological phenomenon. Most often, in order to perform this task, biologists execute a number of analysis activities on the available gene expression dataset rather than a single analysis activity. The integration of heteregeneous tools and data sources to create an integrated analysis environment represents a challenging and error-prone task. Semantic integration enables the assignment of unambiguous meanings to data shared among different applications in an integrated environment, allowing the exchange of data in a semantically consistent and meaningful way. This work aims at developing an ontology-based methodology for the semantic integration of gene expression analysis tools and data sources. The proposed methodology relies on software connectors to support not only the access to heterogeneous data sources but also the definition of transformation rules on exchanged data. Results We have studied the different challenges involved in the integration of computer systems and the role software connectors play in this task. We have also studied a number of gene expression technologies, analysis tools and related ontologies in order to devise basic integration scenarios and propose a reference ontology for the gene expression domain. Then, we have defined a number of activities and associated guidelines to prescribe how the development of connectors should be carried out. Finally, we have applied the proposed methodology in the construction of three different integration scenarios involving the use of different tools for the analysis of different types of gene expression data. Conclusions The proposed methodology facilitates the development of connectors capable of semantically integrating different gene expression analysis tools and data sources. The methodology can be used in the development of connectors supporting both simple and nontrivial processing requirements, thus assuring accurate data exchange and information interpretation from exchanged data.
Resumo:
Wasserlösliche organische Verbindungen (WSOCs) sind Hauptbestandteile atmosphärischer Aerosole, die bis zu ~ 50% und mehr der organischen Aerosolfraktion ausmachen. Sie können die optischen Eigenschaften sowie die Hygroskopizität von Aerosolpartikeln und damit deren Auswirkungen auf das Klima beeinflussen. Darüber hinaus können sie zur Toxizität und Allergenität atmosphärischer Aerosole beitragen.In dieser Studie wurde Hochleistungsflüssigchromatographie gekoppelt mit optischen Diodenarraydetektion und Massenspektrometrie (HPLC-DAD-MS und HPLC-MS/MS) angewandt, um WSOCs zu analysieren, die für verschiedene Aerosolquellen und -prozesse charakteristisch sind. Niedermolekulare Carbonsäuren und Nitrophenole wurden als Indikatoren für die Verbrennung fossiler Brennstoffe und die Entstehung sowie Alterung sekundärer organischer Aerosole (SOA) aus biogenen Vorläufern untersucht. Protein-Makromoleküle wurden mit Blick auf den Einfluss von Luftverschmutzung und Nitrierungsreaktionen auf die Allergenität primärer biologischer Aerosolpartikel – wie Pollen und Pilzsporen – untersucht.rnFilterproben von Grob- und Feinstaubwurden über ein Jahr hinweg gesammelt und auf folgende WSOCs untersucht: die Pinen-Oxidationsprodukte Pinsäure, Pinonsäure und 3-Methyl-1,2,3-Butantricarbonsäure (3-MBTCA) sowie eine Vielzahl anderer Dicarbonsäuren und Nitrophenole. Saisonale Schwankungen und andere charakteristische Merkmale werden mit Blick auf Aerosolquellen und -senken im Vergleich zu Daten anderen Studien und Regionen diskutiert. Die Verhätlnisse von Adipinsäure und Phthalsäure zu Azelainsäure deuten darauf hin, dass die untersuchten Aerosolproben hauptsächlich durch biogene Quellen beeinflusst werden. Eine ausgeprägte Arrhenius-artige Korrelation wurde zwischen der 3-MBTCA-¬Konzentration und der inversen Temperatur beobachtet (R2 = 0.79, Ea = 126±10 kJ mol-1, Temperaturbereich 275–300 K). Modellrechnungen zeigen, dass die Temperaturabhängigkeit auf eine Steigerung der photochemischen Produktionsraten von 3-MBTCA durch erhöhte OH-Radikal-Konzentrationen bei erhöhten Temperaturen zurückgeführt werden kann. Im Vergleich zur chemischen Reaktionskinetik scheint der Einfluss von Gas-Partikel-Partitionierungseffekten nur eine untergeordnete Rolle zu spielen. Die Ergebnisse zeigen, dass die OH-initiierte Oxidation von Pinosäure der geschwindigkeitsbestimmende Schritt der Bildung von 3-MBTCA ist. 3-MBTCA erscheint somit als Indikator für die chemische Alterung von biogener sekundärer organischer Aerosole (SOA) durch OH-Radikale geeignet. Eine Arrhenius-artige Temperaturabhängigkeit wurde auch für Pinäure beobachtet und kann durch die Temperaturabhängigkeit der biogenen Pinen-Emissionen als geschwindigkeitsbestimmender Schritt der Pinsäure-Bildung erklärt werden (R2 = 0.60, Ea = 84±9 kJ mol-1).rn rnFür die Untersuchung von Proteinnitrierungreaktionen wurde nitrierte Protein¬standards durch Flüssigphasenreaktion von Rinderserumalbumin (BSA) und Ovalbumin (OVA) mit Tetranitromethan (TNM) synthetisiert.Proteinnitrierung erfolgt vorrangig an den Resten der aromatischen Aminosäure Tyrosin auf, und mittels UV-Vis-Photometrie wurde der Proteinnnitrierungsgrad (ND) bestimmt. Dieser ist definiert als Verhältnis der mittleren Anzahl von Nitrotyrosinresten zur Tyrosinrest-Gesamtzahl in den Proteinmolekülen. BSA und OVA zeigten verschiedene Relationen zwischen ND und TNM/Tyrosin-Verhältnis im Reaktionsgemisch, was vermutlich auf Unterschiede in den Löslichkeiten und den molekularen Strukturen der beiden Proteine zurück zu führen ist.rnDie Nitrierung von BSA und OVA durch Exposition mit einem Gasgemisch aus Stickstoffdioxid (NO2) und Ozon (O3) wurde mit einer neu entwickelten HPLC-DAD-¬Analysemethode untersucht. Diese einfache und robuste Methode erlaubt die Bestimmung des ND ohne Hydrolyse oder Verdau der untersuchten Proteine und ernöglicht somit eine effiziente Untersuchung der Kinetik von Protein¬nitrierungs-Reaktionen. Für eine detaillierte Produktstudien wurden die nitrierten Proteine enzymatisch verdaut, und die erhaltenen Oligopeptide wurden mittels HPLC-MS/MS und Datenbankabgleich mit hoher Sequenzübereinstimmung analysiert. Die Nitrierungsgrade individueller Nitrotyrosin-Reste (NDY) korrelierten gut mit dem Gesamt-Proteinnitrierungsgrad (ND), und unterschiedliche Verhältnisse von NDY zu ND geben Aufschluss über die Regioselektivität der Reaktion. Die Nitrierungmuster von BSA und OVA nach Beahndlung mit TNM deuten darauf hin, dass die Nachbarschaft eines negativ geladenen Aminosäurerestes die Tyrosinnitrierung fördert. Die Behandlung von BSA durch NO2 und O3 führte zu anderend Nitrierungemustern als die Behandlung mit TNM, was darauf hindeutet, dass die Regioselektivität der Nitrierung vom Nitrierungsmittel abhängt. Es zeigt sich jedoch, dass Tyrosinreste in Loop-Strukturen bevorzugt und unabhängig vom Reagens nitriert werden.Die Methoden und Ergebnisse dieser Studie bilden eine Grundlage für weitere, detaillierte Untersuchungen der Reaktionskinetik sowie der Produkte und Mechanismen von Proteinnitrierungreaktionen. Sie sollen helfen, die Zusammenhänge zwischen verkehrsbedingten Luftschadstoffen wie Stickoxiden und Ozon und der Allergenität von Luftstaub aufzuklären.rn
Resumo:
Aerosolpartikel beeinflussen das Klima durch Streuung und Absorption von Strahlung sowie als Nukleations-Kerne für Wolkentröpfchen und Eiskristalle. Darüber hinaus haben Aerosole einen starken Einfluss auf die Luftverschmutzung und die öffentliche Gesundheit. Gas-Partikel-Wechselwirkunge sind wichtige Prozesse, weil sie die physikalischen und chemischen Eigenschaften von Aerosolen wie Toxizität, Reaktivität, Hygroskopizität und optische Eigenschaften beeinflussen. Durch einen Mangel an experimentellen Daten und universellen Modellformalismen sind jedoch die Mechanismen und die Kinetik der Gasaufnahme und der chemischen Transformation organischer Aerosolpartikel unzureichend erfasst. Sowohl die chemische Transformation als auch die negativen gesundheitlichen Auswirkungen von toxischen und allergenen Aerosolpartikeln, wie Ruß, polyzyklische aromatische Kohlenwasserstoffe (PAK) und Proteine, sind bislang nicht gut verstanden.rn Kinetische Fluss-Modelle für Aerosoloberflächen- und Partikelbulk-Chemie wurden auf Basis des Pöschl-Rudich-Ammann-Formalismus für Gas-Partikel-Wechselwirkungen entwickelt. Zunächst wurde das kinetische Doppelschicht-Oberflächenmodell K2-SURF entwickelt, welches den Abbau von PAK auf Aerosolpartikeln in Gegenwart von Ozon, Stickstoffdioxid, Wasserdampf, Hydroxyl- und Nitrat-Radikalen beschreibt. Kompetitive Adsorption und chemische Transformation der Oberfläche führen zu einer stark nicht-linearen Abhängigkeit der Ozon-Aufnahme bezüglich Gaszusammensetzung. Unter atmosphärischen Bedingungen reicht die chemische Lebensdauer von PAK von wenigen Minuten auf Ruß, über mehrere Stunden auf organischen und anorganischen Feststoffen bis hin zu Tagen auf flüssigen Partikeln. rn Anschließend wurde das kinetische Mehrschichtenmodell KM-SUB entwickelt um die chemische Transformation organischer Aerosolpartikel zu beschreiben. KM-SUB ist in der Lage, Transportprozesse und chemische Reaktionen an der Oberfläche und im Bulk von Aerosol-partikeln explizit aufzulösen. Es erforder im Gegensatz zu früheren Modellen keine vereinfachenden Annahmen über stationäre Zustände und radiale Durchmischung. In Kombination mit Literaturdaten und neuen experimentellen Ergebnissen wurde KM-SUB eingesetzt, um die Effekte von Grenzflächen- und Bulk-Transportprozessen auf die Ozonolyse und Nitrierung von Protein-Makromolekülen, Ölsäure, und verwandten organischen Ver¬bin-dungen aufzuklären. Die in dieser Studie entwickelten kinetischen Modelle sollen als Basis für die Entwicklung eines detaillierten Mechanismus für Aerosolchemie dienen sowie für das Herleiten von vereinfachten, jedoch realistischen Parametrisierungen für großskalige globale Atmosphären- und Klima-Modelle. rn Die in dieser Studie durchgeführten Experimente und Modellrechnungen liefern Beweise für die Bildung langlebiger reaktiver Sauerstoff-Intermediate (ROI) in der heterogenen Reaktion von Ozon mit Aerosolpartikeln. Die chemische Lebensdauer dieser Zwischenformen beträgt mehr als 100 s, deutlich länger als die Oberflächen-Verweilzeit von molekularem O3 (~10-9 s). Die ROIs erklären scheinbare Diskrepanzen zwischen früheren quantenmechanischen Berechnungen und kinetischen Experimenten. Sie spielen eine Schlüsselrolle in der chemischen Transformation sowie in den negativen Gesundheitseffekten von toxischen und allergenen Feinstaubkomponenten, wie Ruß, PAK und Proteine. ROIs sind vermutlich auch an der Zersetzung von Ozon auf mineralischem Staub und an der Bildung sowie am Wachstum von sekundären organischen Aerosolen beteiligt. Darüber hinaus bilden ROIs eine Verbindung zwischen atmosphärischen und biosphärischen Mehrphasenprozessen (chemische und biologische Alterung).rn Organische Verbindungen können als amorpher Feststoff oder in einem halbfesten Zustand vorliegen, der die Geschwindigkeit von heterogenen Reaktionenen und Mehrphasenprozessen in Aerosolen beeinflusst. Strömungsrohr-Experimente zeigen, dass die Ozonaufnahme und die oxidative Alterung von amorphen Proteinen durch Bulk-Diffusion kinetisch limitiert sind. Die reaktive Gasaufnahme zeigt eine deutliche Zunahme mit zunehmender Luftfeuchte, was durch eine Verringerung der Viskosität zu erklären ist, bedingt durch einen Phasenübergang der amorphen organischen Matrix von einem glasartigen zu einem halbfesten Zustand (feuchtigkeitsinduzierter Phasenübergang). Die chemische Lebensdauer reaktiver Verbindungen in organischen Partikeln kann von Sekunden bis zu Tagen ansteigen, da die Diffusionsrate in der halbfesten Phase bei niedriger Temperatur oder geringer Luftfeuchte um Größenordnungen absinken kann. Die Ergebnisse dieser Studie zeigen wie halbfeste Phasen die Auswirkung organischeer Aerosole auf Luftqualität, Gesundheit und Klima beeinflussen können. rn
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.