892 resultados para Hand aperture component
A farm-level programming model to compare the atmospheric impact of conventional and organic farming
Resumo:
A model is developed to represent the activity of a farm using the method of linear programming. Two are the main components of the model, the balance of soil fertility and the livestock nutrition. According to the first, the farm is supposed to have a total requirement of nitrogen, which is to be accomplished either through internal sources (manure) or through external sources (fertilisers). The second component describes the animal husbandry as having a nutritional requirement which must be satisfied through the internal production of arable crops or the acquisition of feed from the market. The farmer is supposed to maximise total net income from the agricultural and the zoo-technical activities by choosing one rotation among those available for climate and acclivity. The perspective of the analysis is one of a short period: the structure of the farm is supposed to be fixed without possibility to change the allocation of permanent crops and the amount of animal husbandry. The model is integrated with an environmental module that describes the role of the farm within the carbon-nitrogen cycle. On the one hand the farm allows storing carbon through the photosynthesis of the plants and the accumulation of carbon in the soil; on the other some activities of the farm emit greenhouse gases into the atmosphere. The model is tested for some representative farms of the Emilia-Romagna region, showing to be capable to give different results for conventional and organic farming and providing first results concerning the different atmospheric impact. Relevant data about the representative farms and the feasible rotations are extracted from the FADN database, with an integration of the coefficients from the literature.
Resumo:
Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.
Resumo:
Group B Streptococcus (GBS), in its transition from commensal to pathogen, will encounter diverse host environments and thus require coordinately controlling its transcriptional responses to these changes. This work was aimed at better understanding the role of two component signal transduction systems (TCS) in GBS pathophysiology through a systematic screening procedure. We first performed a complete inventory and sensory mechanism classification of all putative GBS TCS by genomic analysis. Five TCS were further investigated by the generation of knock-out strains, and in vitro transcriptome analysis identified genes regulated by these systems, ranging from 0.1-3% of the genome. Interestingly, two sugar phosphotransferase systems appeared differently regulated in the knock-out mutant of TCS-16, suggesting an involvement in monitoring carbon source availability. High throughput analysis of bacterial growth on different carbon sources showed that TCS-16 was necessary for growth of GBS on fructose-6-phosphate. Additional transcriptional analysis provided further evidence for a stimulus-response circuit where extracellular fructose-6-phosphate leads to autoinduction of TCS-16 with concomitant dramatic up-regulation of the adjacent operon encoding a phosphotransferase system. The TCS-16-deficient strain exhibited decreased persistence in a model of vaginal colonization and impaired growth/survival in the presence of vaginal mucoid components. All mutant strains were also characterized in a murine model of systemic infection, and inactivation of TCS-17 (also known as RgfAC) resulted in hypervirulence. Our data suggest a role for the previously unknown TCS-16, here named FspSR, in bacterial fitness and carbon metabolism during host colonization, and also provide experimental evidence for TCS-17/RgfAC involvement in virulence.
Resumo:
In der vorliegenden Arbeit mit dem Titel „Enantioselektive Organokatalyse in Epoxidierungen und Cyanhydrinbildungen“ wurde die Synthese zweier Cyclophan-carbaldimine durchgeführt. Beide Verbindungen bestehen aus einem Glykosyl-Baustein und einem Paracyclophan-Baustein, die über eine Imin-Bindung verbrückt sind. Die Cyclophan-carbaldimine wurden dann als Katalysatoren in einer Reihe von enantioselektiven Reaktionen verwendet. Enantioselektive Reaktionen bilden von zwei spiegelbildlichen Produkten stets eines im Überschuss. Zu diesen Reaktionen zählen die in dieser Arbeit durchgeführten enantioselektiven Epoxidierungen und enantioselektiven Cyanhydrinsynthesen. Die enantioselektiven Epoxidierungen waren dabei als Teil der Totalsynthesen der Naturstoffe Dasyscyphin D und Caripyrin geplant. Diese beiden Naturstoffe zeigten in biologischen Tests am Institut für Biotechnologie und Wirkstoffforschung (IBWF) in Kaiserslautern Aktivität gegen den Reisbrand-Pilz Magnaporthe grisea, der für Ernteverluste in beträchtlichem Ausmaß verantwortlich ist. Das Caripyrin selbst beinhaltet eine Epoxidstruktur. Mittels der oben angeführten Katalysatoren wurde versucht, diese Epoxidstruktur selektiv einzuführen. Dies gelang nicht, aber der Naturstoff konnte mittels Epoxidierung durch m-Chlorperbenzoesäure erstmals dargestellt werden. In mehreren biologischen Vergleichstests am IBWF Kaiserslautern zeigte auch das synthetische Caripyrin mit dem natürlichen Caripyrin vergleichbare biologische Aktivität.rnDas Dasyscyphin D an sich trägt keine Epoxidfunktion. Dennoch spielt sie auch hier eine wichtige Rolle. Innerhalb der geplanten Totalsynthese von Dasyscyphin D sollte die Farnesylseitenkette eines aromatischen Ringes selektiv epoxidiert werden. Durch einen elektrophilen Angriff an dieses Epoxid sollte im Anschluss eine Cyclisierung zum Dasyscyphin-Grundgerüst eingeleitet werden, aus dem dann Dasyscyphin D dargestellt werden sollte. Im Gegensatz zur Caripyrin-Synthese, bei der die selektive Epoxidierung nicht gelang, scheint sie in der Synthese von Dasyscyphin D sattgefunden zu haben, allerdings ist eine Isolierung des Reaktionsproduktes noch nicht gelungen. Folglich konnte das Dasyscyphin D noch nicht erfolgreich synthetisiert werden.rnDie Versuche zur enantioselektiven Cyanhydrin-Synthese waren nicht Bestandteil einer Totalsynthese. Die Cyanhydrine wurden zuerst als Racemate synthetisiert und gaschromatographisch vermessen, um auf diese Weise die exakten Retentionszeiten der einzelnen Enantiomere zu ermitteln. Anschließend wurden die Cyanhydrine dann enantioselektiv dargestellt und ebenfalls gaschromatographisch vermessen. Durch den Vergleich mit den racemischen Cyanhydrinen konnte dabei direkt aus der Reaktionslösung gemessen werden, was erforderlich war, da eine Isolierung der Cyanhydrine unter den gewählten Reaktionsbedingen nicht gelang. Aus den gaschromatographischen Messungen konnten Enantiomerenüberschüsse von bis zu 95 % ermittelt werden. Weiterhin ergaben die Messungen, dass der Arabinosyl-Katalysator im Vergleich mit dem Galactosyl-Katalysator eine geringere Enantioselektivität induziert, was vermutlich auf leichte räumliche Differenzen der beiden Katalysatoren zurückzuführen ist. Ein weiteres wichtiges Ergebnis war, dass beide Katalysatoren, wie geplant, unterschiedliche Enantiomere im Überschuss bilden. Die Glykosyl- und Paracyclophan-Bausteine der beiden Katalysatoren waren so gewählt worden, dass beide Katalysatoren pseudo-Enantiomere bilden. Auf diese Weise sollte eine Einflussnahme auf das gebildete Enantiomer durch die Wahl des entsprechenden Cyclophan-carbaldimin-Katalysators möglich gemacht werden, was, wie bereits erwähnt, gelang.rn
Resumo:
Food Security has become an important issue in the international debate, particularly during the latest economic crisis. It relevant issue also for the Mediterranean Countries (MCs), particularly those of the southern shore, as they are is facing complex economic and social changes. On the one hand there is the necessity to satisfy the increasing and changing food demand of the growing population; on the other hand it is important to promote economic growth and adjust the agricultural production to food demand in a sustainable perspective. The assessment of food security conditions is a challenging task due to the multi-dimensional nature and complexity of the matter. Many papers in the scientific literature focus on the nutritional aspects of food security, while its economic issues have been addressed less frequently and only in recent times. Thus, the main objective of the research is to assess food (in)security conditions in the MCs. The study intends to identify and implement appropriate theoretical concepts and methodological tools to be used in the assessment of food security, with a particular emphasis on its economic dimension within MCs. The study follows a composite methodological approach, based on the identification and selection of a number of relevant variables, a refined set of indicators is identified by means of a two-step Principal Component Analysis applied to 90 countries and the PCA findings have been studied with particular attention to the MCs food security situation. The results of the study show that MCs have an higher economic development compared to low-income countries, however the economic and social disparities of this area show vulnerability to food (in)security, due to: dependency on food imports, lack of infrastructure and agriculture investment, climate condition and political stability and inefficiency. In conclusion, the main policy implications of food (in)security conditions in MCs are discussed.
Resumo:
This PhD thesis discusses the impact of Cloud Computing infrastructures on Digital Forensics in the twofold role of target of investigations and as a helping hand to investigators. The Cloud offers a cheap and almost limitless computing power and storage space for data which can be leveraged to commit either new or old crimes and host related traces. Conversely, the Cloud can help forensic examiners to find clues better and earlier than traditional analysis applications, thanks to its dramatically improved evidence processing capabilities. In both cases, a new arsenal of software tools needs to be made available. The development of this novel weaponry and its technical and legal implications from the point of view of repeatability of technical assessments is discussed throughout the following pages and constitutes the unprecedented contribution of this work
Resumo:
Coastal sand dunes represent a richness first of all in terms of defense from the sea storms waves and the saltwater ingression; moreover these morphological elements constitute an unique ecosystem of transition between the sea and the land environment. The research about dune system is a strong part of the coastal sciences, since the last century. Nowadays this branch have assumed even more importance for two reasons: on one side the born of brand new technologies, especially related to the Remote Sensing, have increased the researcher possibilities; on the other side the intense urbanization of these days have strongly limited the dune possibilities of development and fragmented what was remaining from the last century. This is particularly true in the Ravenna area, where the industrialization united to the touristic economy and an intense subsidence, have left only few dune ridges residual still active. In this work three different foredune ridges, along the Ravenna coast, have been studied with Laser Scanner technology. This research didn’t limit to analyze volume or spatial difference, but try also to find new ways and new features to monitor this environment. Moreover the author planned a series of test to validate data from Terrestrial Laser Scanner (TLS), with the additional aim of finalize a methodology to test 3D survey accuracy. Data acquired by TLS were then applied on one hand to test some brand new applications, such as Digital Shore Line Analysis System (DSAS) and Computational Fluid Dynamics (CFD), to prove their efficacy in this field; on the other hand the author used TLS data to find any correlation with meteorological indexes (Forcing Factors), linked to sea and wind (Fryberger's method) applying statistical tools, such as the Principal Component Analysis (PCA).