5 resultados para Brams, Steven J.: The win-win solution

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work focuses on the analysis of the influence of environment on the relative biological effectiveness (RBE) of carbon ions on molecular level. Due to the high relevance of RBE for medical applications, such as tumor therapy, and radiation protection in space, DNA damages have been investigated in order to understand the biological efficiency of heavy ion radiation. The contribution of this study to the radiobiology research consists in the analysis of plasmid DNA damages induced by carbon ion radiation in biochemical buffer environments, as well as in the calculation of the RBE of carbon ions on DNA level by mean of scanning force microscopy (SFM). In order to study the DNA damages, besides the common electrophoresis method, a new approach has been developed by using SFM. The latter method allows direct visualisation and measurement of individual DNA fragments with an accuracy of several nanometres. In addition, comparison of the results obtained by SFM and agarose gel electrophoresis methods has been performed in the present study. Sparsely ionising radiation, such as X-rays, and densely ionising radiation, such as carbon ions, have been used to irradiate plasmid DNA in trishydroxymethylaminomethane (Tris buffer) and 4-(2-hydroxyethyl)-1-piperazineethanesulfonic acid (HEPES buffer) environments. These buffer environments exhibit different scavenging capacities for hydroxyl radical (HO0), which is produced by ionisation of water and plays the major role in the indirect DNA damage processes. Fragment distributions have been measured by SFM over a large length range, and as expected, a significantly higher degree of DNA damages was observed for increasing dose. Also a higher amount of double-strand breaks (DSBs) was observed after irradiation with carbon ions compared to X-ray irradiation. The results obtained from SFM measurements show that both types of radiation induce multiple fragmentation of the plasmid DNA in the dose range from D = 250 Gy to D = 1500 Gy. Using Tris environments at two different concentrations, a decrease of the relative biological effectiveness with the rise of Tris concentration was observed. This demonstrates the radioprotective behavior of the Tris buffer solution. In contrast, a lower scavenging capacity for all other free radicals and ions, produced by the ionisation of water, was registered in the case of HEPES buffer compared to Tris solution. This is reflected in the higher RBE values deduced from SFM and gel electrophoresis measurements after irradiation of the plasmid DNA in 20 mM HEPES environment compared to 92 mM Tris solution. These results show that HEPES and Tris environments play a major role on preventing the indirect DNA damages induced by ionising radiation and on the relative biological effectiveness of heavy ion radiation. In general, the RBE calculated from the SFM measurements presents higher values compared to gel electrophoresis data, for plasmids irradiated in all environments. Using a large set of data, obtained from the SFM measurements, it was possible to calculate the survive rate over a larger range, from 88% to 98%, while for gel electrophoresis measurements the survive rates have been calculated only for values between 96% and 99%. While the gel electrophoresis measurements provide information only about the percentage of plasmids DNA that suffered a single DSB, SFM can count the small plasmid fragments produced by multiple DSBs induced in a single plasmid. Consequently, SFM generates more detailed information regarding the amount of the induced DSBs compared to gel electrophoresis, and therefore, RBE can be calculated with more accuracy. Thus, SFM has been proven to be a more precise method to characterize on molecular level the DNA damage induced by ionizing radiations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Self-assembled monolayers (SAMs) on solid surfaces are of great current interest in science and nanotechnology. This thesis describes the preparation of several symmetrically 1,1’-substituted ferrocene derivatives that contain anchoring groups suitable for chemisorption on gold and may give rise to SAMs with electrochemically switchable properties. The binding groups are isocyano (-NC), isothiocyanato (-NCS), phosphanyl (-PPh2), thioether (-SR) and thienyl. In the context of SAM fabrication, isothiocyanates and phosphanes are adsorbate systems which, surprisingly, have remained essentially unexplored. SAMs on gold have been fabricated with the adsorbates from solution and investigated primarily by X-ray photoelectron spectroscopy and near-edge X-ray absorption fine structure spectroscopy. The results of these analytical investigations are presented and discussed in matters of the film quality and possible binding modes. The quality of self-assembled monolayers fabricated from 1,1’-diisocyanoferrocene and 1,1’-diisothiocyanatoferrocene turned out to be superior to that of films based on the other adsorbate species investigated. Films of those absorbates as well as of dppf afforded well-defined SAMs of good quality. All other films of this study based on sulfur containing anchoring groups exhibit chemical inhomogeneity and low orientational order of the film constituents and therefore failed to give rise to well-defined SAMs. Surface coordination chemistry is naturally related to molecular coordination chemistry. Since all SAMs described in this thesis were prepared on gold (111) surfaces, the ferrocene-based ligands of this study have been investigated in their ability for complexation towards gold(I). The sulfur-based ferrocene ligands [fc(SR)2] failed to give stable gold(I) complexes. In contrast, 1,1’-diisocyanoferrocene (1) proved to be an excellent ligand for the complexation of gold(I). Several complexes were prepared and characterised utilising a series of gold(I) acetylides. These complexes show interesting structural motifs in the solid state, since intramolecular aurophilic interactions lead to a parallel orientation of the isocyano moieties, combined with an antiparallel alignment of neighbouring units. The reaction of 1 with the gold(I) acetylide [Au(C≡C–Fc)]n turned out to be very unusual, since the two chemically equivalent isocyano groups undergo a different reaction. One group shows an ordinary coordination and the other one undergoes an extraordinary 1,1-insertion into the Au-C bond. As a sideline of the research of this thesis several ferrocene derivatives have been tested for their suitability for potential surface reactions. Copper(I) mediated 1,3-dipolar cycloadditions of azidoferrocene derivatives with terminal alkynes appeared very promising in this context, but failed to a certain extent in terms of ‘click’ chemistry, since the formation of the triazoles depended on the strict exclusion of oxygen and moisture and yields were only moderate. Staudinger reactions between dppf and azidoferrocene derivatives were also tested. The nucleophilic additions of secondary amines to 1,1’-diisothiocyanatoferrocene led to the respective thiourea derivatives in quantitative yields.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Untersuchung des dynamischen aeroelastischen Stabilitätsverhaltens von Flugzeugen erfordert sehr komplexe Rechenmodelle, welche die wesentlichen elastomechanischen und instationären aerodynamischen Eigenschaften der Konstruktion wiedergeben sollen. Bei der Modellbildung müssen einerseits Vereinfachungen und Idealisierungen im Rahmen der Anwendung der Finite Elemente Methode und der aerodynamischen Theorie vorgenommen werden, deren Auswirkungen auf das Simulationsergebnis zu bewerten sind. Andererseits können die strukturdynamischen Kenngrößen durch den Standschwingungsversuch identifiziert werden, wobei die Ergebnisse Messungenauigkeiten enthalten. Für eine robuste Flatteruntersuchung müssen die identifizierten Unwägbarkeiten in allen Prozessschritten über die Festlegung von unteren und oberen Schranken konservativ ermittelt werden, um für alle Flugzustände eine ausreichende Flatterstabilität sicherzustellen. Zu diesem Zweck wird in der vorliegenden Arbeit ein Rechenverfahren entwickelt, welches die klassische Flatteranalyse mit den Methoden der Fuzzy- und Intervallarithmetik verbindet. Dabei werden die Flatterbewegungsgleichungen als parameterabhängiges nichtlineares Eigenwertproblem formuliert. Die Änderung der komplexen Eigenlösung infolge eines veränderlichen Einflussparameters wird mit der Methode der numerischen Fortsetzung ausgehend von der nominalen Startlösung verfolgt. Ein modifizierter Newton-Iterations-Algorithmus kommt zur Anwendung. Als Ergebnis liegen die berechneten aeroelastischen Dämpfungs- und Frequenzverläufe in Abhängigkeit von der Fluggeschwindigkeit mit Unschärfebändern vor.