48 resultados para Virtueller Speicher
Resumo:
The global power supply stability is faced to several severe and fundamental threats, in particular steadily increasing power demand, diminishing and degrading fossil and nuclear energy resources, very harmful greenhouse gas emissions, significant energy injustice and a structurally misbalanced ecological footprint. Photovoltaic (PV) power systems are analysed in various aspects focusing on economic and technical considerations of supplemental and substitutional power supply to the constraint conventional power system. To infer the most relevant system approach for PV power plants several solar resources available for PV systems are compared. By combining the different solar resources and respective economics, two major PV systems are identified to be very competitive in almost all regions in the world. The experience curve concept is used as a key technique for the development of scenario assumptions on economic projections for the decade of the 2010s. Main drivers for cost reductions in PV systems are learning and production growth rate, thus several relevant aspects are discussed such as research and development investments, technical PV market potential, different PV technologies and the energetic sustainability of PV. Three major market segments for PV systems are identified: off-grid PV solutions, decentralised small scale on-grid PV systems (several kWp) and large scale PV power plants (tens of MWp). Mainly by application of ‘grid-parity’ and ‘fuel-parity’ concepts per country, local market and conventional power plant basis, the global economic market potential for all major PV system segments is derived. PV power plant hybridization potential of all relevant power technologies and the global power plant structure are analyzed regarding technical, economical and geographical feasibility. Key success criteria for hybrid PV power plants are discussed and comprehensively analysed for all adequate power plant technologies, i.e. oil, gas and coal fired power plants, wind power, solar thermal power (STEG) and hydro power plants. For the 2010s, detailed global demand curves are derived for hybrid PV-Fossil power plants on a per power plant, per country and per fuel type basis. The fundamental technical and economic potentials for hybrid PV-STEG, hybrid PV-Wind and hybrid PV-Hydro power plants are considered. The global resource availability for PV and wind power plants is excellent, thus knowing the competitive or complementary characteristic of hybrid PV-Wind power plants on a local basis is identified as being of utmost relevance. The complementarity of hybrid PV-Wind power plants is confirmed. As a result of that almost no reduction of the global economic PV market potential need to be expected and more complex power system designs on basis of hybrid PV-Wind power plants are feasible. The final target of implementing renewable power technologies into the global power system is a nearly 100% renewable power supply. Besides balancing facilities, storage options are needed, in particular for seasonal power storage. Renewable power methane (RPM) offers respective options. A comprehensive global and local analysis is performed for analysing a hybrid PV-Wind-RPM combined cycle gas turbine power system. Such a power system design might be competitive and could offer solutions for nearly all current energy system constraints including the heating and transportation sector and even the chemical industry. Summing up, hybrid PV power plants become very attractive and PV power systems will very likely evolve together with wind power to the major and final source of energy for mankind.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Die Gabe von organischem Dünger beeinflusst die Menge und die Zusammensetzung der organischen Substanz im landwirtschaftlich genutzten Boden. Dies wirkt sich auch auf den Umfang der mikrobiellen Biomasse im Boden und ihrer Gemeinschaftsstruktur aus. Diese Arbeit beschäftigte sich mit der Untersuchung von mineralischer und organischer Düngung auf die der mikrobiellen Gemeinschaft im Oberboden, Unterboden und unter subtropischen Bedingungen. Der Fokus der Arbeit lag zum einen in der Bestimmung der physiologischen Substratnutzungsdiversität der mikrobiellen Gemeinschaft, zum anderen in der Untersuchung der mikrobiellen Biomasse und deren Residuen nach organischer Düngung. Es konnte in der vorliegenden Arbeit gezeigt werden, dass das Substratnutzungsmuster der mikrobiellen Gemeinschaft sich signifikant zwischen langfristiger Rottemistdüngung und mineralischer Düngung unterscheidet. Diese Trennung wurde hauptsächlich durch die erhöhte Mineralisation von Kohlenhydraten und Aminosäuren gesteuert. Auch wurden der Boden pH-Wert und der Gehalt an organischer Substanz im Boden als Hauptmechanismen für die Unterscheidung der Düngevarianten identifiziert. Wenn auch die multi-SIR Methode keine Effekte von biodynamischen Präparaten auf die Funktion der mikrobiellen Gemeinschaft zeigen konnte, so war eine Trennung zwischen den Düngeintensitäten bei Rottemistdüngung mit biodynamischen Präparaten und mineralischer Düngung möglich. In Bezug dazu war die multi-SIR Methode empfindlicher, als die Bestimmung der mikrobiellen Biomasse oder des organischen Kohlenstoffs im Boden. Ergänzend dazu wurde der Substratnutzungsdiversitätsindex nach langjähriger mineralischer Düngung gegenüber der Rottemistdüngung verringert. Dies könnte auf eine Verminderung der Bodenfruchtbarkeit hindeuten. Auch wurde untersucht, inwieweit die Düngung mit Rottemist die Speicherung des organischen Materials (SOC und N) im Unterboden, einem weltweit bedeutenden C-Speicher, beeinflusst. Ein steigendes C/N-Verhältnis ging einher mit einer Verringerung der mikrobiellen Residualmasse am gesamten organischen Kohlenstoff mit der Tiefe. Langfristige organische Düngung führte zu einer Erhöhung des Verhältnisses pilzlicher zu bakterieller Residuen im Oberboden und steigerte den Gehalt an bakteriellen Residuen im Unterboden gegenüber mineralischer Düngung. Da keine Steigerung des gesamten organischen Kohlenstoffs im Unterboden vorliegt, kann eine Erhöhung des mikrobiellen Umsatzes im Unterboden bei organischer Düngung vermutet werden. Daneben sank das Verhältnis der pilzlichen zu bakteriellen Residuen von 2,6 im Oberboden auf 2,1 im Unterboden. Weitere Untersuchungen sind hier noch nötig, um die Rolle von mikrobiellen Residuen im Unterboden zu zeigen. Des Weiteren wurden die Auswirkungen von mit Aktivkohle und Tanninen angereichertem Ziegenkot auf die mikrobielle Biomasse, ihre Residuen und des organischem Kohlenstoff im Boden untersucht. Die Applikation der Aktivkohle sowie der Tannine erfolgte als Futterzusatz und direkt auf dem Feld. Nach zweijähriger Versuchsdauer unter subtropischen Bedingungen stieg die mikrobielle Biomasse im Boden nach organischer Düngung am stärksten an, gefolgt von den mikrobiellen Residuen und dem organischen Kohlenstoff. Der Anteil des Ergosterols an der gesamten mikrobiellen Biomasse deutete darauf hin, dass der Boden durch einen hohen Gehalt an saprotrophischen Pilzen gekennzeichnet war. Eine Dominanz der bakteriellen Residualmasse lässt einen schnellen Abbau der pilzlichen Residuen vermuten. Auch hatte die Aktivkohle einen positiven Einfluss auf die organische Bodensubstanz und die Zugabe von Tanninen erhöhte den extrahierbaren Stickstoff im Boden. Doch gab es keine Effekte durch die unterschiedlichen Applikationsmethoden auf dem Versuchsfeld. Es wurde gezeigt, dass die organische Düngung sich positiv auf die Bodenqualität auswirkt. Nicht nur das physiologische Profil der mikrobiellen Gemeinschaft wird verändert, sondern auch die mikrobiellen Residuen im gesamten Bodenprofil (0 – 100 cm) werden durch organische Düngung im Vergleich zur mineralischen Düngung erhöht. Die Rolle der mikrobiellen Biomasse und ihrer Residuen als Anzeiger für die Veränderungen in der mikrobiellen Gemeinschaftsstruktur wurde in der vorliegenden Arbeit dargestellt. Dies zeigt einmal mehr, dass diese als Indikator für Veränderungen in der mikrobiellen Gemeinschaftsstruktur herangezogen werden können. Speziell in Nutzungssystemen mit einem schnellen Umsatz der organischen Substanz, wie unter ariden subtropischen Bedingungen, bildet die Bestimmung der mikrobiellen Biomasse und ihrer Residuen eine Möglichkeit, die Dynamik der mikrobiellen Biomasse und der organischen Substanz durch Düngung zu dokumentieren.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Introducción: Varias características pueden afectar el pronóstico visual después de resolver quirúrgicamente el desprendimiento de retina. Existen características no observables por el ojo humano por si solo pero si por tomografía óptica coherente que se relacionan con la recuperación visual. Objetivo: Describir las características clínicas y topográfica en los periodos pre y postquirúrgico de ojos que ha sufrido DR regmatógeno con compromiso macular y su relación con la calidad de recuperación visual después de una cirugía considerada exitosa desde el punto de vista anatómico. Materiales y métodos: Estudio descriptivo en el que se comparan algunas características en tres periodos perioeperatorios, uno antes y dos después de cirugía (3 y 6 meses) de 24 ojos con DRregmatógeno y compromiso macular intervenidos mediante retinopexia combinada con vitrectomía pars plana. Resultados: La recuperación visual mejor o igual que logMAR 0,397 (20/50) se dió en 41,7% de ojos y 16,7%. alcanzaron agudeza visual logMAR 0,301 (20/40). Cinco ojos no alcanzaron una ganancia de líneas de visión mayor a cinco. El líquido submacular ausente se observó en la mayoría de ojos que recuperaron más de cinco líneas al igual que aquellos con elipsoide conservado. La regularidad del neuroepitelio y el edema en el periodo posquirúrgico no mostraron comportamientos claros respecto a recuperación visual al igual que la altura del desprendimiento y el número de cuadrantes afectados. Una mejor recuperación visual fue más frecuente en aquellos con menos de cinco semanas de desprendimiento de retina. Conclusiones: El retraso menor a cinco semanas en la resolución del desprendimiento de retina, la conservación del elipsoide y la ausencia de líquido submacular en el periodo postquirúrgico se observó más frecuentemente en ojos con mejor recuperación visual.
Resumo:
Gegenstand dieser Arbeit ist die Untersuchung der smektischen Phasen von Polysiloxanen mit flüssigkristallinen Seitengruppen (LC-Polysiloxane). Der erste Teil der vorliegenden Arbeit befasste sich mit der Herstellung verschiedener flüssigkristalliner ferroelektrischer Polysiloxane. Die Polymere wurden in Bezug auf das verwendete Polymerrückgrat (Homo- und Copolysiloxan) sowie durch den zusätzlichen Einbau von vernetzbaren Seitengruppen variiert. Im zweiten Teil der Arbeit wurden die Eigenschaften der smektischen Phasen der hergestellten Substanzen näher untersucht. Ein erster Untersuchungsgegenstand war das Dehnungsverhalten von freistehenden flüssigkristallinen Elastomerfilmen (LCE). Bei der Verwendung eines Polymers, in dem nur ein Teil des Polysiloxanrückgrats mit Seitengruppen substituiert ist, wird die uniaxiale Dehnung des Films parallel zu den smektischen Schichten durch eine gleichmäßige Kontraktion in der Filmebene und parallel zur Schichtnormalen ausgeglichen, was auf einen außergewöhnlich niedrigen smektischen Schichtkompressionsmodul zurückzuführen ist. Im Gegensatz dazu ist dieser Modul bei den Homopolymersystemen so groß, dass praktisch senkrecht zu den smektischen Schichten keine Kontraktion stattfindet. Ein zweiter Untersuchungsgegenstand der Netzwerkbildung bestand in der Bestimmung der dynamisch-mechanischen Eigenschaften der LC-Polysiloxane mittels eines Oszillationsrheometers. Hier erfolgten die Messungen von Speicher- und Verlustmodul in Abhängigkeit vom Polymerrückgrat und von der Vernetzung. Die unvernetzten Systeme zeigten in den smektischen Phasen (oberhalb Tg) noch – im wesentlichen – Festkörpereigenschaften (physikalische Vernetzung) mit einem dominierenden Speichermodul beim LC-Homopolysiloxan. Beim LC-Copolysiloxan haben beide Module eine gleiche Größenordnung. Am Phasenübergang in die isotrope Phase wurden beide Module absolut kleiner, der Verlustmodul aber relativ größer. In der isotropen Phase verhalten sich die LC-Polymere damit überwiegend wie viskose Schmelzen. Außerdem korrelierten die mittels DSC bestimmten Phasenübergangstemperaturen mit einer Änderung der dynamisch-mechanischen Eigenschaften. Nach der Vernetzung dominierte der Speichermodul sowohl beim LC-Homo- als auch beim LC-Copolysiloxan bis in die isotrope Phase, und es war aufgrund der Bildung einer festen Netzwerkstruktur keine Abhängigkeit der Module von Phasenübergängen mehr erkennbar. Als dritter Untersuchungsgegenstand wurde der Phasenübergang zwischen den beiden smektischen Phasen (SmC* nach SmA*) der flüssigkristallinen Polysiloxane näher behandelt. Als wichtigstes Ergebnis ist festzuhalten, dass die verdünnten LC-Polysiloxane an diesem Übergang fast keine Schichtdickenänderung aufweisen. Dazu wurde jeweils die röntgenographisch ermittelte Schichtdicke mit der aus den optischen Tiltwinkeln theoretisch berechneten Schichtdicke verglichen. Dadurch konnte gezeigt werden, dass sich die Phasenübergänge nach dem de Vries-Modell verhalten. Damit konnte zum ersten Mal an Polymersystemen ein de Vries-Verhalten nachgewiesen werden. Im Gegensatz dazu zeigte das Homopolysiloxan mit dem Dreiringmesogen beim Übergang von SmC* nach SmA* einen ausgeprägten Sprung in der Schichtdicke. Wie auch durch DSC-Messungen nachweisbar, lag ein Phasenübergang 1. Ordnung vor. Bei den LC-Copolysiloxanen liegt dagegen ein Phasenübergang 2. Ordnung vor. Schließlich wurde die Schichtdicke unter dem Einfluss der Vernetzung untersucht. Beim LC-Copolysiloxan mit dem Dreiringmesogen und einem Anteil an vernetzbaren Gruppen von 15 % wurde eine Stabilisierung der smektischen Phasen erreicht. Zum einen war die Änderung der Schichtdicke am SmC*-SmA*-Phasenübergang geringer im Vergleich zum unvernetzten System und zum anderen war noch 50 °C über der ursprünglichen Klärtemperatur eine smektische Schichtstruktur röntgenographisch nachzuweisen. Insgesamt ist es mit den verschiedenen Untersuchungsmethoden gelungen, einen systematischen Unterschied zwischen smektischen Homo- und Copolysiloxanen aufzuzeigen, der seinen Ursprung – aller Wahrscheinlichkeit nach – in der Mikrophasenseparation von Mesogenen und Polysiloxanketten findet.
Resumo:
In der Vergangenheit haben Untersuchung an biologischen und Modell-Systemen gezeigt, dass amorphes Calciumcarbonat als instabiles Zwischenprodukt bei der Bildung kristalliner Strukturen aus CaCO3 auftritt. Über dessen Rolle im Fällungsprozess von CaCO3 ist nicht viel bekannt und es wird davon ausgegangen, dass es als CaCO3-Speicher für die nachfolgenden kristallinen Produkte dient. Der genaue Reaktionsablauf, der zur Bildung von amorphem Calciumcarbonat (ACC) führt, ist nicht bekannt. Ziel dieser Arbeit war die Entwicklung einer Fällungstechnik, die die Beobachtung der Bildungskinetik von ACC durch Lichtstreuung ermöglicht. In Fällungsexperimenten wird gezeigt, dass die Fällung unter nicht-turbulenten Bedingungen zur Bildung von amorphem Calciumcarbonat führt. Hinsichtlich der Basen- und Alkylcarbonatmenge, die äquivalent oder im Überschuss zur Calciumionenkonzentration eingesetzt wird, entstehen zwei verschiedene Fällungsprodukte. In Bezug auf ihre chemische Zusammensetzung, thermische und mechanische Eigenschaften werden diese charakterisiert. In beiden Fällen wird ein amorphes CaCO3 mit einem Wassergehalt von 0,5 mol/L pro Mol CaCO3 erhalten. Die in situ Generierung von Carbonat führt zur Bildung von sphärischem amorphem Calciumcarbonat, das eine gewisse Tendenz zur Koazervation zeigt. Die bei gleichem Reaktionsumsatz beobachtete Temperaturabhängigkeit des Partikelradius konnten wir unter Annahme einer Mischungslücke mit unterer kritischer Mischungstemperatur interpretieren. Für die Bildung von amorphem Calciumcarbonat schlagen wir daher einen Mechanismus via binodaler flüssig-flüssig Entmischung vor. Nach einer kurzen Keimbildungsperiode können flüssige Tröpfchen aus wasserhaltigem CaCO3 wachsen und dann infolge von stetigem Wasserverlust glasartig erstarren und so amorphes Calciumcarbonat bilden. Bekräftigt wird dieses Modell durch die Wachstumskinetik, die mittels Lichtstreuung und SAXS verfolgt worden ist. In den Fällungsversuchen sind je nach Reaktionsbedingungen, zwei verschiedene Zeitgesetze des Teilchenwachstums erkennbar: Bei schneller Freisetzung von Carbonat liegt ein parabolischer Verlauf des Radienwachstums vor; hingegen führt eine langsame Freisetzung von Carbonat zu einem linearen Wachstum der Radien. Diese Abhängigkeiten lassen sich im Rahmen der bekannten Kinetik einer flüssig-flüssig Entmischung deuten. Ferner wird der Einfluss von doppelthydrophilen Blockcopolymeren (PEO-PMAA) auf die Teilchengröße und die Kinetik der Bildung von amorphem Calciumcarbonat untersucht. Zum Einsatz kommen zwei verschiedene Blockcopolymere, die sich in der Länge des PEO-Blocks unterscheiden. Im Fällungsexperiment führt das in sehr kleinen Konzentrationen vorliegende Blockcopolymere zur Stabilisierung von kleineren Partikeln. Das Blockcopolymer mit der längeren PEO-Einheit weist eine größere Effizienz auf. Die Ergebnisse lassen sich durch Annahme von Adsorption des Polymers an der Oberfläche interpretieren. Der Einfluss der doppelthydrophilen Blockcopolymere auf die Bildung von ACC deutet darauf, dass amorphes Calciumcarbonat eine komplexere Rolle als lediglich die eines Calciumcarbonatspeichers für das spätere Wachstum kristalliner Produkte einnimmt. Für die Wirkung von Polymerzusätzen muss somit nicht nur die Wechselwirkung mit den gegen Ende gebildeten Kristalle betrachtet werden, sondern auch der Einfluss, den das Polymer auf die Bildung des amorphen Calciumcarbonats hat. Die hier neu entwickelte Methode bietet die Möglichkeit, auch für komplexere Polymere, wie z.B. extrahierte Proteine, den Einfluss auf die Bildung der amorphen Vorstufe zu untersuchen.
Resumo:
Die Enzyme des Carotinoidstoffwechsels spalten Provitamin A-Carotinoide in wichtige Retinoide (z.B. Vitamin A, Retinsäure), die Organismen während der Entwicklung und in visuellen Systemen benötigen. Die vorliegende Arbeit präsentiert erstmalig eine Carotinoxygenase (BCO) aus Schwämmen (S. domuncula), die einzigartig im Tierreich ist und nur einen orthologen Vertreter in Pflanzen (Crocus sativus) wieder findet. Das Enzym ist eine 7,8(7’,8’)-Carotinoxygenase, die C40-Carotinoide zu einem C10-Apocarotinoid und 8’-Apocarotinal spaltet. Mittels HPLC wurden sowohl die Primärspaltprodukte von β-Carotin, Lykopin und Zeaxanthin als auch das für alle identische innere Kettenstück (Crocetin) bei Doppelspaltung nachgewiesen. Der Nachweis der BCO-Transkripte (unter anderem in-situ) belegt eine Beteiligung des Enzyms während Entwicklungsprozessen und offenbart sowohl eine streng räumlich-zeitliche als auch eine über Rückkopplungsprozesse gesteuerte Regulierung des Enzyms. Ein weiteres hier identifiziertes Gen ähnelt einer bakteriellen Apocarotinoidoxygenase (ACO), welche das 8’-Apocarotinal der BCO erneut spaltet und so Retinal generiert. Letzteres dient als Chromophor zahlreicher visueller Systeme und kann über Enzyme des Retinoidstoffwechsels entweder gespeichert, oder in das wichtige Morphogen Retinsäure umgesetzt werden. Hier werden zwei potentielle Enzyme vorgestellt, die an dieser Interkonversion Retinal/Retinol (Speicher) beteiligt sein könnten als auch eines, das evtl. Retinal zu Retinsäure umsetzt. Die hier vorgestellten Ergebnisse unterstützen die Hypothese, dass Retinsäure kein autapomorphes Morphogen der Chordaten darstellt.
Resumo:
Im Rahmen der vorliegenden Dissertation wurden Untersuchungen zur Expression und Funktion der respiratorischen Proteine Neuroglobin (Ngb) und Cytoglobin (Cygb) in Vertebraten durchgeführt. Beide Globine wurden erst kürzlich entdeckt, und ihre Funktionen konnten trotz vorliegender Daten zur Struktur und biochemischen Eigenschaften dieser Proteine bisher nicht eindeutig geklärt werden. Im ersten Abschnitt der vorliegenden Arbeit wurde die zelluläre und subzelluläre Lokalisation von Neuroglobin und Cytoglobin in murinen Gewebeschnitten untersucht. Die Expression von Ngb in neuronalen und endokrinen Geweben hängt offensichtlich mit den hohen metabolischen Aktivitäten dieser Organe zusammen. Insbesondere im Gehirn konnten regionale Unterschiede in der Ngb-Expression beobachtet werden. Dabei korrelierte eine besonders starke Neuroglobin-Expression mit Gehirnbereichen, die bekanntermaßen die höchsten Grundaktivitäten aufweisen. In Anbetracht dessen liegt die Funktion des Neuroglobins möglicherweise im basalen O2-Metabolismus dieser Gewebe, wobei Ngb als O2-Lieferant und kurzfristiger O2-Speicher den vergleichsweise hohen Sauerstoffbedarf vor Ort sicherstellen könnte. Weitere Funktionen in der Entgiftung von ROS bzw. RNS oder die kürzlich publizierte mögliche Rolle des Ngb bei der Verhinderung der Mitochondrien-vermittelten Apoptose durch eine Reduktion des freigesetzten Cytochrom c wären darüber hinaus denkbar. Die Cygb-Expression im Gehirn beschränkte sich auf relativ wenige Neurone in verschiedenen Gehirnbereichen und zeigte dort vorwiegend eine Co-Lokalisation mit der neuronalen NO-Synthase. Dieser Befund legt eine Funktion des Cytoglobins im NO-Metabolismus nahe. Quantitative RT-PCR-Experimente zur mRNA-Expression von Ngb und Cygb in alternden Säugern am Bsp. der Hamsterspezies Phodopus sungorus zeigten keine signifikanten Änderungen der mRNA-Mengen beider Globine in alten im Vergleich zu jungen Tieren. Dies widerspricht publizierten Daten, in denen bei der Maus anhand von Western Blot-Analysen eine Abnahme der Neuroglobin-Menge im Alter gezeigt wurde. Möglicherweise handelt es sich hierbei um speziesspezifische Differenzen. Die im Rahmen dieser Arbeit durchgeführte vergleichende Sequenzanalyse der humanen und murinen NGB/Ngb-Genregion liefert zum einen Hinweise auf die mögliche Regulation der Ngb-Expression und zum anderen eine wichtige Grundlage für die funktionellen Analysen dieses Gens. Es konnte ein minimaler Promotorbereich definiert werden, der zusammen mit einigen konservierten regulatorischen Elementen als Basis für experimentelle Untersuchungen der Promotoraktivität in Abhängigkeit von äußeren Einflüssen dienen wird. Bioinformatische Analysen führten zur Identifizierung des sog. „neuron restrictive silencer element“ (NRSE) im Ngb-Promotor, welches vermutlich für die vorwiegend neuronale Expression des Proteins verantwortlich ist. Die kontrovers diskutierte O2-abhängige Regulation der Ngb-Expression konnte hingegen anhand der durchgeführten komparativen Sequenzanalysen nicht bestätigt werden. Es wurden keine zwischen Mensch und Maus konservierten Bindestellen für den Transkriptionsfaktor HIF-1 identifiziert, der die Expression zahlreicher hypoxieregulierter Gene, z.B. Epo und VEGF, vermittelt. Zusammen mit den in vivo-Daten spricht dies eher gegen eine Regulation der Ngb-Expression bei verminderter Verfügbarkeit von Sauerstoff. Die Komplexität der Funktionen von Ngb und Cygb im O2-Stoffwechsel der Vertebraten macht den Einsatz muriner Modellsysteme unerlässlich, die eine sukzessive Aufklärung der Funktionen beider Proteine erlauben. Die vorliegende Arbeit liefert auch dazu einen wichtigen Beitrag. Die hergestellten „gene-targeting“-Vektorkonstrukte liefern in Verbindung mit den etablierten Nachweisverfahren zur Genotypisierung von embryonalen Stammzellen die Grundlage zur erfolgreichen Generierung von Ngb-knock out sowie Ngb- und Cygb-überexprimierenden transgenen Tieren. Diese werden für die endgültige Entschlüsselung funktionell relevanter Fragestellungen von enormer Bedeutung sein.
Resumo:
Das Amyloid-Vorläufer-Protein (APP) spielt eine zentrale Rolle in der Entstehung und Entwicklung von Morbus Alzheimer. Hierbei ist die proteolytische Prozessierung von APP von entscheidender Bedeutung. Das Verhältnis von neurotoxischen und neuroprotektiven Spaltprodukten, die über den amyloidogenen und nicht-amyloidogenen Weg der APP-Prozessierung gebildeten werden, ist für das Überleben von Neuronen und deren Resistenz gegen zytotoxische Stress-Stimuli von hoher Relevanz. Störungen der Calcium-Homöostase sind ein bekanntes Phänomen bei Morbus Alzheimer. Im ersten Teil der vorliegenden Arbeit wurde die Rolle von überexprimiertem APP in der Regulation des neuronalen Zelltods nach Calcium Freisetzung untersucht. Die Calcium Freisetzung aus dem endoplasmatischen Retikulum wurde durch die Inhibition der sarko- und endoplasmatischen Calcium-ATPasen (SERCA) ausgelöst. Dies führt zur Induktion der sogenannten „unfolded protein response“ (UPR) und zu einer Aktivierung von Effektor-Caspasen. Für APP-überexprimierende PC12 Zellen konnte bereits zuvor eine im Vergleich zur Kontrolle nach der durch Calcium Freisetzung-induzierten Apoptose eine erhöhte intrazelluläre Calcium Konzentration nachgewiesen werden. Über die Messung der Aktivierung von Effektor-Caspasen konnte zudem ein gesteigerter Zelltod in den APP-überexprimierenden Zellen gemessen werden. Zudem konnte gezeigt werden, dass der pro-apoptotische Transkriptionsfaktor CHOP, nicht aber die klassischen UPR-Zielgene spezifisch hochreguliert wurden. Die APP-modulierte gesteigerte Induktion von Apoptose nach Calcium Freisezung konnte durch Komplexierung der intrazellulären Calcium Ionen und durch Knockdown von CHOP im Vergleich zur Kontrolle gänzlich unterdrückt werden. Ferner bewirkte die Inhibition der Speicher-aktivierten Calcium-Kanälen (SOCC) eine signifikante Unterdrückung der beobachteten erhöhten intrazellulären Calcium Konzentration und der gesteigerten Apoptose in den APP-überexprimierenden PC12 Zellen. In diesem Teil der Arbeit konnte eindeutig gezeigt werden, dass APP in der Lage ist den durch Calcium-Freisetzung-induzierten Zelltod zu potenzieren. Diese Modulation durch APP verläuft in einer UPR-unabhängigen Reaktion über die Aktivierung von SOCC’s, einer erhöhten Aufnahme von extrazellulärem Calcium und durch erhöhte Induktion des pro-apoptotischen Transkriptionsfaktors CHOP. Im zweiten Teil dieser Arbeit wurde die sAPPα-vermittelte Neuroprotektion untersucht. Dabei handelt es sich um die N-terminale Ektodomäne von APP, die über die Aktivität der α-Sekretase prozessiert wird und anschließend extrazellulär abgegeben wird. Ziel dieser Versuchsreihe war die neuroprotektive physiologische Funktion von APP im Hinblick auf den Schutz von neuronalen Zellen vor diversen für Morbus Alzheimer relevanten Stress-Stimuli bzw. Apoptose-Stimuli zu untersuchen. Durch die Analyse der Effektor-Caspasen konnte gezeigt werden, dass sAPPα in der Lage ist PC12 Zellen potent vor oxidativem Stress, DNA-Schäden, Hypoxie, proteasomalem Stress und Calcium-Freisetzung zu schützen. Außerdem konnte gezeigt werden, dass sAPPα in der Lage ist den pro-apoptotischen Stress-induzierten JNK/Akt-Signalweg zu inhibieren. Eine Beteiligung des anti-apoptotischen PI3K/Akt-Signalwegs bei der sAPPα-vermittelten Protektion konnte über die Inhibition der PI3-Kinase ebenfalls demonstriert werden, die eine Aufhebung der sAPPα-vermittelten Neuroprotektion bewirkte. Diese Daten zeigen neue molekulare Mechanismen auf, die dem sAPPα-vermittelten Schutz vor pathophysiologisch relevanten Stress-Stimuli in neuronalen Zellen zugrunde liegen. Im letzten Teil der Arbeit wurden verschieden Gruppen von pharmakologischen Substanzen im Hinblick auf ihre neuroprotektive Wirkung untersucht und mit ihren Effekten auf den APP-Metabolismus korreliert. Die Untersuchungen ergaben, dass Galantamin, ein schwacher Acetycholinesterase Inhibitor und allosterisch potenzierender Ligand von nikotinischen Acetylcholin-Rezeptoren in der Lage war, naive, und mit noch höherer Effizienz APP-überexprimierende Zelllinien vor dem Stress-induzierten Zelltod zu schützen. Zudem bewirkte Galantamin in APP-überexprimierenden HEK293 Zellen eine rasche Erhöhung der sAPPα Sekretion, so dass hier von einer Rezeptor-vermittelten Modulation des APP Metabolismus ausgegangen werden kann. Omega-3 Fettsäuren wirken sich positiv auf die Membranfluidität von Zellen aus und es konnte bereits gezeigt werden, dass die Bildung des toxischen Aβ Peptids hierdurch vermindert wird. In Analogie zu Galantamin schützte die Omega-3 Fettsäure Docosahexaensäure (DHA) neuronale Zellen vor dem Stress-induzierten Zelltod, wobei der Schutz in APP-überexprimierenden Zellen besonders effizient war. Diese Daten legen nahe, dass die Aktivierung des antiamyloidogenen Wegs der APP-Prozessierung ein viel versprechender Ansatz für die Entwicklung neuer Therapien gegen Morbus Alzheimer sein könnte.
Resumo:
The electric dipole response of neutron-rich nickel isotopes has been investigated using the LAND setup at GSI in Darmstadt (Germany). Relativistic secondary beams of 56−57Ni and 67−72Ni at approximately 500 AMeV have been generated using projectile fragmentation of stable ions on a 4 g/cm2 Be target and subsequent separation in the magnetic dipole fields of the FRagment Separator (FRS). After reaching the LAND setup in Cave C, the radioactive ions were excited electromagnetically in the electric field of a Pb target. The decay products have been measured in inverse kinematics using various detectors. Neutron-rich 67−69Ni isotopes decay by the emission of neutrons, which are detected in the LAND detector. The present analysis concentrates on the (gamma,n) and (gamma,2n) channels in these nuclei, since the proton and three-neutron thresholds are unlikely to be reached considering the virtual photon spectrum for nickel ions at 500 AMeV. A measurement of the stable 58Ni isotope is used as a benchmark to check the accuracy of the present results with previously published data. The measured (gamma,n) and (gamma,np) channels are compared with an inclusive photoneutron measurement by Fultz and coworkers, which are consistent within the respective errors. The measured excitation energy distributions of 67−69Ni contain a large portion of the Giant Dipole Resonance (GDR) strength predicted by the Thomas-Reiche-Kuhn energy-weighted sum rule, as well as a significant amount of low-lying E1 strength, that cannot be attributed to the GDR alone. The GDR distribution parameters are calculated using well-established semi-empirical systematic models, providing the peak energies and widths. The GDR strength is extracted from the chi-square minimization of the model GDR to the measured data of the (gamma,2n) channel, thereby excluding any influence of eventual low-lying strength. The subtraction of the obtained GDR distribution from the total measured E1 strength provides the low-lying E1 strength distribution, which is attributed to the Pygmy Dipole Resonance (PDR). The extraction of the peak energy, width and strength is performed using a Gaussian function. The minimization of trial Gaussian distributions to the data does not converge towards a sharp minimum. Therefore, the results are presented by a chi-square distribution as a function of all three Gaussian parameters. Various predictions of PDR distributions exist, as well as a recent measurement of the 68Ni pygmy dipole-resonance obtained by virtual photon scattering, to which the present pygmy dipole-resonance distribution is also compared.
Resumo:
Data deduplication describes a class of approaches that reduce the storage capacity needed to store data or the amount of data that has to be transferred over a network. These approaches detect coarse-grained redundancies within a data set, e.g. a file system, and remove them.rnrnOne of the most important applications of data deduplication are backup storage systems where these approaches are able to reduce the storage requirements to a small fraction of the logical backup data size.rnThis thesis introduces multiple new extensions of so-called fingerprinting-based data deduplication. It starts with the presentation of a novel system design, which allows using a cluster of servers to perform exact data deduplication with small chunks in a scalable way.rnrnAfterwards, a combination of compression approaches for an important, but often over- looked, data structure in data deduplication systems, so called block and file recipes, is introduced. Using these compression approaches that exploit unique properties of data deduplication systems, the size of these recipes can be reduced by more than 92% in all investigated data sets. As file recipes can occupy a significant fraction of the overall storage capacity of data deduplication systems, the compression enables significant savings.rnrnA technique to increase the write throughput of data deduplication systems, based on the aforementioned block and file recipes, is introduced next. The novel Block Locality Caching (BLC) uses properties of block and file recipes to overcome the chunk lookup disk bottleneck of data deduplication systems. This chunk lookup disk bottleneck either limits the scalability or the throughput of data deduplication systems. The presented BLC overcomes the disk bottleneck more efficiently than existing approaches. Furthermore, it is shown that it is less prone to aging effects.rnrnFinally, it is investigated if large HPC storage systems inhibit redundancies that can be found by fingerprinting-based data deduplication. Over 3 PB of HPC storage data from different data sets have been analyzed. In most data sets, between 20 and 30% of the data can be classified as redundant. According to these results, future work in HPC storage systems should further investigate how data deduplication can be integrated into future HPC storage systems.rnrnThis thesis presents important novel work in different area of data deduplication re- search.
Resumo:
Hybrid Elektrodenmaterialien (HEM) sind der Schlüssel zu grundlegenden Fortschritten in der Energiespeicherung und Systemen zur Energieumwandlung, einschließlich Lithium-Ionen-Batterien (LiBs), Superkondensatoren (SCs) und Brennstoffzellen (FCs). Die faszinierenden Eigenschaften von Graphen machen es zu einem guten Ausgangsmaterial für die Darstellung von HEM. Jedoch scheitern traditionelle Verfahren zur Herstellung von Graphen-HEM (GHEM) scheitern häufig an der fehlenden Kontrolle über die Morphologie und deren Einheitlichkeit, was zu unzureichenden Grenzflächenwechselwirkungen und einer mangelhaften Leistung des Materials führt. Diese Arbeit konzentriert sich auf die Herstellung von GHEM über kontrollierte Darstellungsmethoden und befasst sich mit der Nutzung von definierten GHEM für die Energiespeicherung und -umwandlung. Die große Volumenausdehnung bildet den Hauptnachteil der künftigen Lithium-Speicher-Materialien. Als erstes wird ein dreidimensionaler Graphen Schaumhybrid zur Stärkung der Grundstruktur und zur Verbesserung der elektrochemischen Leistung des Fe3O4 Anodenmaterials dargestellt. Der Einsatz von Graphenschalen und Graphennetzen realisiert dabei einen doppelten Schutz gegen die Volumenschwankung des Fe3O4 bei dem elektrochemischen Prozess. Die Leistung der SCs und der FCs hängt von der Porenstruktur und der zugänglichen Oberfläche, beziehungsweise den katalytischen Stellen der Elektrodenmaterialien ab. Wir zeigen, dass die Steuerung der Porosität über Graphen-basierte Kohlenstoffnanoschichten (HPCN) die zugängliche Oberfläche und den Ionentransport/Ladungsspeicher für SCs-Anwendungen erhöht. Desweiteren wurden Stickstoff dotierte Kohlenstoffnanoschichten (NDCN) für die kathodische Sauerstoffreduktion (ORR) hergestellt. Eine maßgeschnittene Mesoporosität verbunden mit Heteroatom Doping (Stickstoff) fördert die Exposition der aktiven Zentren und die ORR-Leistung der metallfreien Katalysatoren. Hochwertiges elektrochemisch exfoliiertes Graphen (EEG) ist ein vielversprechender Kandidat für die Darstellung von GHEM. Allerdings ist die kontrollierte Darstellung von EEG-Hybriden weiterhin eine große Herausforderung. Zu guter Letzt wird eine Bottom-up-Strategie für die Darstellung von EEG Schichten mit einer Reihe von funktionellen Nanopartikeln (Si, Fe3O4 und Pt NPs) vorgestellt. Diese Arbeit zeigt einen vielversprechenden Weg für die wirtschaftliche Synthese von EEG und EEG-basierten Materialien.