30 resultados para Historiographie der Technik
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Nach einem einleitenden ersten Kapitel wird im zweiten Kapitel der Stand der Technik für Regelungs- und Monitoringsysteme mit vernetzten Systemen dargestellt. Daraus wird die Motivation zur Entwicklung neuer, kostengünstiger Systeme abgeleitet. Im dritten Kapitel folgt eine Darstellung der verschiedenen Arten marktverfügbarer Embedded Systems und dafür geeigneter Betriebssysteme. Anforderungen an verteilte Regelungssysteme, unterschiedliche Strukturen dieser Systeme und deren Vor- und Nachteile sind Gegenstand des vierten Kapitels. Anhand von Beispielen aus den Bereichen Erzeugungsmanagement für den Betrieb von KWK-Anlagen, Energieverbrauchsmonitoring und Smart-Metering wird der Einsatz von verteilten Regelungs- und Monitoringsystemen im fünften Kapitel dargestellt. Im folgenden sechsten Kapitel wird die Bedeutung normierter Kommunikation für den Einsatz in verteilten Systemen sowie dafür vorhandene Standards aus der elektrischen Energieversorgungstechnik und der Automatisierungstechnik behandelt. Der Stand der Internet-Technik für verteilte Systeme ist Gegenstand des siebten Kapitels. Dabei werden zunächst die verschiedenen drahtlosen und drahtgebundenen Kommunikationsmedien vorgestellt und ihre Eigenschaften und die Randbedingungen für ihren Einsatz erörtert. Ebenso werden technische Probleme beim Einsatz der Internet-Technik aufgezeigt und Lösungsmöglichkeiten für diese Probleme dargestellt. Es folgt eine Übersicht von Netzwerkdiensten, die für den Betrieb von verteilten Systemen notwendig sind. Außerdem werden Techniken zur Überwachung von verteilten Systemen behandelt. Kapitel acht zeigt Sicherheitsrisiken bei der Nutzung des Internets auf und bewertet verschiedene Techniken zur Absicherung des Netzwerkverkehrs. Kapitel neun stellt ein Internet-basiertes Client-Server-System zur Online-Visualisierung von Anlagendaten im Webbrowser mit Hilfe von Java-Applets und XML-RPC vor. Die Visualisierung von Anlagendaten auf Mobiltelefonen mit Hilfe des Wireless Application Protocol sowie die dafür notwendige Software und Infrastruktur ist Gegenstand des zehnten Kapitels. Im elften Kapitel wird eine neuartige Software für die Simulation von dezentralen Energiesystemen und deren Regelungssystemen auf Basis von virtuellen Maschinen, virtuellen Netzwerken und einer thermischen Simulationsumgebung vorgestellt sowie deren Anwendung für die Reglerentwicklung erklärt. Verschiedene Techniken für die Installation von Betriebssystemen und Software für die Embedded Systems eines verteilten Systems werden im Kapitel zwölf untersucht. Im Kapitel 13 werden verschiedene Technologien zur Konfiguration und Parametrierung von Regelungssystemen in der industriellen Prozess- und Fertigungsautomatisierung hinsichtlich ihrer Eignung für dezentrale Energiesysteme analysiert. Anschließend wird eine Software zur Installation und Parametrierung von Monitoringsystemen sowie der dazugehörigen Infrastruktur vorgestellt. Kapitel 14 beschäftigt sich mit Anforderungen an die Hardware für verteilte Systeme und mit Maßnahmen zur Erhöhung der Betriebs- und der Datensicherheit. Im 15. Kapitel werden die in den bisherigen Kapiteln vorgestellten Techniken anhand eines großen verteilten Monitoringsystems und anhand eines Power Flow and Power Quality Management Systems auf Basis von verteilten Embedded Systems evaluiert. Kapitel 16 fasst die Ergebnisse der Arbeit zusammen und enthält einen Ausblick auf zukünftige Entwicklungen.
Resumo:
In dieser Dissertation ist die Strukturform der 50er Jahre, bezogen auf den Verwaltungsbau, rückblickend geprägt durch persönliches kennen lernen direkter, zeitnaher Informationen über Konzepte fertig gestellter Bauten. Die Entstehung von Strömungen, die die Architektur der Nachkriegszeit beeinflussten, werden verknüpft und beurteilt, und durch biographische Aussagen ergänzt. Diese Strukturform, die des Skelettbaus, war das zentrale Thema der Nachkriegsarchitektur, die das Gesicht unserer Städte am meisten veränderte, besonders durch die Anwendung im Büro- und Verwaltungsbau, der erforderlich wurde durch die Veränderung der Industriegesellschaft in eine Dienstleistungsgesellschaft. Die STRUKTURFORM, die Auseinandersetzung mit der Trag-Konstruktion und ihrer ästhetischen Gestaltung mit den ihr zur Verfügung stehenden Materialien, ist die Grundlage aller architektonischen Aussagen. Das rationale, standardisierte Moment der Wiederholung, ist die Rhythmisierung elementierter Bauteile, die der Strukturform der Moderne. Sie ist ohne "Wissen" nicht in ihrem Sinn erfassbar. Ihr entscheidender Wesenszug ist die Unabhängigkeit des Begriffes der "strukturellen Form" von allen Richtungen und Strömungen in der Architektur. Sie ist eine künstlerische Schöpfung. Konstruktionsformen sind etwas anderes, nämlich die zufällige Erscheinung einer bestimmten Konstruktion. Der SKELETTBAU mit seiner beherrschenden technischen Perfektion und Präzision, vor allem im Verwaltungsbau der fünfziger Jahre, zeigt durch die Variation des Rasters, neuartig gestalterische Ansätze. Hier spiegelt sich aufs Neue die über ein Jahrhundert andauernde Auseinandersetzung mit der Technik, die der industriellen Revolution. An Beispielen der Städte DÜSSELDORF und KASSEL, wird der architektonischen Neuorientierung nach dem 2ten Weltkrieg nachgegangen. An Bauwerken, die nach 1945 in diesen Städten entstanden sind, wird die "Strukturform" (Trag-Konstruktion + ästhetische Gestaltung) analysiert. Ihre technischen Gesetzmäßigkeiten, die des modernen Bauens, und ihr Einfluss auf die Formen der Architektur werden vorwiegend nach den Theorien des Ingenieur-Architekten Dr. Curt Siegel bewertet. Kriterien zur Auswahl der Projekte waren Bauten des neonationalsozialistischen Klassizismus, die noch ganz in der Tradition der vorangegangenen Jahre standen, sowie Bauten des Übergangs, die richtungsweisend wurden für die Verwaltungsbauten der "Moderne", am Ende der 50er Jahre. Im RÜCKBLICK gesehen, am Ende des Jahrhunderts, war 1960/62 der Abschluss einer Kulturepoche in Deutschland, in der Kräfte der Beharrung und der Erneuerung nebeneinander wirkten mit konkurrierenden Vorstellungen von einem neuen Bauen. Der Strukturwandel der siebziger, achtziger Jahre in Richtung Dienstleistungs- und Wissensgesellschaft bedeutet nicht das Ende der Moderne, sondern leitet eine neue Phase ein, die als "reflexive Moderne" charakterisiert wird. Das einseitige "entweder - oder" verwandelt sich in ein "sowohl - als auch". Somit ist die reflexive Moderne nicht unbedingt durch die Entstehung völlig neuer Phänomene gekennzeichnet, sondern durch die Anerkennung der Ambivalenzen und Uneindeutigkeiten der Moderne. Ihre Strukturform wird aber nicht aus reiner Intuition alleine geboren, sondern es bedarf nach wie vor des Wissens um ihre technischen Bezüge. Sie bleiben wichtigstes, formales Ausdrucksmittel des Entwerfens, der künstlerischen Schöpfung aus der Einheit aus Kunst und Technik geborener Formen.
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Diese Arbeit befasst sich mit zwei Aspekten der kohärenten Quantenkontrolle, die sich aus der räumlichen Struktur von Molekülen und der daraus folgenden Vektoreigenschaft der Laser-Molekül-Wechselwirkung ergeben. Im ersten Teil der vorliegenden Arbeit wird zum ersten Mal experimentell gezeigt, dass es möglich ist, den vektoriellen Charakter der Licht-Molekül-Wechselwirkung gezielt zu einer besseren Kontrolle der Moleküldynamik auszunutzen. Dazu wurde in einem Molekularstrahlexperiment die Multi-Photonen-Ionisation von K$_2$-Dimeren durch polarisationsgeformte Femtosekundenlaserpulse untersucht. Mit Hilfe der Technik der Polarisationsformung ist es möglich, Laserpulse zu generieren, bei denen nicht nur der zeitliche Verlauf der Einhüllenden des elektrischen Feldes, sondern auch der zeitliche Verlauf des Polarisationszustandes manipuliert werden kann. Um die optimale Pulsform zu finden, wurde ein adaptives, rückgekoppeltes Verfahren angewandt. Es wird gezeigt, dass im Vergleich zu reiner Phasenformung die Polarisationsformung neue, bisher nicht zugängliche Kontrollmöglichkeiten bietet und so zu einer qualitativ neuen Art von Kontrolle führt. Der zweiten Teil dieser Arbeit hat die Ausrichtung von Molekülen durch ultrakurze Laserpulse zum Thema. Dabei wird zum ersten Mal systematisch untersucht, ob und inwieweit das erzeugte Rotationswellenpaket und damit die erzielte transiente Ausrichtung durch geformte Laserpulse manipuliert und kontrolliert werden kann. Im Experiment wurde mit linear polarisierten phasengeformten Laserpulsen N$_2$ und O$_2$ in Gasphase und bei Raumtemperatur ausgerichtet und der zeitliche Verlauf der so erzeugten transienten Molekülausrichtung aufgenommen. Es wird gezeigt, dass mit Hilfe einer adaptiven Optimierung der Pulsform des Lasers der zeitlichen Verlauf der transienten Molekülausrichtung gezielt manipuliert werden kann. Des weiteren wird die transiente Molekülausrichtung untersucht, die durch Doppelpulse, Pulszüge und durch Pulse mit TOD-Phase erzeugt wird.
Resumo:
Weltweit leben mehr als 2 Milliarden Menschen in ländlichen Gebieten. Als Konzept für die elektrische Energieversorgung solcher Gebiete kommen dezentrale elektrische Energieversorgungseinheiten zum Einsatz, die lokal verfügbare erneuerbare Ressourcen nutzen. Stand der Technik bilden Einheiten, die auf PV-Diesel-Batterie System basieren. Die verwendeten Versorgungsskonzepte in Hybridsystemen sind durch den Einsatz von Batterien als Energiespeicher meist wenig zuverlässig und teuer. Diese Energiespeicher sind sehr aufwendig zu überwachen und schwerig zu entsorgen. Den Schwerpunkt dieser Arbeit bildet die Entwicklung eines neuen Hybridsystems mit einem Wasserreservoir als Energiespeicher. Dieses Konzept eignet sich für Bergregionen in Entwicklungsländern wie Nepal, wo z.B. neben der solaren Strahlung kleine Flüsse in großer Anzahl vorhanden sind. Das Hybridsystem verfügt über einen Synchrongenerator, der die Netzgrößen Frequenz und Spannung vorgibt und zusätzlich unterstützen PV und Windkraftanlage die Versorgung. Die Wasserkraftanlage soll den Anteil der erneuerbaren Energienutzung erhöhen. Die Erweiterung des Systems um ein Dieselaggregat soll die Zuverlässigkeit der Versorgung erhöhen. Das Hybridsystem inkl. der Batterien wird modelliert und simuliert. Anschließend werden die Simulations- und Messergebnisse verglichen, um eine Validierung des Modells zu erreichen. Die Regelungsstruktur ist aufgrund der hohen Anzahl an Systemen und Parametern sehr komplex. Sie wird mit dem Simulationstool Matlab/Simulink nachgebildet. Das Verhalten des Gesamtsystems wird unter verschiedene Lasten und unterschiedlichen meteorologischen Gegebenheiten untersucht. Ein weiterer Schwerpunkt dieser Arbeit ist die Entwicklung einer modularen Energiemanagementeinheit, die auf Basis der erneuerbaren Energieversorgung aufgebaut wird. Dabei stellt die Netzfrequenz eine wichtige Eingangsgröße für die Regelung dar. Sie gibt über die Wirkleistungsstatik die Leistungsänderung im Netz wider. Über diese Angabe und die meteorologischen Daten kann eine optimale wirtschaftliche Aufteilung der Energieversorgung berechnet und eine zuverlässige Versorgung gewährleistet werden. Abschließend wurde die entwickelte Energiemanagementeinheit hardwaretechnisch aufgebaut, sowie Sensoren, Anzeige- und Eingabeeinheit in die Hardware integriert. Die Algorithmen werden in einer höheren Programmiersprache umgesetzt. Die Simulationen unter verschiedenen meteorologischen und netztechnischen Gegebenheiten mit dem entwickelten Model eines Hybridsystems für die elektrische Energieversorgung haben gezeigt, dass das verwendete Konzept mit einem Wasserreservoir als Energiespeicher ökologisch und ökonomisch eine geeignete Lösung für Entwicklungsländer sein kann. Die hardwaretechnische Umsetzung des entwickelten Modells einer Energiemanagementeinheit hat seine sichere Funktion bei der praktischen Anwendung in einem Hybridsystem bestätigen können.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
The measurement of feed intake, feeding time and rumination time, summarized by the term feeding behavior, are helpful indicators for early recognition of animals which show deviations in their behavior. The overall objective of this work was the development of an early warning system for inadequate feeding rations and digestive and metabolic disorders, which prevention constitutes the basis for health, performance, and reproduction. In a literature review, the current state of the art and the suitability of different measurement tools to determine feeding behavior of ruminants was discussed. Five measurement methods based on different methodological approaches (visual observance, pressure transducer, electrical switches, electrical deformation sensors and acoustic biotelemetry), and three selected measurement techniques (the IGER Behavior Recorder, the Hi-Tag rumination monitoring system and RumiWatchSystem) were described, assessed and compared to each other within this review. In the second study, the new system for measuring feeding behavior of dairy cows was evaluated. The measurement of feeding behavior ensues through electromyography (EMG). For validation, the feeding behavior of 14 cows was determined by both the EMG system and by visual observation. The high correlation coefficients indicate that the current system is a reliable and suitable tool for monitoring the feeding behavior of dairy cows. The aim of a further study was to compare the DairyCheck (DC) system and two additional measurement systems for measuring rumination behavior in relation to efficiency, reliability and reproducibility, with respect to each other. The two additional systems were labeled as the Lely Qwes HR (HR) sensor, and the RumiWatchSystem (RW). Results of accordance of RW and DC to each other were high. The last study examined whether rumination time (RT) is affected by the onset of calving and if it might be a useful indicator for the prediction of imminent birth. Data analysis referred to the final 72h before the onset of calving, which were divided into twelve 6h-blocks. The results showed that RT was significantly reduced in the final 6h before imminent birth.
Resumo:
Die hier frei verfügbare Foliensammlung stammt aus der gleichnamigen Master-Veranstaltung im Sommersemester 2014. Das zugehörige Skript (in Englisch) kann als PDF heruntergeladen werden von der Universität Turku (Lutz M. Wegner, Sorting – The Turku Lectures, Lecture Notes in Computing 2014, Univ. of Turku, Finland, http://tucs.fi/publications/attachment.php?fname=bWegner_LutzMx14a.full.pdf). Das überarbeitete Material geht auf eine dort im Jahre 1987 gehaltene Gastvorlesung zurück. Betrachtet werden Varianten von Quicksort und Heapsort, speziell bei Quicksort solche für Multimengen und Vorsortierung, sowohl für verkettete Listen als auch für Datenstrukturen mit Direktzugriff. Neben dem Standardheapsort werden die Floydverbesserung und Dijkstras Smoothsort vorgestellt. Eine Netzwerkvariante und zwei Externspeicherverfahren auf Basis von Quicksort und Heapsort werden untersucht. Der Stand der Technik bei den stabilen, in-situ Verfahren wird skizziert. Der Stoff eignet sich für eine Vorlesung mit angegliederten Projektübungen, in denen Studierende selbstständig Algorithmen, die als Pseudo-Code vorgegeben sind, in effizienten, lauffähigen Java-Code umsetzen und in einer Laufzeitbibliothek mit vorgegebenen Testdaten messen.
Resumo:
Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.
Resumo:
(1) Neuropeptid Y (NPY), einer der häufigsten peptidergen Neurotransmitter im zentralen und peripheren Nervensystem der Säuger, ist an der Steuerung zahlreicher physiologischer Prozesse beteiligt. Auch Amphibien weisen eine verstärkte NPY-Immunreaktivität im Zentralnervensystem auf. Im Hinblick auf bereits gewonnene Erkenntnisse sollte in der vorliegenden Arbeit eine Modulierbarkeit retino-tectaler Aktivität durch Neuropeptid Y an der chinesischen Rotbauchunke (Bombina orientalis) überprüft und erstmals mit Hilfe der 14[C]-2-Desoxiglukose-Methode (14C-2DG) (Sokoloff et al. 1977) quantitativ analysiert werden. Als Vergleichstier diente die Agakröte (Bufo marinus). Zur Darstellung eines möglichen Effektes auf das Tectum opticum wurde NPY lokal auf die tectale Oberfläche visuell stimulierter Rotbauchunken appliziert. Mit Hilfe der 14C-2DG-Methode und den daraus autoradiographisch ermittelten Daten konnten die zerebralen Aktivitäten visualisiert, quantitativ ausgewertet und miteinander verglichen werden. In einer weiteren Versuchsreihe wurde hinterfragt, welche inhibitorische Wirkung NPY entwickeln kann, wenn zuvor der retinale Input pharmakologisch durch systemische Gabe von Apomorphin (APO) signifikant erhöht wurde. (2) Die 14C-2DG-Methode erlaubt einen Blick in die funktionale Aktivität des Gehirns und ermöglicht es, regional ablaufende physiologische und biochemische Energiestoffwechselprozesse innerhalb des Gehirns quantitativ zu erfassen. Mit Hilfe der 14C-2DG-Methode werden die neuromodulatorischen Wirkungen von NPY kartiert und analysiert. (3) Versuchstiergruppe 1 – Bombina orientalis – unbehandelt Zur Beurteilung pharmakologischer Effekte durch NPY bzw. APO auf den Hirnmetabolismus war es zunächst erforderlich, die Gehirnaktivitäten pharmakologisch unbeeinflusster Tiere nach visueller Reizgabe zu untersuchen. Im Bereich des medialen Mesencephalon wurden die tectalen 14C-2DG-Konzentrationen über zehn Messreihen pro Einzeltier sowohl an der rechten als auch an der linken tectalen Hälfte auf Höhe des ventrolateralen Tectum opticum ermittelt. Beim rechts-links Vergleich zeigen sich gleich verteilte Strahlungsintensitäten. Basierend auf dieser Aussage konnte NPY unilateral auf die tectale Oberfläche aufgebracht und auf seine Wirkung geprüft werden. (4) Versuchstiergruppe 2 – Bombina orientalis – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche des Versuchstieres bewirkt, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Besonders in den oberen Schichten des Tectum opticum (Layer 9) zeigt die 14C-2DG-Methode qualitativ und quantitativ auswertbare Aktivitätsminderungen an. (5) Verhalten unter NPY: Durchschnittlich nach 10 min Versuchsdauer zeigt Bombina orientalis eine deutliche Abnahme in der Beutefangaktivität, die sich gegen Ende der Versuchszeit noch weiter reduziert. (6) Versuchstiergruppe 3 – Bombina orientalis – APO-Applikation Systemisch verabreichtes APO führt bei Bombina orientalis zu einer Verstärkung des retinalen Ausganges in die retino-tectalen Projektionsfelder. Die neuronalen Aktivitäten im Tectum opticum erhöhen sich unter dem Einfluss von APO im Durchschnitt um 40% im Vergleich zu APO-unbehandelten Tieren. (7) Verhalten unter APO: Bombina orientalis zeigt nach systemischer Applikation von APO keine verstärkten stereotypen Schnappreaktionen. Die Tiere reagieren ausschließlich mit Akinese, d.h. einem Ausfall gerichteter Lokomotionen und Orientierungsbewegungen. (8) Versuchstiergruppe 4 – Bombina orientalis – APO/NPY-Applikation Die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. Eindeutig niedrigere 14C-2DG-Aufnahmen sind in den oberen Schichten des Tectum opticum messbar, was die starke Wirkung von NPY quantitativ belegt. (9) Versuchstiergruppe 2 – Bufo marinus – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche von Bufo marinus zeigt ebenfalls, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Bufo marinus zeigt aber aufgrund erweiterter Versuchsbedingungen (On-Off-Beleuchtungswechsel) anders verteilte Strahlungsintensitäten über dem Tectum-Querschnitt als Bombina orientalis. Stärkere [14C]-Akkumulationen zeigen sich in den tieferen zentralen Schichten des Tectum opticum. (10) Versuchstiergruppe 4 – Bufo marinus – APO/NPY-Applikation Auch die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum von Bufo marinus werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. (11) Die Ergebnisse der vorliegenden Arbeit leisten einen Beitrag zum Einfluss von NPY auf den retino-tectalen Informationstransfer bei Anuren im Sinne einer praetecto-tectalen inhibitorischen Modulation. Im Einklang mit früheren neuroanatomischen, immuncytochemischen und elektro-physiologischen Befunden liefern diese Ergebnisse erstmals ein biochemisches Korrelat auf der Basis des tectalen Energiestoffwechsels. (12) Es ist hervorzuheben, dass NPY-vermittelte inhibitorische Modulationen visuellen Informationstransfers in der vorliegenden Arbeit an Bombina orientalis nachgewiesen wurden, die phylogenetisch zu den ältesten Anuren (Anamnioten) gehört. Vergleichbares ist an verschiedenen Amnioten – einschließlich Primaten – beschrieben worden, was darauf hinweist, dass solche NPY-vermittelten Prozesse sich innerhalb der Tetrapoden relativ früh herausgebildet haben und in der Evolution konserviert worden sind.
Resumo:
Die Vorstellungen einer Rechtsordnung für die Informationsgesellschaft waren lange Zeit von weiten Freiheitsräumen geprägt. Staat und Recht waren in diesen Vorstellungen an den Rand gedrängt. Neue technische Grundlagen sollten auch neue Formen des Zusammenlebens ermöglichen. Die rasanten Veränderungen in den Produktionsmitteln und Produktivkräften weckten Visionen über veränderte Produktionsverhältnisse und Kooperationsbeziehungen. Frühere Analysen und Entwürfe zur Regulierung der Informationsgesellschaft (I.) sollen im Folgenden einem Review unterworfen werden (II.), auf dem aufbauend künftige Handlungsmöglichkeiten erörtert werden sollen (III.).
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.