981 resultados para Postsurgical Lifting Restrictions
Resumo:
Super Resolution problem is an inverse problem and refers to the process of producing a High resolution (HR) image, making use of one or more Low Resolution (LR) observations. It includes up sampling the image, thereby, increasing the maximum spatial frequency and removing degradations that arise during the image capture namely aliasing and blurring. The work presented in this thesis is based on learning based single image super-resolution. In learning based super-resolution algorithms, a training set or database of available HR images are used to construct the HR image of an image captured using a LR camera. In the training set, images are stored as patches or coefficients of feature representations like wavelet transform, DCT, etc. Single frame image super-resolution can be used in applications where database of HR images are available. The advantage of this method is that by skilfully creating a database of suitable training images, one can improve the quality of the super-resolved image. A new super resolution method based on wavelet transform is developed and it is better than conventional wavelet transform based methods and standard interpolation methods. Super-resolution techniques based on skewed anisotropic transform called directionlet transform are developed to convert a low resolution image which is of small size into a high resolution image of large size. Super-resolution algorithm not only increases the size, but also reduces the degradations occurred during the process of capturing image. This method outperforms the standard interpolation methods and the wavelet methods, both visually and in terms of SNR values. Artifacts like aliasing and ringing effects are also eliminated in this method. The super-resolution methods are implemented using, both critically sampled and over sampled directionlets. The conventional directionlet transform is computationally complex. Hence lifting scheme is used for implementation of directionlets. The new single image super-resolution method based on lifting scheme reduces computational complexity and thereby reduces computation time. The quality of the super resolved image depends on the type of wavelet basis used. A study is conducted to find the effect of different wavelets on the single image super-resolution method. Finally this new method implemented on grey images is extended to colour images and noisy images
Resumo:
Zusammenfassung Mobile Telekommunikationstechnologien verändern den Alltag, ihre Benutzer und die Geschäftswelt. Im Zuge der Mobilität haben die Nutzer von mobilen Übertragungstechnologien ein hohes Kommunikationsbedürfnis in jeglicher Situation entwickelt: Sie wollen überall und jederzeit kommunizieren und informiert sein. Dies ist auch darauf zurückzuführen, dass ein Wandel der Individualisierung – von der Person zur Situation – stattgefunden hat. Im Rahmen der Untersuchung gehen wir auf diese entscheidenden Veränderung ein und analysieren die Potenziale des Kontextmarketing im mobilen Customer Relationship Management anhand der Erringung von Wettbewerbsvorteilen durch Situationsfaktoren. Daneben zeigen wir mögliche Geschäftsmodelle und Wertschöpfungsketten auf. Abgerundet wird die Arbeit durch die Darstellung möglicher personenbezogener, technischer und rechtlicher Restriktionen.
Resumo:
The restarting automaton is a restricted model of computation that was introduced by Jancar et al. to model the so-called analysis by reduction, which is a technique used in linguistics to analyze sentences of natural languages. The most general models of restarting automata make use of auxiliary symbols in their rewrite operations, although this ability does not directly correspond to any aspect of the analysis by reduction. Here we put restrictions on the way in which restarting automata use auxiliary symbols, and we investigate the influence of these restrictions on their expressive power. In fact, we consider two types of restrictions. First, we consider the number of auxiliary symbols in the tape alphabet of a restarting automaton as a measure of its descriptional complexity. Secondly, we consider the number of occurrences of auxiliary symbols on the tape as a dynamic complexity measure. We establish some lower and upper bounds with respect to these complexity measures concerning the ability of restarting automata to recognize the (deterministic) context-free languages and some of their subclasses.
Resumo:
In dieser Arbeit werden grundlegende Algorithmen für Ore-Algebren in Mathematica realisiert. Dabei entsteht eine Plattform um die speziellen Beschränkungen und Möglichkeiten dieser Algebren insbesondere im Zusammenhang mit Gröbnerbasen an praktischen Beispielen auszuloten. Im Gegensatz zu den existierenden Paketen wird dabei explizit die Struktur der Ore-Algebra benutzt. Kandri-Rody und Weispfenning untersuchten 1990 Verallgemeinerungen von Gröbnerbasen auf Algebren ordnungserhaltender Art (``algebras of solvable type''). Diese verhalten sich so, dass Buchbergers Algorithmus stets eine Gröbnerbasis findet. Es wird ein Beispiel gezeigt, an dem klar wird, dass es mehr Ore-Algebren ordnungserhaltender Art gibt als die in der Literatur stets betrachteten Operator-Algebren. Für Ore-Algebren ordnungserhaltender Art werden Algorithmen zu Gröbnerbasen implementiert. Anschließend wird der Gröbner-Walk für Ore-Algebren untersucht. Der Gröbner-Walk im kommutativen Fall wird mit einem instruktiven Beispiel vorgestellt. Dann wird zum nichtkommutativen Fall übergegangen. Es wird gezeigt, dass die Eigenschaft ordnungserhaltender Art zu sein, auf der Strecke zwischen zwei Ordnungen erhalten bleibt. Eine leichte Modifikation des Walks für Ore-Algebren wird implementiert, die im Erfolgsfall die Basis konvertiert und ansonsten abbricht. Es werden Beispiele angegeben, in denen der modifizierte Walk funktioniert sowie ein Beispiel analysiert, in dem er versagt.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
The organic agricultural sector of Uganda is among the most developed in Africa in terms of its professional institutional network and high growth rates of number of certified farmers and land area. Smallholder farmers are certified organic through contract production for export companies using a group certification scheme (internal control system - ICS). The ICS is a viable and well-accepted tool to certify small-scale producers in developing countries all over the world. Difficulties in certification are still stated to be among the main constraints for Uganda’s organic sector development. Therefore, this paper reports a qualitative case study comprising 34 expert interviews in two organic fresh-produce export companies in central Uganda, aiming to explore the challenges which underlie organic certification with ICS. The study shows that farmers cannot be labelled as ‘organic by default’ but deliberately engage in organic production as a marketing strategy. The small quantities purchased by the organic companies lead to a difficult marketing situation for the farmers, causing production and infiltration risks on the farm level. These risks require increased control that challenges the companies organizationally. The risks and control needs are a reason to involve farmers in ICS procedures and innovatively adapt the ICS by means of a bypass around formal perspective restrictions. The paper discusses different perspectives on risks, risk control and certification.
Resumo:
The main objective of this PhD research study is to provide a perspective on the urban growth management and sustainable development in Palestine, and more specifically in Hebron district as a case study. Hebron is located 36 km south of Jerusalem, with an overall population size of around 600,000 people living in a total area around1246km2. Hebron is the biggest Palestinian district that has 16 municipalities and 154 localities. The research discusses and analyzes the urban planning system, economical and environmental policies and the solution required to manage and integrate the development elements to develop a sustainable development plan for Hebron. The research provides answers for fundamental questions such as what kind and definition of sustainable development are applicable to the Palestinian case?. What are the sustainability problems there and how the Israeli occupation and unstable political condition affect the sustainable development in Palestine? What are the urban growth management and sustainability policies and actions required from government, public and privets sector in Palestine? The fast urban growth in Palestine is facing many problems and challenges due to the increase in the population size and the resulting impact of this increase including, but not limited to, the demand of new houses, need for more infrastructure services, demands on new industrial, commercial, educational and health projects, which in turn reduces the area of agricultural lands and threatens the natural resources and environment. There are also other associated sustainability problems like the absence of effective plans or regulations that control urban expansion, the absence of sufficient sustainable development plans at the national levels for the district, new job requirements, Israeli restrictions and occupation for more than 60 years, existence of construction factories near residential areas, poor public awareness and poor governmental funds for service projects and development plans. The study consists of nine chapters. Chapter One includes an introduction, study objectives, problems and justifications, while Chapter Two has a theoretical background on sustainability topic and definitions of sustainability. The Palestinian urban planning laws and local government systems are discussed in Chapter Three and the methodology of research is detailed in Chapter Four. As for Chapter Five, it provides a general background on Hebron District including demographical and economical profiles, along with recommendations related to sustainable development for each profile Chapter Six addresses the urban environment, sustainability priorities and policies required. Chapter Seven discusses and analyzes infrastructure services including transportation, water and wastewater. As for Chapter Eight, it addresses the land use, housing and urban expansion beside the cultural heritage, natural heritage with relevant sustainable development polices and recommendations. Finally, Chapter Nine includes a conclusion and comprehensive recommendations integrating all of urban and sustainability event in one map. Hebron has a deep history including a rich cultural heritage aged by thousands of years, with 47% of Hebron district population under 14 years old. Being the biggest Palestinian district, Hebron has thousands of industrial and economical organizations beside a large agricultural sector at Palestine level. This gives Hebron a potential to play major roles in developing a national sustainability plan, as the current urban planning system in Palestine needs urgent reform and development to fulfill the sustainability requirement. The municipalities and ministers should find permanent financial aid for urban planning and development studies so as to face future challenges. The Palestinian government can benefit from available local human resources in development projects; hence Palestinian people have sufficient qualifications in most sectors. The Palestinian people also can invest in the privet sector in Palestine in case businessmen have been encouraged and clear investment laws and plans have been developed. The study provides recommendations associated to the sustainable development in Palestine in general and Hebron, as a case study, in specific. Recommendations include increasing the privet sector as well as the public involvement in urban growth management, and stopping unplanned urban expansion, subjecting granting building permits of new projects to the no-harm environmental impact assessment, increasing the coordination and cooperation between localities and central bodies, protection and renovation of old cites and green areas, increasing the quality and quantity of infrastructure services, establishing district urban planning department to coordinate and organize urban planning and sustainable development activities. Also, among recommendations come dividing Hebron into three planning and administrative areas (north, central and south), and dividing the sustainable development and implementation period (2010 to 2025) into three main phases. Finally, the study strongly recommends benefiting from the same urban development plans in similar districts at national and international levels, also to use new technologies and information systems in urban planning process.
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
Nachdem sich in der Kolonialkrise von 1906 das Scheitern der ersten Periode deutscher Kolonialherrschaft (1885-1906) offenbarte, wurde Bernhard Dernburg die grundlegende Reorganisation der Kolonialpolitik anvertraut. Als Mann aus der Welt der Banken und Finanzen sollte er die stagnierende Entwicklung der Kolonien mit Hilfe von administrativen und wirtschaftlichen Reformmaßnahmen vorantreiben und gleichzeitig der indigenen Bevölkerung eine humane Behandlung zu garantieren. Um diese Ziele zu erreichen, verabschiedete er Reformen, die eine Rationalisierung und Humanisierung der Arbeiterpolitik vorsahen. Sowohl in der zeitgenössischen Literatur als auch in der aktuellen wissenschaftlichen Forschung wird der Amtsantritt Bernhard Dernburgs zum Leiter der Kolonialabteilung im Jahre 1906 als der „Beginn einer neuen humanen Ära“ deutscher Kolonialpolitik oder als „Wandel zum Besseren“ bezeichnet. Die Dissertation „Schwarzer Untertan versus Schwarzer Bruder. Bernhard Dernburgs Reformen in den Kolonien Deutsch-Ostafrika, Deutsch-Südwestafrika, Togo und Kamerun“ untersucht die Intention, Akzeptanz, Umsetzung und Auswirkung der reformatorischen Eingeborenenpolitik und klärt, ob die Beurteilung der Ära Dernburg (1906-1910) in der zeitgenössischen und aktuellen Forschung eine Berechtigung hat. Obwohl zumindest in der Theorie sein Konzept einer rationalen und humanen Kolonialpolitik sicherlich eine Abkehr von der bisher betriebenen Kolonialpolitik bedeutete, zeigt sich jedoch bei der Umsetzung der Reformen eine deutliche Diskrepanz zwischen Intention und Realität. Auch wenn zumindest die Bestrebung Dernburgs zur Verrechtlichung der indigenen Arbeitsverhältnisse gewürdigt werden sollte, so muss doch konstatiert werden, dass es in der „Ära Dernburg“ definitiv nicht zu einer grundlegenden Verbesserung der indigenen Lebenssituation in den deutschen Kolonien kam. Im Gegenteil, die Dernburgsche Reformpolitik beschleunigte vielmehr den Verelendungsprozess der indigenen Bevölkerung. In allen afrikanischen Kolonien verschlechterten sich mit der Intensivierung der Verwaltung die sozialen und menschlichen Beziehungen zwischen Afrikanern und Europäern. Vieles von dem, was Dernburg in seinem Programm propagierte, konnte nicht erreicht werden. Zwar führte Dernburg in Deutsch-Ostafrika, Deutsch-Südwestafrika und in Kamerun eine rechtlich bindende Arbeiterverordnung ein, jedoch unterschieden sich die Bestimmungen zum Teil erheblich voneinander, so dass von einer einheitlichen Modernisierung des kolonialen Arbeitsrechts nicht die Rede sein kann. Viele arbeitsrechtliche Bereiche, wie z.B. die Arbeiteranwerbung, Lohnzahlung, Minderjährigenschutz, Vertragsdauer, Arbeitszeit, Verpflegung und Unterkunft wurden nur unzureichend geregelt. Ähnlich negativ muss auch die Reformierung der Strafrechtspflege bewertet werden. Die Kodifizierung eines Eingeborenenstrafrechts scheiterte sowohl am Widerstand der lokalen Verwaltung als auch am Grundkonsens der Rechtmäßigkeit einer Rassenjustiz. Kolonialpolitik war auch in der „Ära Dernburg“ nichts anderes als „rohe Ausbeutungspolitik“, die zur Lösung der Arbeiterfrage beitragen sollte. Aber gerade hier, bei der Mobilisierung von afrikanischen Lohnarbeitern, war der Kolonialstaatssekretär nicht etwa mit einer „Arbeiterfürsorgepolitik“, sondern mit der Fortführung der Enteignungs- und Zwangsmaßnahmen erfolgreich gewesen. Insgesamt ist ein deutlicher Anstieg an afrikanischen Arbeitern in europäischen Unternehmen zu verzeichnen, was darauf schließen lässt, dass Dernburgs Verordnungen einen günstigen Einfluss auf die Arbeiterfrage ausgeübt haben. Obwohl nicht von einem grundlegenden Neuanfang der Kolonialpolitik gesprochen werden kann, sollte ebenso wenig bezweifelt werden, dass sich die deutsche Kolonialpolitik nicht unter Dernburg veränderte. Größere indigene Aufstände und Unruhen blieben aus, so dass während seiner Amtszeit eine systematische wirtschaftliche Erschließung der Kolonien beginnen konnte.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
In composite agricultural materials such as grass, tee, medicinal plants; leaves and stems have a different drying time. By this behavior, after leaving the dryer, the stems may have greater moisture content than desired, while the leaves one minor, which can cause either the appearance of fungi or the collapse of the over-dried material. Taking into account that a lot of grass is dehydrated in forced air dryers, especially rotary drum dryers, this research was developed in order to establish conditions enabling to make a separation of the components during the drying process in order to provide a homogeneous product at the end. For this, a rotary dryer consisting of three concentric cylinders and a circular sieve aligned with the more internal cylinder was proposed; so that, once material enters into the dryer in the area of the inner cylinder, stems pass through sieve to the middle and then continue towards the external cylinder, while the leaves continue by the inner cylinder. For this project, a mixture of Ryegrass and White Clover was used. The characteristics of the components of a mixture were: Drying Rate in thin layer and in rotation, Bulk density, Projected Area, Terminal velocity, weight/Area Ratio, Flux through Rotary sieve. Three drying temperatures; 40°C, 60° C and 80° C, and three rotation speeds; 10 rpm, 20 rpm and 40 rpm were evaluated. It was found that the differences in drying time are the less at 80 °C when the dryer rotates at 40 rpm. Above this speed, the material adheres to the walls of the dryer or sieve and does not flow. According to the measurements of terminal velocity of stems and leaves of the components of the mixture, the speed of the air should be less than 1.5 m s-1 in the inner drum for the leaves and less than 4.5 m s-1 in middle and outer drums for stems, in such way that only the rotational movement of the dryer moves the material and achieves a greater residence time. In other hand, the best rotary sieve separation efficiencies were achieved when the material is dry, but the results are good in all the moisture contents. The best rotary speed of sieve is within the critical rotational speed, i.e. 20 rpm. However, the rotational speed of the dryer, including the sieve in line with the inner cylinder should be 10 rpm or less in order to achieve the greatest residence times of the material inside the dryer and the best agitation through the use of lifting flights. With a finite element analysis of a dryer prototype, using an air flow allowing speeds of air already stated, I was found that the best performance occurs when, through a cover, air enters the dryer front of the Middle cylinder and when the inner cylinder is formed in its entirety through a sieve. This way, air flows in almost equal amounts by both the middle and external cylinders, while part of the air in the Middle cylinder passes through the sieve towards the inner cylinder. With this, leaves do not adhere to the sieve and flow along drier, thanks to the rotating movement of the drums and the showering caused by the lifting flights. In these conditions, the differences in drying time are reduced to 60 minutes, but the residence time is higher for the stems than for leaves, therefore the components of the mixture of grass run out of the dryer with the same desired moisture content.
Resumo:
In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.
Resumo:
A regulator imposing “sales restrictions” on firms competing in oligopolistic markets may enhance quality provision by the firms. Moreover, for most restrictions levels, the impact on quality selection is invariant to the mode of competition
Resumo:
In this paper a precorrected FFT-Fast Multipole Tree (pFFT-FMT) method for solving the potential flow around arbitrary three dimensional bodies is presented. The method takes advantage of the efficiency of the pFFT and FMT algorithms to facilitate more demanding computations such as automatic wake generation and hands-off steady and unsteady aerodynamic simulations. The velocity potential on the body surfaces and in the domain is determined using a pFFT Boundary Element Method (BEM) approach based on the Green’s Theorem Boundary Integral Equation. The vorticity trailing all lifting surfaces in the domain is represented using a Fast Multipole Tree, time advected, vortex participle method. Some simple steady state flow solutions are performed to demonstrate the basic capabilities of the solver. Although this paper focuses primarily on steady state solutions, it should be noted that this approach is designed to be a robust and efficient unsteady potential flow simulation tool, useful for rapid computational prototyping.