818 resultados para GIS BASED SIMULATION
Resumo:
Researchers should continuously ask how to improve the models we rely on to make financial decisions in terms of the planning, design, construction, and maintenance of roadways. This project presents an alternative tool that will supplement local decision making but maintain a full appreciation of the complexity and sophistication of today’s regional model and local traffic impact study methodologies. This alternative method is tailored to the desires of local agencies, which requested a better, faster, and easier way to evaluate land uses and their impact on future traffic demands at the sub-area or project corridor levels. A particular emphasis was placed on scenario planning for currently undeveloped areas. The scenario planning tool was developed using actual land use and roadway information for the communities of Johnston and West Des Moines, Iowa. Both communities used the output from this process to make regular decisions regarding infrastructure investment, design, and land use planning. The City of Johnston case study included forecasting future traffic for the western portion of the city within a 2,600-acre area, which included 42 intersections. The City of West Des Moines case study included forecasting future traffic for the city’s western growth area covering over 30,000 acres and 331 intersections. Both studies included forecasting a.m. and p.m. peak-hour traffic volumes based upon a variety of different land use scenarios. The tool developed took goegraphic information system (GIS)-based parcel and roadway information, converted the data into a graphical spreadsheet tool, allowed the user to conduct trip generation, distribution, and assignment, and then to automatically convert the data into a Synchro roadway network which allows for capacity analysis and visualization. The operational delay outputs were converted back into a GIS thematic format for contrast and further scenario planning. This project has laid the groundwork for improving both planning and civil transportation decision making at the sub-regional, super-project level.
Resumo:
Durante los últimos años el Institut Català d’Arquelogia Clàssica, el Museu d’Història de Tarragona, contando con la colaboración de la Generalitat de Catalunya, han desarrallado el proyecto Planimetría Arqueológica de Tárraco, destinado a la elaboración de una planta arqueológica global en la cual se recogieran intervenciones y noticias referentes a los hallazgos arqueológicos existentes. Este trabajo fue publicado utilizando como plataforma de trabajo un SIG construido para tal fin (Macias et al. 2007). Sin embargo, un problema de difícil solución arqueológica venía dado por las transformaciones urbanísticas de la ciudad, sufridas en su mayor parte a lo largo de los siglos XIX y XX. Éstas habían provocado la pérdida irremediable de gran parte de la elevación que acogiera la ciudad romana, cambiando substancialmente su aspecto original. Ante esta situación y como proyecto paralelo a la realización de la Planimetría Arqueológica de Tarragona se plantearon formas de cubrir este vacío. Se presenta en esta comunicación una propuesta metodológica para la reconstrucción de los grandes «vacíos topográficos » originados por la evolución urbanística de Tarragona mediante la obtención e integración en un SIG de diversos tipos de información documental. En estas zonas rebajadas no resulta posible la obtención de información estratigráfica y arqueológica, por lo que es imprescindible la definición de vías metodológicas alternativas basadas en la extrapolación de datos extraídos de la cartografía histórica, panorámicas del XVI o fotografías tomadas en los siglos XIX y XX. Esta técnica permite aplicar los resultados obtenidos en los nuevos análisis interpretativos, complementando así la interpretación arqueológica de la topografía urbana de la ciudad romana. A partir de esta información, y aplicando funciones y técnicas de interpolación propias de un GIS, se propone aquí un modelo de relieve de la ciudad de Tarraco.
Resumo:
The widespread implementation of GIS-based 3D topographical models has been a great aid in the development and testing of archaeological hypotheses. In this paper, a topographical reconstruction of the ancient city of Tarraco, the Roman capital of the Tarraconensis province, is presented. This model is based on topographical data obtained through archaeological excavations, old photographic documentation, georeferenced archive maps depicting the pre-modern city topography, modern detailed topographical maps and differential GPS measurements. The addition of the Roman urban architectural features to the model offers the possibility to test hypotheses concerning the ideological background manifested in the city shape. This is accomplished mainly through the use of 3D views from the main city accesses. These techniques ultimately demonstrate the ‘theatre-shaped’ layout of the city (to quote Vitrubius) as well as its southwest oriented architecture, whose monumental character was conceived to present a striking aspect to visitors, particularly those arriving from the sea.
Resumo:
Työssä analysoidaanprosessin vaikutusta paperikoneen stabiiliuteen. Kaksi modernia sanomalehtipaperikonetta analysoitiin ja sen perusteella molemmista prosesseista rakennettiin fysiikan lakeihin perustuvat simulointimallit APROS Paper simulointiohjelmistolla. Työn tavoitteena on selvittää, miten kyseisten koneiden prosessit eroavat toisistaan ja arvioida, miten havaitut erot vaikuttavat prosessien stabiiliuteen. Työssä tarkastellaan periodisten häiriöiden vaimenemista prosessissa. Simuloinnissa herätteenä käytettiin puhdasta valkoista kohinaa, jonka avulla eri taajuistenperiodisten häiriöiden vaimenemista analysoitiin. Prosessien häiriövasteet esitetään taajuuskoordinaatistossa. Suurimmat erot prosessien välillä löytyivät viirakaivosta ja sen sekoitusdynamiikasta. Perinteisen viirakaivon todettiin muistuttavan käyttäytymiseltään sarjaan kytkettyjä ideaalisekoittimia, kun taas pienempitilavuuksisen fluumin todettiin käyttäytyvän lähes kuin putkiviive. Vaikka erotprosessitilavuudessa sekä viirakaivon sekoitusdynamiikassa olivat hyvin selkeät, havaittiin vain marginaalinen ero prosessin välillä periodisten häiriöiden vaimenemisessa, koska erot viiraretentiotasoissa vaikuttivat eniten simulointituloksia. Matalammalla viiraretentiolla operoivan paperikoneen todettiin vaimentavan tehokkaammin prosessihäiriöitä. Samalla retentiotasolla pienempitilavuuksisen prosessin todettiin vaimentavan hitaita prosessihäiriöitä marginaalisesti paremmin. Tutkituista paperikoneista toisella simuloitiin viiraosan vedenpoistomuutoksenvaikutusta viiraretentioon ja paperin koostumukseen. Lisäksi arvioitiin viiraretention säädön toimivuutta. Viiraosan listakengän vedenpoiston todettiin aiheuttavan merkittäviä sakeus- ja retentiohäiriöitä, mikäli sen avulla poistettavan kiintoaineen virtaus tuplaantuisi. Viiraretention säädön todettiin estävän häiriöiden kierron prosessissa, mutta siirtävän ne suoraan rainaan. Retention säädön eikuitenkaan todettu olevan suoranainen häiriön lähde.
Resumo:
This thesis presents briefly the basic operation and use of centrifugal pumps and parallel pumping applications. The characteristics of parallel pumping applications are compared to circuitry, in order to search analogy between these technical fields. The purpose of studying circuitry is to find out if common software tools for solving circuit performance could be used to observe parallel pumping applications. The empirical part of the thesis introduces a simulation environment for parallel pumping systems, which is based on circuit components of Matlab Simulink —software. The created simulation environment ensures the observation of variable speed controlled parallel pumping systems in case of different controlling methods. The introduced simulation environment was evaluated by building a simulation model for actual parallel pumping system at Lappeenranta University of Technology. The simulated performance of the parallel pumps was compared to measured values of the actual system. The gathered information shows, that if the initial data of the system and pump perfonnance is adequate, the circuitry based simulation environment can be exploited to observe parallel pumping systems. The introduced simulation environment can represent the actual operation of parallel pumps in reasonably accuracy. There by the circuitry based simulation can be used as a researching tool to develop new controlling ways for parallel pumps.
Resumo:
Tämä diplomityö käsittelee tuulivoimakäytön simulointia. Tuuligeneraattoreiden yleisimpiä konsepteja tarkastellaan sekä konseptien markkinaosuudet esitetään. Työssä käsitellään tuulivoimakäytön simulointiohjelmistoja, ja esitellään Matlab/Simulink-ohjelmistolla kehitetyn simulointityökalun käyttöliittymä. Käyttöliittymää analysoidaan syvällisemmin kuvaamalla sen kehitykseen liittyneitä vaiheita ja toiminnallisuuden kannalta tehtyjä ratkaisuja. Kehitetystä simulointityökalusta esitetään käyttötapausanalyysi.
Resumo:
The computer is a useful tool in the teaching of upper secondary school physics, and should not have a subordinate role in students' learning process. However, computers and computer-based tools are often not available when they could serve their purpose best in the ongoing teaching. Another problem is the fact that commercially available tools are not usable in the way the teacher wants. The aim of this thesis was to try out a novel teaching scenario in a complicated subject in physics, electrodynamics. The didactic engineering of the thesis consisted of developing a computer-based simulation and training material, implementing the tool in physics teaching and investigating its effectiveness in the learning process. The design-based research method, didactic engineering (Artigue, 1994), which is based on the theoryof didactical situations (Brousseau, 1997), was used as a frame of reference for the design of this type of teaching product. In designing the simulation tool a general spreadsheet program was used. The design was based on parallel, dynamic representations of the physics behind the function of an AC series circuit in both graphical and numerical form. The tool, which was furnished with possibilities to control the representations in an interactive way, was hypothesized to activate the students and promote the effectiveness of their learning. An effect variable was constructed in order to measure the students' and teachers' conceptions of learning effectiveness. The empirical study was twofold. Twelve physics students, who attended a course in electrodynamics in an upper secondary school, participated in a class experiment with the computer-based tool implemented in three modes of didactical situations: practice, concept introduction and assessment. The main goal of the didactical situations was to have students solve problems and study the function of AC series circuits, taking responsibility for theirown learning process. In the teacher study eighteen Swedish speaking physics teachers evaluated the didactic potential of the computer-based tool and the accompanying paper-based material without using them in their physics teaching. Quantitative and qualitative data were collected using questionnaires, observations and interviews. The result of the studies showed that both the group of students and the teachers had generally positive conceptions of learning effectiveness. The students' conceptions were more positive in the practice situation than in the concept introduction situation, a setting that was more explorative. However, it turned out that the students' conceptions were also positive in the more complex assessment situation. This had not been hypothesized. A deeper analysis of data from observations and interviews showed that one of the students in each pair was more active than the other, taking more initiative and more responsibilityfor the student-student and student-computer interaction. These active studentshad strong, positive conceptions of learning effectiveness in each of the threedidactical situations. The group of less active students had a weak but positive conception in the first iv two situations, but a negative conception in the assessment situation, thus corroborating the hypothesis ad hoc. The teacher study revealed that computers were seldom used in physics teaching and that computer programs were in short supply. The use of a computer was considered time-consuming. As long as physics teaching with computer-based tools has to take place in special computer rooms, the use of such tools will remain limited. The affordance is enhanced when the physical dimensions as well as the performance of the computer are optimised. As a consequence, the computer then becomes a real learning tool for each pair of students, smoothly integrated into the ongoing teaching in the same space where teaching normally takes place. With more interactive support from the teacher, the computer-based parallel, dynamic representations will be efficient in promoting the learning process of the students with focus on qualitative reasoning - an often neglected part of the learning process of the students in upper secondary school physics.
Resumo:
Rapid ongoing evolution of multiprocessors will lead to systems with hundreds of processing cores integrated in a single chip. An emerging challenge is the implementation of reliable and efficient interconnection between these cores as well as other components in the systems. Network-on-Chip is an interconnection approach which is intended to solve the performance bottleneck caused by traditional, poorly scalable communication structures such as buses. However, a large on-chip network involves issues related to congestion problems and system control, for instance. Additionally, faults can cause problems in multiprocessor systems. These faults can be transient faults, permanent manufacturing faults, or they can appear due to aging. To solve the emerging traffic management, controllability issues and to maintain system operation regardless of faults a monitoring system is needed. The monitoring system should be dynamically applicable to various purposes and it should fully cover the system under observation. In a large multiprocessor the distances between components can be relatively long. Therefore, the system should be designed so that the amount of energy-inefficient long-distance communication is minimized. This thesis presents a dynamically clustered distributed monitoring structure. The monitoring is distributed so that no centralized control is required for basic tasks such as traffic management and task mapping. To enable extensive analysis of different Network-on-Chip architectures, an in-house SystemC based simulation environment was implemented. It allows transaction level analysis without time consuming circuit level implementations during early design phases of novel architectures and features. The presented analysis shows that the dynamically clustered monitoring structure can be efficiently utilized for traffic management in faulty and congested Network-on-Chip-based multiprocessor systems. The monitoring structure can be also successfully applied for task mapping purposes. Furthermore, the analysis shows that the presented in-house simulation environment is flexible and practical tool for extensive Network-on-Chip architecture analysis.
Resumo:
Wind power is a low-carbon energy production form that reduces the dependence of society on fossil fuels. Finland has adopted wind energy production into its climate change mitigation policy, and that has lead to changes in legislation, guidelines, regional wind power areas allocation and establishing a feed-in tariff. Wind power production has indeed boosted in Finland after two decades of relatively slow growth, for instance from 2010 to 2011 wind energy production increased with 64 %, but there is still a long way to the national goal of 6 TWh by 2020. This thesis introduces a GIS-based decision-support methodology for the preliminary identification of suitable areas for wind energy production including estimation of their level of risk. The goal of this study was to define the least risky places for wind energy development within Kemiönsaari municipality in Southwest Finland. Spatial multicriteria decision analysis (SMCDA) has been used for searching suitable wind power areas along with many other location-allocation problems. SMCDA scrutinizes complex ill-structured decision problems in GIS environment using constraints and evaluation criteria, which are aggregated using weighted linear combination (WLC). Weights for the evaluation criteria were acquired using analytic hierarchy process (AHP) with nine expert interviews. Subsequently, feasible alternatives were ranked in order to provide a recommendation and finally, a sensitivity analysis was conducted for the determination of recommendation robustness. The first study aim was to scrutinize the suitability and necessity of existing data for this SMCDA study. Most of the available data sets were of sufficient resolution and quality. Input data necessity was evaluated qualitatively for each data set based on e.g. constraint coverage and attribute weights. Attribute quality was estimated mainly qualitatively by attribute comprehensiveness, operationality, measurability, completeness, decomposability, minimality and redundancy. The most significant quality issue was redundancy as interdependencies are not tolerated by WLC and AHP does not include measures to detect them. The third aim was to define the least risky areas for wind power development within the study area. The two highest ranking areas were Nordanå-Lövböle and Påvalsby followed by Helgeboda, Degerdal, Pungböle, Björkboda, and Östanå-Labböle. The fourth aim was to assess the recommendation reliability, and the top-ranking two areas proved robust whereas the other ones were more sensitive.
Resumo:
Digital business ecosystems (DBE) are becoming an increasingly popular concept for modelling and building distributed systems in heterogeneous, decentralized and open environments. Information- and communication technology (ICT) enabled business solutions have created an opportunity for automated business relations and transactions. The deployment of ICT in business-to-business (B2B) integration seeks to improve competitiveness by establishing real-time information and offering better information visibility to business ecosystem actors. The products, components and raw material flows in supply chains are traditionally studied in logistics research. In this study, we expand the research to cover the processes parallel to the service and information flows as information logistics integration. In this thesis, we show how better integration and automation of information flows enhance the speed of processes and, thus, provide cost savings and other benefits for organizations. Investments in DBE are intended to add value through business automation and are key decisions in building up information logistics integration. Business solutions that build on automation are important sources of value in networks that promote and support business relations and transactions. Value is created through improved productivity and effectiveness when new, more efficient collaboration methods are discovered and integrated into DBE. Organizations, business networks and collaborations, even with competitors, form DBE in which information logistics integration has a significant role as a value driver. However, traditional economic and computing theories do not focus on digital business ecosystems as a separate form of organization, and they do not provide conceptual frameworks that can be used to explore digital business ecosystems as value drivers—combined internal management and external coordination mechanisms for information logistics integration are not the current practice of a company’s strategic process. In this thesis, we have developed and tested a framework to explore the digital business ecosystems developed and a coordination model for digital business ecosystem integration; moreover, we have analysed the value of information logistics integration. The research is based on a case study and on mixed methods, in which we use the Delphi method and Internetbased tools for idea generation and development. We conducted many interviews with key experts, which we recoded, transcribed and coded to find success factors. Qualitative analyses were based on a Monte Carlo simulation, which sought cost savings, and Real Option Valuation, which sought an optimal investment program for the ecosystem level. This study provides valuable knowledge regarding information logistics integration by utilizing a suitable business process information model for collaboration. An information model is based on the business process scenarios and on detailed transactions for the mapping and automation of product, service and information flows. The research results illustrate the current cap of understanding information logistics integration in a digital business ecosystem. Based on success factors, we were able to illustrate how specific coordination mechanisms related to network management and orchestration could be designed. We also pointed out the potential of information logistics integration in value creation. With the help of global standardization experts, we utilized the design of the core information model for B2B integration. We built this quantitative analysis by using the Monte Carlo-based simulation model and the Real Option Value model. This research covers relevant new research disciplines, such as information logistics integration and digital business ecosystems, in which the current literature needs to be improved. This research was executed by high-level experts and managers responsible for global business network B2B integration. However, the research was dominated by one industry domain, and therefore a more comprehensive exploration should be undertaken to cover a larger population of business sectors. Based on this research, the new quantitative survey could provide new possibilities to examine information logistics integration in digital business ecosystems. The value activities indicate that further studies should continue, especially with regard to the collaboration issues on integration, focusing on a user-centric approach. We should better understand how real-time information supports customer value creation by imbedding the information into the lifetime value of products and services. The aim of this research was to build competitive advantage through B2B integration to support a real-time economy. For practitioners, this research created several tools and concepts to improve value activities, information logistics integration design and management and orchestration models. Based on the results, the companies were able to better understand the formulation of the digital business ecosystem and the importance of joint efforts in collaboration. However, the challenge of incorporating this new knowledge into strategic processes in a multi-stakeholder environment remains. This challenge has been noted, and new projects have been established in pursuit of a real-time economy.
Resumo:
The resurgence of malaria in highland regions of Africa, Oceania and recently in South America underlines the importance of the study of the ecology of highland mosquito vectors of malaria. Since the incidence of malaria is limited by the distribution of its vectors, the purpose of this PhD thesis was to examine aspects of the ecology of Anopheles mosquitoes in the Andes of Ecuador, South America. A historical literature and archival data review (Chapter 2) indicated that Anopheles pseudopunctipennis transmitted malaria in highland valleys of Ecuador prior to 1950, although it was eliminated through habitat removal and the use of chemical insecticides. Other anopheline species were previously limited to low-altitude regions, except in a few unconfirmed cases. A thorough larval collection effort (n=438 attempted collection sites) in all road-accessible parts of Ecuador except for the lowland Amazon basin was undertaken between 2008 - 2010 (Chapter 3). Larvae were identified morphologically and using molecular techniques (mitochondrial COl gene), and distribution maps indicated that all five species collected (Anopheles albimanus, An. pseudopunctipennis, Anopheles punctimacula, Anopheles oswaldoi s.l. and Anopheles eiseni) were more widespread throughout highland regions than previously recorded during the 1940s, with higher maximum altitudes for all except An. pseudopunctipennis (1541 m, 1930 m, 1906 m, 1233 m and 1873 m, respectively). During larval collections, to characterize species-specific larval habitat, a variety of abiotic and biotic habitat parameters were measured and compared between species-present and species-absent sites using chi-square tests and stepwise binary logistic regression analyses (Chapter 4). An. albimanus was significantly associated with permanent pools with sand substrates and An. pseudopunctipennis with gravel and boulder substrates. Both species were significantly associated with floating cyanobacterial mats and warmer temperatures, which may limit their presence in cooler highland regions. Anopheles punctimacula was collected more often than expected from algae-free, shaded pools with higher-than-average calculated dissolved oxygen. Anopheles oswaldoi s.l., the species occurring on the Amazonian side of the Andes, was associated with permanent, anthropogenic habitats such as roadside ditches and ponds. To address the hypothesis that human land use change is responsible for the emergence of multiple highland Anopheles species by creating larval habitat, common land uses in the western Andes were surveyed for standing water and potential larval habitat suitability (Chapter 5). Rivers and road edges provided large amounts of potentially suitable anopheline habitat in the western Andes, while cattle pasture also created potentially suitable habitat in irrigation canals and watering ponds. Other common land uses surveyed (banana farms, sugarcane plantations, mixed tree plantations, and empty lots) were usually established on steep slopes and had very little standing water present. Using distribution and larval habitat data, a GIS-based larval habitat distribution model for the common western species was constructed in ArcGIS v.l 0 (ESRI 2010) using derived data layers from field measurements and other sources (Chapter 6). The additive model predicted 76.4 - 97.9% of the field-observed collection localities of An. albimanus, An. pseudopunctipennis and An. punctimacula, although it could not accurately distinguish between species-absent and speciespresent sites due to its coarse scale. The model predicted distributional expansion and/or shift of one or more anopheline species into the following highland valleys with climate warming: Mira/Chota, Imbabura province, Tumbaco, Pichincha province, Pallatanga and Sibambe, Chimborazo province, and Yungilla, Azuay province. These valleys may serve as targeted sites of future monitoring to prevent highland epidemics of malaria. The human perceptions of malaria and mosquitoes in relation to land management practices were assessed through an interview-based survey (n=262) in both highlands and lowlands, of male and female land owners and managers of five property types (Chapter 7). Although respondents had a strong understanding of where the disease occurs in their own country and of the basic relationship among standing water, mosquitoes and malaria, about half of respondents in potential risk areas denied the current possibility of malaria infection on their own property. As well, about half of respondents with potential anopheline larval habitat did not report its presence, likely due to a highly specific definition of suitable mosquito habitat. Most respondents who are considered at risk of malaria currently use at least one type of mosquito bite prevention, most commonly bed nets. In conclusion, this interdisciplinary thesis examines the occurrence of Anopheles species in the lowland transition area and highlands in Ecuador, from a historic, geographic, ecological and sociological perspective.
Resumo:
Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.
Resumo:
Durch die vermehrte Nachfrage von Biomöhren im Lebensmitteleinzelhandel ist die Anbaufläche ökologisch erzeugter Möhren in den letzten zehn Jahren deutlich angestiegen. Der Anbau konzentriert sich auf bestimmte Regionen und erfolgte damit zunehmend auf großen Schlägen in enger räumlicher und zeitlicher Abfolge. Mit der steigenden Wirtspflanzenpräsenz steigt auch der Befallsdruck durch die Möhrenfliege. Während der Schädling im konventionellen Anbau mit Insektiziden kontrolliert wird, stehen dem Ökologischen Landbau bisher keine direkten Regulative zur Verfügung. Ziel der Untersuchungen war es, unter den Praxisbedingungen des ökologischen Möhrenanbaus einzelbetriebliche und überregionale Muster beteiligter Risikofaktoren im Befallsgeschehen zu identifizieren und so Möglichkeiten einer verbesserten Prävention und Regulation aufzuzeigen. Über einen Zeitraum von drei Jahren wurden auf fünf Betrieben in Niedersachsen und Hessen umfangreiche Felddaten erhoben und diese unter Verwendung von GIS – Software und dem Simulationsmodell SWAT analysiert. Untersuchte Einflussgrößen umfassten (1) die Distanz zu vorjährigen Möhrenfeldern, (2) die zeitliche Möhrenanbauperiode, (3) Vegetationselemente und (4) der experimentelle Einsatz von Fangpflanzen zur Unterdrückung der Fliegenentwicklung. Unter der Berücksichtigung deutlicher einzelbetrieblicher Unterschiede sind die wichtigsten Ergebnisse der Studie wie folgt zu benennen: (1) Auf Betrieben mit Befall im zurückliegenden Anbaujahr zeigte sich die Distanz zu vorjährigen Möhrenfeldern als der wichtigste Risikofaktor. Das Ausbreitungsverhalten der 1. Generation Möhrenfliege erwies sich zudem als situationsgebunden anpassungsfähig. Fliegensumme und Befall waren jeweils in dem zu Vorjahresflächen nächstgelegen Feld am größten, während jeweils dahinter liegende Möhrenschläge entsprechend weniger Fliegenzahlen und Befall auswiesen. Aus den Ergebnissen wird als vorrangige Verbreitungskapazität der 1. Generation Möhrenfliegen innerhalb von 1000 m abgeleitet. (2) Betriebe mit kontinuierlicher Möhren - Anbaubauperiode (ca. April – Oktober), die langfristig die Entwicklung sowohl der 1. als auch der 2. Generation Fliegen unterstützten, verzeichneten stärkere Fliegenprobleme. Hinsichtlich einer verbesserten Prävention wird empfohlen mit einer strikten räumlichen Trennung früher und später Sätze ein Aufschaukeln zwischen den Generationen zu vermeiden. (3) Der Einfluss der Vegetation ließ sich weniger eindeutig interpretieren. Einzelbetriebliche Hinweise, dass Kleingehölze (Hecken und Bäume) im Radius zwischen aktueller und vorjähriger Möhrenfläche die Befallswahrscheinlichkeit erhöhen, konnten mit einem berechneten Gesamtmaß für die regionale holzige Vegetation nicht bestätigt werden. Der großräumigen holzigen Vegetation wird im Vergleich zur Feldrandvegetation daher beim Befallsgeschehen eine geringe Bedeutung zugeschrieben. (4) Drei Meter (vier Dämme) breiter Möhren – Fangstreifen auf den vorjährigen Möhrenfeldern eignen sich bereits ab dem Keimblattstadium, um erhebliches Befallspotential zu binden. Eine mechanische Entfernung der Fangpflanzen (Grubbern) mitsamt dem Befallspotential erzielte in 2008 eine 100 %-ige Unterdrückung der Möhrenfliegenentwicklung, in 2009 jedoch nur zu maximal 41 %. Als mögliche Synthese der Ergebnisse zur Ausbreitung der Möhrenfliegen im Frühjahr und zur zeitlichen Koinzidenz mit der Möhrenentwicklung wird als Empfehlung diskutiert, mit Hilfe einer angepassten Flächenwahl die Fliegenausbreitung räumlich an frühen Sätzen zu binden, um entsprechend befallsarme Regionen für entfernt liegende späte (empfindlichere) Möhrensätze zu schaffen.
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.
Resumo:
We investigate the effect of the epitaxial structure and the acceptor doping profile on the efficiency droop in InGaN/GaN LEDs by the physics based simulation of experimental internal quantum efficiency (IQE) characteristics. The device geometry is an integral part of our simulation approach. We demonstrate that even for single quantum well LEDs the droop depends critically on the acceptor doping profile. The Auger recombination was found to increase stronger than with the third power of the carrier density and has been found to dominate the droop in the roll over zone of the IQE. The fitted Auger coefficients are in the range of the values predicted by atomistic simulations.