267 resultados para Architektur im westlichen Stil


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Laut dem Statistischen Bundesamts ist die Zahl der im Straßenverkehr getöteten Personen zwar rückläufig, jedoch wurden in 2010 in Deutschland noch immer 3648 Personen bei Unfällen im Straßenverkehr getötet, 476 davon waren Fußgänger. In den letzten Dekaden lag der Schwerpunkt der Forschungsarbeiten zur Reduzierung der Verkehrstoten besonders im Bereich des Insassenschutzes. Erst in den letzten Jahren rückte die Thematik des Fußgängerschutzes mehr in den Fokus des öffentlichen Interesses und der Automobilhersteller. Forschungsarbeiten beschäftigen sich mit unterschiedlichen Ansätzen die Folgen einer Kollision zwischen einem Auto und einem Fußgänger zu reduzieren. Hierzu zählen z.B. weiche Aufprallzonen im Frontbereich eines Autos, aufstellende Motorhaube oder auch Fußgängerairbags im Bereich der Frontscheibe. Da passive Ansätze aber nur die Folgen eines Aufpralls am Fahrzeug, nicht aber die Folgen eines Sekundäraufpralls auf dem Boden verringern können, werden parallel Ansätze zur aktiven Kollisionsvermeidung untersucht. Die bisher verfolgten, ebenso wertvollen Ansätze, zeigen jedoch jeweils Schwachpunkte in Ihrer Lösung. So ist der Einsatz der bisherigen bordautonomen Ansätze auf Grund der Anforderungen der verschiedenen Systeme, wie der Notwendigkeit einer direkten, ungestörten Sichtverbindung zwischen Auto und Fußgänger, leider nur eingeschränkt möglich. Kooperative Systeme, die ein zusätzliches, vom Fußgänger mitzuführendes Sende-Empfänger Gerät zur Ermittlung der Fußgängerposition benötigen sind hingegen mit zusätzlichem Aufwand für den Fußgänger verbunden. Auch fehlen den bisher verfolgten Ansätzen Informationen über den Fußgänger, wodurch es schwierig ist, wenn nicht gar manchmal unmöglich, eine Situation korrekt bewerten zu können. Auch sehen diese Systeme keine Warnung des Fußgängers vor. In dieser Arbeit wird ein Verfahren zum Fußgängerschutz betrachtet, welches per Funk ausgetauschte Informationen zur Risikobewertung eines Szenarios nutzt. Hierbei werden neben den vom Auto bekannten Informationen und Parameter, die vom Smartphone des Fußgängers zur Verfügung gestellten Kontextinformationen verwendet. Es werden zum einen die Parameter, Bedingungen und Anforderungen analysiert und die Architektur des Systems betrachtet. Ferner wird das Ergbnis einer Untersuchung zur generellen Umsetzbarkeit mit bereits heute in Smartphone verfügbaren Funktechnolgien vorgestellt. Final werden die bereits vielversprechenden Ergebnisse eines ersten Experiments zur Nutzbarkeit von Sensorinformationen des Smartphones im Bereich der Kollisionsvermeidung vorgestellt und diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit behandelt im Rahmen eines induktiven Ansatzes die Problematik aktueller kommunalpolitischer Zielkonflikte im Umgang mit Baudenkmalen in Deutschland. Dabei wird das Politikfeld Denkmalschutz in seiner kulturell-politischen Mehrdimensionalität unter der Ausgangsfrage untersucht, wie Entscheidungsprozesse verlaufen, bei denen entwicklungsbezogene Interessen und Belange des Denkmalschutzes eine besondere Rolle spielen. Vier Beispielfälle bilden den empirischen Kern der Untersuchung: Ein ortsbildprägendes und architektonisch qualitätsvolles Industriedenkmal wandelt sich mittels staatlicher Förderung zu einer Brachfläche; der Umgebungsschutz eines Gartendenkmals von Weltrang muss den Bedürfnissen des kommerzialisierten Fußballsports den Vortritt lassen; ein historisches Lichtspieltheater wird trotz Massenprotesten von Bürgern zu einem Buchladen umgebaut; eine freistehende Gründerzeitvilla wird unter der Maßgabe maximaler Verkaufsflächengröße durch ein Einkaufszentrum eingehaust. Aufbauend auf einer Analyse der jeweiligen Entscheidungsprozesse werden die Spezifika politischer Auseinandersetzungen um Denkmale fallübergreifend herausgearbeitet. Das Untersuchungsprinzip entspricht einem explorativen Verfahren, wobei der argumentative Austausch als empirischer Schlüssel zu sprachlich materialisierten Deutungsangeboten von Akteuren einen Schwerpunkt der Untersuchung bildet. In der Gegenüberstellung diskursiver Prozesse wird untersucht, wie Deutungsangebote im politischen Prozess entstehen, sich verändern und diskursiv vermittelt werden. Im Mittelpunkt steht der Einblick in das Zusammenspiel empirisch bestimmter Einflussgrößen. Dabei kristallisieren sich mehrere Thesen heraus, die das kulturelle Verständnis, die Rolle des institutionellen Kontextes und die politische Aushandlung als Prozess betreffen. Es wird aufgezeigt, weshalb die Kluft zwischen dem elitären Erhaltungsinteresse der Fachwelt und dem Denkmalverständnis des „Durchschnittsbürgers" als notwendige Triebfeder der denkmalpflegerischen Vermittlungsarbeit und für eine kreative Auseinandersetzung mit dem Denkmal ebenso wie der hoheitliche Denkmalschutz unverzichtbar bleibt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aus den im Rahmen dieser Forschungsarbeit empirisch gewonnenen Erkenntnissen werden Gestaltungsempfehlungen für das Public Debt Management abgeleitet. Diese zeigen, dass ein wirtschaftliches Public Debt Management nicht ein ausschließlich kostenminimierendes (sparsames), sondern ein kosten-risiko-optimales Public Debt Management mit effektiven internen und externen Überwachungsinstrumenten und wirksamer externer Finanzkontrolle sein muss.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die bereits seit einigen Jahren stark in der wissenschaftlichen Literatur diskutierte RFID-Technologie ermöglicht es, Informationen (echt-)zeitnah, detailliert und mit einer höheren Objektivität bereitzustellen. Der Fokus vieler Arbeiten lag dabei vor allem auf RFID-spezifischen Einsatzmöglichkeiten in den Bereichen des Supply Chain- und des Customer Relationship Managements. Aber auch für ein modernes Controlling bzw. für die Managementunterstützung sind Innovationen in der Informationstechnik – hier die Besonderheiten und Eigenschaften von RFID-Daten – von sehr hoher Bedeutung. Dieses Forschungsfeld hat bisher jedoch kaum Beachtung gefunden. Mit der vorliegenden Dissertationsschrift wird versucht, diese Forschungslücke sowohl konzeptionell als auch empirisch zu schließen. Sie gliedert sich zu diesem Zweck in vier Kapitel. Nach einer Einleitung werden im zweiten Kapitel die konzeptionellen Grundlagen geschaffen. Dazu werden verschiedene Controllingkonzeptionen vorgestellt und anhand ausgewählter Kriterien dahingehend überprüft, ob diese dazu geeignet sind, die RFID-Nutzenpotenziale im Controlling darzustellen. Der kontributionsorientierte Ansatz nach Link erweist sich hierbei als zweckmäßiger Controllingansatz. Im zweiten Grundlagenkapitel werden u. a. die Funktionsweise sowie verschiedene Vorteile der RFID-Technologie vorgestellt. Im Hauptkapitel wird zunächst der Stand der Controllingforschung in Bezug auf RFID sowie dessen Einordnung in das Controlling gezeigt. Im Anschluss daran folgt die Arbeit dem systematischen Aufbau des kontributionsorientierten Ansatzes wie folgt: - Harmonisation: RFID auf der Ebene der Unternehmensleitung - Harmonisationsunterstützung: RFID auf der Ebene des Controlling • RFID-Einfluss auf das Zielsystem: Sachziele, Formalziele und Sozialziele • RFID und Vorsteuerung • Der RFID-Beitrag zur Umsetzung der Controllingprinzipien: Entscheidungsfundierung, Koordinationsentlastung und Entscheidungsreflexion Da mit dem RFID-Beitrag zur Vorsteuerung die „Kernleistung“ eines modernen Controlling behandelt wurde, besitzt dieser Punkt eine besonders hohe Relevanz. Den Abschluss der Dissertationsschrift bildet eine empirische Untersuchung (Kapitel vier) zum Status Quo der Nutzung von RFID-Daten bzw. -Informationen im Controlling. Darüber hinaus wurden mögliche Problemfelder der RFID-Nutzung im Controlling respektive der Managementunterstützung offengelegt. Die Diskrepanz zwischen den im theoretischen Teil der Arbeit herausgearbeiteten vielfältigen Nutzenpotenzialen von RFID im Controlling und der tatsächlichen Nutzung von RFID-Daten im Controlling deutscher Unternehmen ist dabei ein wesentliches Ergebnis. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf den weiteren Forschungsbedarf (Kapitel fünf) ab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vom 20. bis zum 23. Februar 2013 fand die zweite Arbeitstagung des Kompetenzzentrums Hochschuldidaktik Mathematik (www.khdm.de) zum Thema „Mathematik im Übergang Schule/Hochschule und im ersten Studienjahr“ statt, auf der Forschungsergebnisse und Erfahrungen aus der Praxis zum Übergang Schule/Hochschule, zu Vor- und Brückenkurse und zum ersten Studienjahr bezogen auf die Studiengänge Bachelor und gymnasiales Lehramt Mathematik, Grund-, Haupt und Realschullehramt Mathematik, Mathematik im Service in den INT-Fächern und den nicht-INT Fächern vorgestellt und diskutiert wurden. Die Extended Abstracts geben einen Überblick über einen Großteil der Vorträge und Posterbeiträge.