667 resultados para Bethe-ansatz
Resumo:
Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.
Resumo:
Die Paket- und Expressdienste, als Teil logistischer Distributionssysteme, sind bedeutende Bestandteile unseres Wirtschaftssystems geworden. Nach der erfolgreichen Einführungsphase der Express- und Paketdienstleistung auf dem westeuropäischen Markt, Mitte der 1980-er, entwickelte er sich rasant bis zum Ende der 1990-er, mit teilweise zweistelligen Wachstumsraten. Doch nach Jahren des Booms sind die Paket- und Expressdienstleister im neuen Jahrhundert in einen Zeitabschnitt mit gedämpften Wachstumssteigerungen übergegangen. Der Markt zeichnet sich aus, durch immer kürzer werdende Laufzeiten, bei permanent sinkenden Preisen. Viele Anzeichen deuten darauf hin, dass sich die KEP-Branche auf dem Weg zur Marktreife befindet. Aufgrund dieser Entwicklungen, sind die Anbieter von Paket- und Expressdienstleistungen zunehmend gefordert, ihre Produkte auf Kundenorientierung zu überprüfen, sowie ihre Bindung zum Kunden in den Fokus zu stellen. Darin liegt der Ansatz der Dissertation. Mittels einer empirischen Erhebung wurden Kundenzufriedenheit, Kundenerwartungen und die daraus entstandene Kundenbindung der Verlader, den Einschätzungen der Paket- und Expressdienstleister gegenübergestellt. Die Marktstudie war offen für alle Nutzer und Anbieter von Paket- und Expressdienstleistungen. Die Arbeit lässt sich in drei grössere Themenbereiche unterteilen. Im ersten Themenbereich werden zunächst Grundlagen der Themen Logistik, Kundenzufriedenheit und Kundenbindung geschaffen. Für die Ermittlung der Kundenbindung wurde die Kundenzufriedenheit als wesentliche Determinante gewählt. Der zweite Themenbereich geht auf die aktuellen Probleme der Paket- und Expressdienstleister ein und erläutert, warum sich die Anbieter von Paket- und Expressdienstleistung verstärkt auf den Kunden ausrichten müssen. Im dritten Teil erfolgt die Herleitung der Thesen sowie die Darstellung der empirischen Ergebnisse. Den Abschluss dieses Abschnitts stellt dann die Verifizierung der Thesen, sowie die Erarbeitung von Handlungsempfehlungen auf der Grundlage der gewonnenen Erkenntnisse dar. Mit der Arbeit sollten im Markt für Paket- und Expressdienstleistung folgende Erkenntnislücken geschlossen werden: Zunächst wurde geklärt, wie Anbieter auf die veränderten Produktanforderungen der Kunden reagiert haben und in welchem Umfang die Nachfrager diese bereits nutzen. Ein weiterer zentraler Bereich klärt, wie zufrieden die Kunden dieses Segments mit ihren Dienstleistern sind und wie zufrieden die Anbieter ihre Kunden einschätzen. Außerdem weist die Marktanalyse auf der Grundlage der ermittelten Kundenzufriedenheit auf, wie hoch die Kundenbindung in diesem Markt ist. Der abschliessende Teil der Arbeit zeigt dann auf, aus welchen Gründen sich Kunden für oder gegen einen Dienstleister entscheiden und wo Kunden und Anbieter die grössten Potentiale sehen, die Geschäftsbeziehungen langfristig vertiefend auszubauen.
Resumo:
Die Forschungsarbeit beschäftigt sich schwerpunktmäßig mit der Ausbildung von Bodengewölben über punkt- und linienförmigen Auflagerungen und der Stabilisierung des Gewölbebereiches durch horizontale Bewehrungseinlagen aus Geokunststoffen. Während das Tragverhalten entsprechender Bodengewölbe unter ruhenden Belastungen bereits wissenschaftlich erforscht ist untersucht die Dissertation vornehmlich das Gewölbeverhalten unter nichtruhenden Belastungen. Da die Gewölbemodelle primär im Verkehrswegebau als geokunststoffbewehrte Erdschichten über Pfahlelementen (GEP) ausgeführt werden, ist für die Praxis die Untersuchung der Auswirkung einer nichtruhenden Belastung (Verkehrslast) von besonderer Bedeutung. Methodisch wurden umfangreiche großmaßstäbliche Modellversuche (Maßstab 1:3) zur Gewölbeausbildungen am Pfahlrasterausschnitt sowie am Dammquerschnitt mit Berücksichtigung der Böschungssituation vorgenommen. Die Modellversuche wurden in einer differenzierten numerischen Analyse mit der Methode der finiten Elemente (FEM) verifiziert. Die zyklischen FEM-Modelle basierten dabei auf einem zyklisch-viskoplastischen Stoffansatz. Aufbauend auf den Modellversuchsergebnissen wurden schließlich modifizierte analytische Berechnungsansätze entwickelt. Zusammenfassend kann es bei zyklischen Beanspruchungen im unbewehrten System zu einer Gewölberückbildung und zu erhöhten Systemverformungen kommen. Die Größe der Gewölberückbildung ist abhängig von der Überdeckungshöhe, der Belastungsfrequenz, der Lastzyklenzahl sowie der zyklischen Belastungsamplitude in Relation zur statischen Überlagerungsspannung. Mit abnehmender Höhe, zunehmender Frequenz, zunehmender Zyklenzahl und Belastungsamplitude tritt eine Gewölbereduktion verstärkt ein. Eine erhöhte Primärspannung kann dazu führen, dass die Bodengewölbe überdrückt werden und dadurch gegenüber zyklischer Beanspruchung stabiler sind. Auch bei Anordnung von Bewehrungslagen sind ähnliche Effekte zu beobachten wie im unbewehrten Fall. Mit zunehmender zyklischer Beanspruchung behindern die eingebauten Geokunststoffe allerdings die Ausbildung der Scherfugen, reduzieren dadurch die Setzungen, erhöhen die Lastumlagerung auf die Pfähle und stabilisieren dadurch das System. Aus den Modellversuchen wurde ein vereinfachter Ansatz für die vorhandenen analytischen Berechnungsverfahren in Form eines Gewölbereduktionsfaktors k abgeleitet, mit dem näherungsweise auch für praktische Fälle eine erste Abschätzung der Gewölbereduktion infolge nichtruhender Belastung möglich ist. Ergänzend zu dem Hauptthema der Gewölbeausbildung unter nichtruhenden Lasten unter-sucht die Forschungsarbeit die allgemeine Verwendbarkeit der FEM-Methode zur Berechnung eines GEP-Systems unter ruhender und nichtruhender Belastung, beurteilt die derzeit gültigen Spreizdruckansätze sowie den derzeitigen Verankerungsnachweis für eingelegte Geokunststofflagen und untersucht die Lastabtragung im Geogitter bei dreieckrasterförmiger Lagerung.
Resumo:
In der vorliegenden Arbeit wird ein am Strengths-Modell orientiertes Case Management-Projekt zur Prozess- und Ergebnisoptimierung der bereits bestehenden ambulanten gerontopsychiatrischen Versorgungsstruktur untersucht. Dazu arbeitete eine Krankenpflegerin mit psychiatrischer Fachausbildung in einer Berliner Sozialstation auf Basis einer professionellen Beziehung für 4-6 Wochen bei Klientinnen mit gerontopsychiatrischen Problemlagen, erstellte ein Assessment, leistete notwendige Unterstützung zunächst selbst, vermittelte gestützt auf die eigenen Erfahrungen weiterführende Dienste, leitete diese Dienste an, zog sich dann aus dem direkten Kontakt mit den Klientinnen zurück und blieb beratend für die weiterführenden Dienste verfügbar. Zur Untersuchung des Projekts wurden qualitative und quantitative Verfahren eingesetzt. Zur Beschreibung der Inhalte wurden die für jede Klientin verfasste Dokumentation und die Ergebnisse von grob strukturierten Interviews mit der Case Managerin, angelehnt an eine reduzierte Form der Methode Grounded Theory, in einem iterativen Prozess analysiert. In einem zweiten Schritt wurde dann untersucht, inwieweit die einzelnen Arbeitsinhalte des Case Managements die sozial-räumlichdingliche Umweltanpassung und Proaktivität der Klientinnen unterstützten. Die Wirkungen des Projektes auf Kognition, Aktivitäten des täglichen Lebens (ADL), Instrumentelle Aktivitäten des täglichen Lebens (IADL), Stimmung sowie soziales und störendes Verhalten wurden mittels eines standardisierten Fragebogens mit einem quasi-experimentellen prospektiven Untersuchungsdesign analysiert. Zur Analyse der subjektiven Wirkung des Projektes auf Angehörige wurden in den Ergebnissen von grob strukturierten Interviews mittels eines iterativen Prozesses Themen identifiziert. Die Klientinnen (n=11) erhielten durchschnittlich 23 Stunden Case Management. Neben den typischen Case Management-Aufgaben führte die Case Managerin, basierend auf den Gewohnheiten, Interessen und Selbsteinschätzungen der Klientinnen, therapeutische und pflegerische Maßnahmen durch und unterstützte dabei die sozial-dinglichräumliche Umweltanpassung und Proaktivität der Klientinnen. Zusätzlich wurden Hauspflegerinnen von der Case Managerin individuell in der Wohnung von Klientinnen hinsichtlich der Kommunikation mit und Unterstützung der Proaktivität von Klientinnen angeleitet. Die Hauspflegerinnen führten die von der Case Managerin eingeleiteten Maßnahmen erfolgreich fort. Bei den Klientinnen zeigten sich signifikante Verbesserungen in Gedächtnis, Stimmung, IADL-Funktionen und Sozialverhalten, aber nicht in ADL-Funktionen und störendem Verhalten. Diese Verbesserungen wurden subjektiv von den Angehörigen (n=7) bestätigt. Zusätzlich empfanden Angehörige eine zeitliche aber keine psychische Entlastung. Mit diesem Projekt wurde gezeigt, dass ein zeitlich begrenztes klientenzentriertes Case Management kognitive, soziale und emotionale Funktionen von gerontopsychiatrisch Erkrankten verbessert, Angehörige zeitlich entlastet und dass Hauspflegerinnen bei entsprechender Anleitung die vom Case Management eingeleiteten Maßnahmen fortführen können. In Folgestudien mit größerem Umfang sollten diese Ergebnisse überprüft werden um dann zu entscheiden, ob dieser Ansatz geeignet ist, die ambulante gerontopsychiatrische Versorgung gemeindenah zu verbessern.
Resumo:
In der Arbeit wird ein Ansatz für die destabilisierende Wirkung von adaptiven Hedge-Fonds Aktivitäten diskutiert und mit einer konkreten Implementation für den USD-JPY Carry Trade illustriert. Die sich dabei entwickelnde Marktdynamik wird systemtheoretisch durch den Prozess einer kollektiven Selbstorganisation erklärt. Die Neuerung des vorgestellten Ansatzes liegt darin, dass durch die Kombination von Fallstudien-/Simulations- und systemtheoretischer Methodik ein besserer Zugang zur Erklärung der Entstehung exzessiver Preisentwicklungen in Währungsmärkten gefunden werden konnte, als bisher mit traditionellen Ansätzen möglich war. In der Dissertation wird gezeigt, dass Hedge-Fonds nicht die alleinige Schuld für das Entstehen von Finanzmarktinstabilitäten trifft.
Resumo:
In der Vergangenheit verfolgte die Wasserwirtschaft insbesondere das Ziel, Wasser als Ressource zu nutzen und vom Wasser ausgehende Gefahren, wie zum Beispiel Hochwasser, abzuwehren oder zu vermindern. In den letzten etwa dreißig Jahren stellte sich jedoch eine Veränderung des Verständnisses der Wasserwirtschaft ein. Mit der Einführung des Wasserhaushaltsgesetzes rückte der ökologisch orientierte Gewässerschutz mehr in den Vordergrund, der sich zu einem ganzheitlich gedachten Ansatz entwickelte. Am 22.12.2000 trat die EG-Wasserrahmenrichtlinie der Europäischen Gemeinschaft in Kraft (EG-WRRL). Die Wasserrahmenrichtlinie fordert erstmalig, dass auf der Grundlage eines ökosystemaren Ansatzes ein „guter ökologischer Zustand“ erreicht werden soll. Da der „gute ökologische Zustand“ noch nicht abschließend definiert ist, werden innerhalb Europas derzeit bestehende Klassifizierungssysteme als Indikator für die Bedingungen, denen ein biologischer Zustand zugeordnet wird, benutzt. Die Abschätzung der Wahrscheinlichkeit einer Zielerreichung kann also nur ein Prozess sein, der anhand erster Kriterien vorgenommen und später iterativ verfeinert wird. Dabei ist es von Bedeutung, das Risiko einer Fehleinschätzung zu minimieren, um einerseits sicherzustellen, dass alle hinsichtlich der Zielerreichung unsicheren Gewässer tatsächlich erfasst werden, andererseits aber auch zu verhindern, dass Ressourcen beim Monitoring und möglicherweise bei der Durchführung von Maßnahmen unnötig verbraucht werden. Durch eine Verfeinerung der Kriterien kann dieses Risiko verringert werden. Für die Fließgewässer in Deutschland stellen insbesondere Veränderungen der Gewässermorphologie und Belastungen aufgrund von Nährstoffeinträgen, die besonders in abflussschwachen Gewässerabschnitten häufig zu einer Eutrophierung führen, Probleme dar, die es abzumildern gilt (BMU 2005), um die Ziele der EG-Wasserrahmenrichtlinie erreichen zu können. Vor diesem Hintergrund hat die vorliegende Arbeit zum Ziel, einen methodischen Beitrag zur Risikoanalyse anthropogener Belastungen zu leisten. Im Mittelpunkt standen dabei die folgenden Punkte: 1. Darstellung der Anforderungen bei der Gewässerbewirtschaftung nach Einführung der Europäischen Wasserrahmenrichtlinie. 2. Dokumentation, Analyse und Vergleich der Kriterien und Verfahren im europäischen Kontext(Aufzeigen der relevanten Gewässerbelastungen in Deutschland wie im europäischen Ausland einschließlich eines Vergleichs der Methoden und Datengrundlagen zur Beurteilung signifikanter Gewässerbelastungen). 3. Vergleichende Analyse der ökologischen Bedeutung der im Umweltmanagement angewandten Methoden und Kriterien zur Risikoanalyse hinsichtlich Strukturgüte und Gewässereutrophierung an ausgewählten Fallbeispielen in Hinblick auf Sensitivität, Skalenabhängigkeit sowie weitere Unsicherheiten 4. Entwicklung eines methodischen Vorschlags für eine verbesserte Vorgehensweise bei der verursacherbezogenen Beurteilung der Belastungen vor dem Hintergrund eines effektiven Einsatzes der finanziellen Ressourcen.
Resumo:
Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.
Resumo:
The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).
Resumo:
Der Endocytoseweg in Dictyostelium verläuft über definierte endosomale Reifestadien. Dabei werden die reifenden Endosomen im letzten Stadium durch eine Schicht aus filamentösem Aktin umhüllt. Über die biologische Funktion dieser Aktin-Hülle ist derzeit wenig bekannt. Zum weiteren Erkenntnisgewinn sollten daher unterschiedliche Aktin-interagierende Proteine an die endosomale Aktin-Hülle dirigiert und die sich daraus ergebenden Folgen untersucht werden. Dabei wurde der in Drengk et al., 2003 beschriebene Ansatz aufgegriffen, in dem Proteine durch die Fusion an Vacuolin an die späte endosomale Membran transportiert wurden. Die endosomale Lokalisation von DAip1 bewirkte den vollständigen Verlust der endosomalen Aktin-Hülle, ohne dabei das restliche zelluläre Cytoskelett zu beeinträchtigen. Dabei wird die Depolymerisation vermutlich über die nachgewiesene Interaktion von DAip1 mit dem Aktin-depolymerisierenden Protein Cofilin bewirkt. Einhergehend damit trat eine Aggregation der betroffenen Kompartimente, eine Verzögerung des endocytotischen Transits, sowie eine verstärkte Retention lysosomaler Enzyme auf. Diese Ergebnisse ließen auf eine Funktion der endosomalen Aktin-Hülle als Fusionsinhibitor oder in der Regulation von Recycling-Prozessen an späten Endosomen schließen. Die Verlängerung der endosomalen Verweilzeit des den Arp2/3-Komplex negativ regulierenden Proteins Coronin bewirkte dagegen keine offensichtlichen Veränderungen in den betroffenen Zellen. Diese Beoachtung könnte ein Indiz dafür sein, dass nach der Ausbildung der Aktin-Hülle keine weiteren essentiellen Arp2/3-abhängigen mehr an der endosomalen Membran auftreten. Die endosomale Lokalisation des Aktin-Crosslinkers ABP34 induzierte ebenfalls keine Abweichungen vom Wildtyp-Verhalten. Hierbei besteht allerdings die Möglichkeit, dass die Aktivität des Proteins durch die bereits zuvor beschriebene Calcium-Sensitivität beeintächtigt vorliegt. Eine Verstärkung der endosomalen Hülle konnte trotz der Verwendung unterschiedlicher Ansätze nicht hervorgerufen werden. Offensichtlich wirkt die zusätzliche Expression zentraler Regulatoren der Aktin-Polymerisation in der Zelle cytotoxisch. Die Bindung von VASP an die endosomale Membran bewirkte in den Zellen die Ausbildung voluminöser, cytoplasmatischer „Aktin-Bälle“. Diese riefen in den betroffenen Zellen Defekte in unterschiedlichen Aktin-abhängigen Prozessen, wie der Phago- und Pinocytose, sowie der Cytokinese hervor. Dabei gehen die beobachteten Veränderungen vermutlich auf die nachgewiesene Störung im Gleichgewicht zwischen G- und F-Aktin zurück. Obwohl die Aktin-Bälle an der endosomalen Membran entstehen, weisen sie nach vollendeter Entstehung keine inneren oder äußeren Membranen mehr auf und nehmen nicht mehr aktiv am endocytotischen Geschehen teil. Die nähere Charakterisierung offenbarte große Ähnlichkeit zu den mit unterschiedlichen neurodegenerativen Erkrankungen assoziierten Hirano-Bodies. Über das beobachtbare Lokalisationsverhalten der unterschiedlichen im ersten Teil der Arbeit eingesetzten Vacuolin-Hybridproteine ließ sich die Stärke der Lokalisationsinformationen der fusionierten Aktin-interagierenden Proteine miteinander vergleichen. Dies wurde verwendet, um die einzelnen Proteine gemäß ihres Targeting-Potenzials hierarchisch anzuordnen. Im zweiten Teil der Arbeit wurden dieser Hierarchie die beiden cytoplasmatischen Targeting-Signale für Peroxisomen (PTS1) und den Zellkern (SV40-NLS) hinzugefügt. Der vorgenommene Vergleich dieser in vivo gewonnen Daten aus Dictyostelium mit unterschiedlichen in vitro-Bindungsstudien mit homologen Proteinen anderer Organismen zeigte eine erstaunlich gute Übereinstimmung. Diese Beobachtung lässt auf vergleichbare Targeting-Affinitäten innerhalb der Eukaryoten schließen und belegt, dass die zelluläre Lokalisation eines Proteins relativ sicher anhand der in ihm vorhandenen Bindungs-Affinitäten vorhergesagt werden kann. Durch die Kombination der in vivo- und in vitro-Daten war es auch ohne Kenntnis des Oligomerisierungsgrades und des Interaktionspartners erstmals möglich, die Bindungsstärke von Vacuolin an der endosomalen Membran auf einen definierten Bereich einzugrenzen.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
In der professionsgeschichtlichen Studie ‘Metaphern und Metamorphosen der Landschaft’ wird die Funktion von Leitbildern in der Landespflege erörtert. Leitbilder sind auf fast allen gesellschaftlichen Feldern verbreitet, sowohl im täglichen Leben als auch in der Werbung und im Wissenschaftsbetrieb. Sie gehören auch zum Grundbestand der Landespflege. // In dieser Studie wird analysiert, wie Leitbilder in der Landespflege eingesetzt werden und welche Aufgabe sie erfüllen. Ausgehend von der These, dass die Landespflege für Leitbilder besonders empfänglich ist, weil ihr professionelles Idol ‘Landschaft’ sie dafür disponiert, wird die Genese des modernen Landschaftsbegriffs dargelegt und dabei herausgearbeitet, dass die Metapher Landschaft sowohl ästhetische als auch normative Implikationen enthält, die in der Landespflege als ‘gegenständliche Eigenart’ einer Landschaft aufgefasst werden. Insofern ist Landschaft eine ideologische Formation. Anschließend wird die professionelle Gestalt und Praxis der Landespflege idealtypisch beschrieben und auf die ‘absolute Metapher’ Landschaft bezogen, wobei gezeigt werden kann, dass im Diskurs der Landespflege die entworfenen Leitbilder an die Landschaft anschlussfähig sind. In der Gestaltung von Leitbildern erweist sich die Landespflege als Kulturindustrie. // Die Funktionsweise von Leitbildern und die Leitbildnerei im Allgemeinen werden von einem semiotischen Ansatz her analysiert, der um eine gesellschaftstheoretisch basierte Ideologiekritik ergänzt wird. Leitbilder werden in Reklame und Propaganda eingesetzt, wo sie Gegenstände bzw. Themen, die in eine pragmatische oder politische Debatte eingebunden sind, zuerst ästhetisieren und dann Normen über eingängige Images, Klischees und Phrasen verdinglichen. Insofern erfüllen Leitbilder eine ideologische Aufgabe. Landschaft und Leitbild entsprechen sich im landespflegerischen Diskurs als ideologische Formationen. // Anhand des Leitbildes ‘Nachhaltigkeit’ wird exemplarisch gezeigt, wie Leitbilder in der Landespflege entworfen und eingesetzt werden. ‘Nachhaltigkeit’ ist das wichtigste Leitbild der Landespflege, das in der Professionsgeschichte unter verschiedenen Vorzeichen wiederholt auftritt und z.B. als ‘nachhaltige Entwicklung’ seit den 1990er Jahren durch politische Debatten und auch durch den landespflegerischen Diskurs geistert. Geschichtlich retrospektiv werden die Leitbilder ‘nachhaltige Entwicklung’, ‘nachhaltige Umweltsicherung’, ‘nachhaltiger Ressourcenschutz’ und ‘nachhaltige Fruchtbarkeit’ innerhalb des landespflegerischen Diskurses rekonstruiert. Durch diese Rekonstruktion kann gezeigt werden, dass den Leitbildern der Nachhaltigkeit die Funktion zugrunde liegt, den Zugriff auf ‘freie Güter’ zu monopolisieren sowie zu privatisieren und den autonomen Gebrauch der lokalen Produktionsmittel sowie die Subsistenzwirtschaft zu zerstören. Diese Ausrichtung der Landespflege auf Herrschaft und Industrialisierung kann sowohl an der Entstehungsgeschichte der Landespflege (im Landschaftspark) als auch im Ursprungstext der Nachhaltigkeit (zur Forstwirtschaft) nachgewiesen werden. // Abschließend wird ein Ausblick auf eine Landschaftsplanung gegeben, die nicht an der ästhetisch-normativen Idee Landschaft, sondern am Freiraum als sozial-räumliches Handlungsfeld im Alltag der Menschen orientiert ist.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Die Ausrichtung früherer Jugendforschung auf die Gymnasialjugend soll in der Gegenwart durch ein Konzept chancengleicher Angebote angemessener Entwicklungsaufgaben für alle Jugendlichen in verschiedenen Lernorten überwunden werden. Die theoretische Auseinandersetzung mit den Tendenzen der Verplanung der Jugendbildung gewinnt für Reformen entscheidende Bedeutung. - M. Meads Ansatz einer Theorie dreier Kulturen führt zu einem Verständnis des Wandels der institutionalisierten Jugendbildung. Dieser Wandel ist zugleich ein Abschied von globalen zugunsten pluralistischer und partikularer Bildungskonzepte. Schließlich werden die getrennt organisierten Formen der Jugendbildung auf ihre trennenden und gemeinsamen erzieherischen, helfenden und vorbeugenden Zwecke hin diskutiert.
Resumo:
Diese empirische Studie überprüft den Zusammenhang zwischen universitärer didaktisch-pädagogischer Ausbildung und der Entwicklung der beruflichen Kompetenz angehender Berufsschullehrer unter der besonderen Perspektive, dass die Kompetenzentwicklung die Bereitschaft und Fähigkeit einschließen soll, selbstgesteuertes Lernen von Schülern anzuregen, zu betreuen und zu nachhaltig wirkenden Ergebnissen zu führen. Ableitend aus der Auseinandersetzung mit der Vermittlungsstruktur zwischen theoretischem Wissen über Unterricht und konkreten unterrichtlichen Handlungen stellen Subjektive Theorien und Unterrichtsskripts von Studierenden der Wirtschaftspädagogik an der Universität Kassel die zentralen Untersuchungsgegenstände dar. Die zentrale Forschungsfrage lautet, in welchem Verhältnis die Subjektiven Theorien und die Unterrichtsskripts der Studierenden am Ende ihrer universitären didaktischen Ausbildung zum Unterrichtstyp des selbstgesteuerten Lernens stehen. Einer methodischen Perspektive folgend, die auf die Rekonstruktion deutungs- und handlungsgenerierender kognitiver Strukturen abzielt, wird zur Beantwortung dieser Frage ein Untersuchungsdesign entwickelt, in dem mit Videoanalysen, dem nachträglichen lauten Denken und halbstrukturierten Interviews verschiedene methodische Zugänge miteinander verknüpft werden. Die unterschiedlichen methodischen Zugänge ziehen verschiedene Auswertungsverfahren für die erhobenen Daten nach sich. Während die Analysekriterien zur Auswertung der Videodaten primär auf dem aufgabendidaktischen Ansatz nach Gerdsmeier basieren, lehnt sich die Auswertung der Gesprächsdatensätze an das von Mayring entwickelte Verfahren der qualitativen Inhaltsanalyse an.