982 resultados para ASYMPTOTIC BETHE-ANSATZ
Resumo:
The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).
Resumo:
Der Endocytoseweg in Dictyostelium verläuft über definierte endosomale Reifestadien. Dabei werden die reifenden Endosomen im letzten Stadium durch eine Schicht aus filamentösem Aktin umhüllt. Über die biologische Funktion dieser Aktin-Hülle ist derzeit wenig bekannt. Zum weiteren Erkenntnisgewinn sollten daher unterschiedliche Aktin-interagierende Proteine an die endosomale Aktin-Hülle dirigiert und die sich daraus ergebenden Folgen untersucht werden. Dabei wurde der in Drengk et al., 2003 beschriebene Ansatz aufgegriffen, in dem Proteine durch die Fusion an Vacuolin an die späte endosomale Membran transportiert wurden. Die endosomale Lokalisation von DAip1 bewirkte den vollständigen Verlust der endosomalen Aktin-Hülle, ohne dabei das restliche zelluläre Cytoskelett zu beeinträchtigen. Dabei wird die Depolymerisation vermutlich über die nachgewiesene Interaktion von DAip1 mit dem Aktin-depolymerisierenden Protein Cofilin bewirkt. Einhergehend damit trat eine Aggregation der betroffenen Kompartimente, eine Verzögerung des endocytotischen Transits, sowie eine verstärkte Retention lysosomaler Enzyme auf. Diese Ergebnisse ließen auf eine Funktion der endosomalen Aktin-Hülle als Fusionsinhibitor oder in der Regulation von Recycling-Prozessen an späten Endosomen schließen. Die Verlängerung der endosomalen Verweilzeit des den Arp2/3-Komplex negativ regulierenden Proteins Coronin bewirkte dagegen keine offensichtlichen Veränderungen in den betroffenen Zellen. Diese Beoachtung könnte ein Indiz dafür sein, dass nach der Ausbildung der Aktin-Hülle keine weiteren essentiellen Arp2/3-abhängigen mehr an der endosomalen Membran auftreten. Die endosomale Lokalisation des Aktin-Crosslinkers ABP34 induzierte ebenfalls keine Abweichungen vom Wildtyp-Verhalten. Hierbei besteht allerdings die Möglichkeit, dass die Aktivität des Proteins durch die bereits zuvor beschriebene Calcium-Sensitivität beeintächtigt vorliegt. Eine Verstärkung der endosomalen Hülle konnte trotz der Verwendung unterschiedlicher Ansätze nicht hervorgerufen werden. Offensichtlich wirkt die zusätzliche Expression zentraler Regulatoren der Aktin-Polymerisation in der Zelle cytotoxisch. Die Bindung von VASP an die endosomale Membran bewirkte in den Zellen die Ausbildung voluminöser, cytoplasmatischer „Aktin-Bälle“. Diese riefen in den betroffenen Zellen Defekte in unterschiedlichen Aktin-abhängigen Prozessen, wie der Phago- und Pinocytose, sowie der Cytokinese hervor. Dabei gehen die beobachteten Veränderungen vermutlich auf die nachgewiesene Störung im Gleichgewicht zwischen G- und F-Aktin zurück. Obwohl die Aktin-Bälle an der endosomalen Membran entstehen, weisen sie nach vollendeter Entstehung keine inneren oder äußeren Membranen mehr auf und nehmen nicht mehr aktiv am endocytotischen Geschehen teil. Die nähere Charakterisierung offenbarte große Ähnlichkeit zu den mit unterschiedlichen neurodegenerativen Erkrankungen assoziierten Hirano-Bodies. Über das beobachtbare Lokalisationsverhalten der unterschiedlichen im ersten Teil der Arbeit eingesetzten Vacuolin-Hybridproteine ließ sich die Stärke der Lokalisationsinformationen der fusionierten Aktin-interagierenden Proteine miteinander vergleichen. Dies wurde verwendet, um die einzelnen Proteine gemäß ihres Targeting-Potenzials hierarchisch anzuordnen. Im zweiten Teil der Arbeit wurden dieser Hierarchie die beiden cytoplasmatischen Targeting-Signale für Peroxisomen (PTS1) und den Zellkern (SV40-NLS) hinzugefügt. Der vorgenommene Vergleich dieser in vivo gewonnen Daten aus Dictyostelium mit unterschiedlichen in vitro-Bindungsstudien mit homologen Proteinen anderer Organismen zeigte eine erstaunlich gute Übereinstimmung. Diese Beobachtung lässt auf vergleichbare Targeting-Affinitäten innerhalb der Eukaryoten schließen und belegt, dass die zelluläre Lokalisation eines Proteins relativ sicher anhand der in ihm vorhandenen Bindungs-Affinitäten vorhergesagt werden kann. Durch die Kombination der in vivo- und in vitro-Daten war es auch ohne Kenntnis des Oligomerisierungsgrades und des Interaktionspartners erstmals möglich, die Bindungsstärke von Vacuolin an der endosomalen Membran auf einen definierten Bereich einzugrenzen.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
In dieser Arbeit werden zwei Aspekte bei Randwertproblemen der linearen Elastizitätstheorie untersucht: die Approximation von Lösungen auf unbeschränkten Gebieten und die Änderung von Symmetrieklassen unter speziellen Transformationen. Ausgangspunkt der Dissertation ist das von Specovius-Neugebauer und Nazarov in "Artificial boundary conditions for Petrovsky systems of second order in exterior domains and in other domains of conical type"(Math. Meth. Appl. Sci, 2004; 27) eingeführte Verfahren zur Untersuchung von Petrovsky-Systemen zweiter Ordnung in Außenraumgebieten und Gebieten mit konischen Ausgängen mit Hilfe der Methode der künstlichen Randbedingungen. Dabei werden für die Ermittlung von Lösungen der Randwertprobleme die unbeschränkten Gebiete durch das Abschneiden mit einer Kugel beschränkt, und es wird eine künstliche Randbedingung konstruiert, um die Lösung des Problems möglichst gut zu approximieren. Das Verfahren wird dahingehend verändert, dass das abschneidende Gebiet ein Polyeder ist, da es für die Lösung des Approximationsproblems mit üblichen Finite-Element-Diskretisierungen von Vorteil sei, wenn das zu triangulierende Gebiet einen polygonalen Rand besitzt. Zu Beginn der Arbeit werden die wichtigsten funktionalanalytischen Begriffe und Ergebnisse der Theorie elliptischer Differentialoperatoren vorgestellt. Danach folgt der Hauptteil der Arbeit, der sich in drei Bereiche untergliedert. Als erstes wird für abschneidende Polyedergebiete eine formale Konstruktion der künstlichen Randbedingungen angegeben. Danach folgt der Nachweis der Existenz und Eindeutigkeit der Lösung des approximativen Randwertproblems auf dem abgeschnittenen Gebiet und im Anschluss wird eine Abschätzung für den resultierenden Abschneidefehler geliefert. An die theoretischen Ausführungen schließt sich die Betrachtung von Anwendungsbereiche an. Hier werden ebene Rissprobleme und Polarisationsmatrizen dreidimensionaler Außenraumprobleme der Elastizitätstheorie erläutert. Der letzte Abschnitt behandelt den zweiten Aspekt der Arbeit, den Bereich der Algebraischen Äquivalenzen. Hier geht es um die Transformation von Symmetrieklassen, um die Kenntnis der Fundamentallösung der Elastizitätsprobleme für transversalisotrope Medien auch für Medien zu nutzen, die nicht von transversalisotroper Struktur sind. Eine allgemeine Darstellung aller Klassen konnte hier nicht geliefert werden. Als Beispiel für das Vorgehen wird eine Klasse von orthotropen Medien im dreidimensionalen Fall angegeben, die sich auf den Fall der Transversalisotropie reduzieren lässt.
Resumo:
In der professionsgeschichtlichen Studie ‘Metaphern und Metamorphosen der Landschaft’ wird die Funktion von Leitbildern in der Landespflege erörtert. Leitbilder sind auf fast allen gesellschaftlichen Feldern verbreitet, sowohl im täglichen Leben als auch in der Werbung und im Wissenschaftsbetrieb. Sie gehören auch zum Grundbestand der Landespflege. // In dieser Studie wird analysiert, wie Leitbilder in der Landespflege eingesetzt werden und welche Aufgabe sie erfüllen. Ausgehend von der These, dass die Landespflege für Leitbilder besonders empfänglich ist, weil ihr professionelles Idol ‘Landschaft’ sie dafür disponiert, wird die Genese des modernen Landschaftsbegriffs dargelegt und dabei herausgearbeitet, dass die Metapher Landschaft sowohl ästhetische als auch normative Implikationen enthält, die in der Landespflege als ‘gegenständliche Eigenart’ einer Landschaft aufgefasst werden. Insofern ist Landschaft eine ideologische Formation. Anschließend wird die professionelle Gestalt und Praxis der Landespflege idealtypisch beschrieben und auf die ‘absolute Metapher’ Landschaft bezogen, wobei gezeigt werden kann, dass im Diskurs der Landespflege die entworfenen Leitbilder an die Landschaft anschlussfähig sind. In der Gestaltung von Leitbildern erweist sich die Landespflege als Kulturindustrie. // Die Funktionsweise von Leitbildern und die Leitbildnerei im Allgemeinen werden von einem semiotischen Ansatz her analysiert, der um eine gesellschaftstheoretisch basierte Ideologiekritik ergänzt wird. Leitbilder werden in Reklame und Propaganda eingesetzt, wo sie Gegenstände bzw. Themen, die in eine pragmatische oder politische Debatte eingebunden sind, zuerst ästhetisieren und dann Normen über eingängige Images, Klischees und Phrasen verdinglichen. Insofern erfüllen Leitbilder eine ideologische Aufgabe. Landschaft und Leitbild entsprechen sich im landespflegerischen Diskurs als ideologische Formationen. // Anhand des Leitbildes ‘Nachhaltigkeit’ wird exemplarisch gezeigt, wie Leitbilder in der Landespflege entworfen und eingesetzt werden. ‘Nachhaltigkeit’ ist das wichtigste Leitbild der Landespflege, das in der Professionsgeschichte unter verschiedenen Vorzeichen wiederholt auftritt und z.B. als ‘nachhaltige Entwicklung’ seit den 1990er Jahren durch politische Debatten und auch durch den landespflegerischen Diskurs geistert. Geschichtlich retrospektiv werden die Leitbilder ‘nachhaltige Entwicklung’, ‘nachhaltige Umweltsicherung’, ‘nachhaltiger Ressourcenschutz’ und ‘nachhaltige Fruchtbarkeit’ innerhalb des landespflegerischen Diskurses rekonstruiert. Durch diese Rekonstruktion kann gezeigt werden, dass den Leitbildern der Nachhaltigkeit die Funktion zugrunde liegt, den Zugriff auf ‘freie Güter’ zu monopolisieren sowie zu privatisieren und den autonomen Gebrauch der lokalen Produktionsmittel sowie die Subsistenzwirtschaft zu zerstören. Diese Ausrichtung der Landespflege auf Herrschaft und Industrialisierung kann sowohl an der Entstehungsgeschichte der Landespflege (im Landschaftspark) als auch im Ursprungstext der Nachhaltigkeit (zur Forstwirtschaft) nachgewiesen werden. // Abschließend wird ein Ausblick auf eine Landschaftsplanung gegeben, die nicht an der ästhetisch-normativen Idee Landschaft, sondern am Freiraum als sozial-räumliches Handlungsfeld im Alltag der Menschen orientiert ist.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.