1000 resultados para DFG-Projekt
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.
Resumo:
Urease ist ein Enzym, das Harnstoff spaltet und dessen Reaktionsgeschwindigkeit leicht mittels Leitfähigkeitsmessungen bestimmt werden kann. Dieses Experiment kann, als Schüler- oder Demonstrationsversuch, im Biologie- und Chemieunterricht der Oberstufe von qualitativen Betrachtungen bis hin zur Ermittlung komplexer kinetischer Beschreibungen (Michaelis-Menten-Kinetik) ausgewertet werden.
Resumo:
In diesem Bericht werden die Ergebnisse und Fortschritte des Forschungsprojekts ADDOaction vorgestellt. Durch die Entwicklung in den letzten Jahrzehnten wurde das Internet zu einer wichtigen Infrastruktur für Geschäftsprozesse. Beliebige Anwendungen können als Dienste angeboten und übers Internet den Kunden online zur Verfügung gestellt werden. Eine flexible Dienstarchitektur ist dabei durch einen gewissen Grad an Dynamik gekennzeichnet, wo Dienste angepasst, ausgetauscht oder entfernt werden können und eventuell gleichzeitig von verschiedenen Anbietern bereitgestellt werden können. Dienste müssen dabei sowohl die funktionalen als auch die nicht-funktionalen Quality of Service (QoS) Anforderungen der Klienten erfüllen, um Kundenzufriedenheit garantieren zu können. Die Vielzahl der angebotenen Dienste und die unterschiedlichen Anforderungen der Klienten machen eine manuelle Entdeckung und ein manuelles Management der Dienste praktisch unmöglich. ADDOaction adressiert genau diese Probleme einer dienstorientierten Architektur und liefert innovative Lösungen von der automatischen Entdeckung von Diensten bis hin zur Überwachung und zum Management von Diensten zur Laufzeit.
Resumo:
Die im Rahmen des zweijährigen Forschungsprojekts über paläomagnetisch-sedimentologische Analysen sedimentärer Zyklen in der Weddell See und ihre stratigraphische Interpretation durchgeführten Arbeiten lieferten Ergebnisse zur Geschichte glaziomariner Sedimentationsprozesse am antarktischen Kontinentalrand. So konnte für ein Kernprofil mit einer außergewöhnlichen Terassenstruktur eine fazielle Gliederung und stratigraphische Einordnung erreicht werden, die auch auf größere Areale in der Weddell See anwendbar sind. Aufgrund der stratigraphischen Randbedingungen konnten die gewonnenen paläo- und gesteinsmagnetischen Messungen in eine Altersstruktur integriert und zusammen mit den sedimentologischen Parametern im Hinblick auf lokale und regionale Umweltveränderungen interpretiert werden. Insbesondere die gesteinsmagnetischen Analysen haben gezeigt, daß die magnetische Kornfraktion als accessorischer Bestandteil im Gesamtsediment dennoch an die Sortierungsprozesse des terrigenen Sedimenteintrags gekoppelt ist. Die ungewöhnlich deutlichen Variationen korngrößenabhängiger Parameter zeigten weiterhin, daß in Verbindung mit einer hochauflösenden Stratigraphie die magnetische Detailanalyse und ein besseres Verständnis der Sedimentationsprozesse in der Nähe der Schelfeiskante und speziell bei Meeresspiegeltiefständen die Möglichkeit eröffnen, unmittelbar Aussagen über die Bewegungen der Schelfeise und die Qualität der Meereisbedeckungen zu machen. Die gezielte Fortsetzung dieser Arbeiten in anderen Arealen am antarktischen Kontinentalrand ist daher wünschenswert. Die verwendeten Verfahren lassen sich mit den derzeit verfügbaren Instrumenten noch erweitern und versprechen durch die sehr sensitive Methodik detaillierte Aussagen zu glaziomarinen Sedimentationsprozessen.
Resumo:
Hybrid simulation is a technique that combines experimental and numerical testing and has been used for the last decades in the fields of aerospace, civil and mechanical engineering. During this time, most of the research has focused on developing algorithms and the necessary technology, including but not limited to, error minimisation techniques, phase lag compensation and faster hydraulic cylinders. However, one of the main shortcomings in hybrid simulation that has pre- vented its widespread use is the size of the numerical models and the effect that higher frequencies may have on the stability and accuracy of the simulation. The first chapter in this document provides an overview of the hybrid simulation method and the different hybrid simulation schemes, and the corresponding time integration algorithms, that are more commonly used in this field. The scope of this thesis is presented in more detail in chapter 2: a substructure algorithm, the Substep Force Feedback (Subfeed), is adapted in order to fulfil the necessary requirements in terms of speed. The effects of more complex models on the Subfeed are also studied in detail, and the improvements made are validated experimentally. Chapters 3 and 4 detail the methodologies that have been used in order to accomplish the objectives mentioned in the previous lines, listing the different cases of study and detailing the hardware and software used to experimentally validate them. The third chapter contains a brief introduction to a project, the DFG Subshake, whose data have been used as a starting point for the developments that are shown later in this thesis. The results obtained are presented in chapters 5 and 6, with the first of them focusing on purely numerical simulations while the second of them is more oriented towards a more practical application including experimental real-time hybrid simulation tests with large numerical models. Following the discussion of the developments in this thesis is a list of hardware and software requirements that have to be met in order to apply the methods described in this document, and they can be found in chapter 7. The last chapter, chapter 8, of this thesis focuses on conclusions and achievements extracted from the results, namely: the adaptation of the hybrid simulation algorithm Subfeed to be used in conjunction with large numerical models, the study of the effect of high frequencies on the substructure algorithm and experimental real-time hybrid simulation tests with vibrating subsystems using large numerical models and shake tables. A brief discussion of possible future research activities can be found in the concluding chapter.
Resumo:
Im Beitrag wird der Frage nachgegangen, ob eine holistische und eine analytische Auswertungsstrategie schon bei Texten des ersten Grundschuljahres gleichermaßen geeignet sind, um Schreibkompetenz reliabel zu erfassen. Die Analysen zu den insgesamt 540 Texten stammen aus dem DFG-Projekt Narrative Schreibkompetenz in Klasse 1 (NaSch 1). Zunächst wird die Dimensionalität des Konstrukts Schreibkompetenz anhand der analytischen Auswertung untersucht. Im Anschluss werden die mit den beiden Auswertungsstrategien ermittelten Kompetenzwerte unter Berücksichtigung der Textlänge miteinander verglichen. Die Ergebnisse der Rasch-Skalierung der analytischen Kriterien weisen auf eine zweidimensionale Struktur (semantisch-pragmatisch vs. sprachsystematisch) der Schreibkompetenz hin. Dabei zeigt sich ein stärkerer Zusammenhang des holistischen Ratings mit der semantisch-pragmatischen (r = .78) als mit der sprachsystematischen Dimension (r = .47). Die Textlänge wiederum weist eine gleichermaßen hohe Übereinstimmung mit der semantisch-pragmatischen Dimension (r = .63) und dem holistischen Rating auf (r = .62), deren Zusammenhang zueinander aber auch nach Herauspartialisieren der Textlänge deutlich bleibt (r = .64). Zwischen Textlänge und der sprachsystematischen Schreibkompetenz lässt sich dagegen kein bedeutsamer Zusammenhang nachweisen (r = .09). (DIPF/Orig.)
Resumo:
Das im Rahmen des DFG-Schwerpunktprogramms „Kompetenzmodelle“ durchgeführte Projekt „Conditions and Consequences of Classroom Assessment“ (Co²CA) geht in vier Teilstudien der Frage nach, wie formatives Assessment im Unterricht gestaltet werden kann, um sowohl eine präzise Leistungsmessung zu ermöglichen als auch positive Wirkungen auf den Lehr-Lernprozess zu erreichen. Das Project Co²CA leistet damit einen wichtigen Beitrag zur Erforschung zweier Kernelemente formativen Assessments – der detaillierten Diagnose von Schülerleistungen und der Nutzung der gewonnenen Informationen in Form lernförderlichen Feedbacks. Zentrale Idee von formativem Assessment (Lernbegleitende Leistungsbeurteilung und –rückmeldung) ist es mit Hilfe von Leistungsmessungen Informationen über den Lernstand der Schülerinnen und Schüler zu gewinnen und diese Informationen für die Gestaltung des weiteren Lehr- und Lernprozess zu nutzen. Den Lernenden kann auf Basis der Leistungsbeurteilung lernförderliches Feedback gegeben werden, um so die Diskrepanz zwischen Lernstand und Lernziel zu verringern. Die Kernelemente formativem Assessments bestehen also aus einer detaillierten Diagnose des Lernstandes und der Nutzung der gewonnen Informationen – z.B. in Form von Feedback. [...] Das vorliegende Skalenhandbuch dokumentiert die in der Unterrichtsstudie eingesetzten Befragungsinstrumente für Schülerinnen und Schüler sowie für Lehrkräfte. (DIPF/Autor)
Resumo:
BACKGROUND: Creatinine clearance is the most common method used to assess glomerular filtration rate (GFR). In children, GFR can also be estimated without urine collection, using the formula GFR (mL/min x 1.73 m2) = K x height [cm]/Pcr [mumol/L]), where Pcr represents the plasma creatinine concentration. K is usually calculated using creatinine clearance (Ccr) as an index of GFR. The aim of the present study was to evaluate the reliability of the formula, using the standard UV/P inulin clearance to calculate K. METHODS: Clearance data obtained in 200 patients (1 month to 23 years) during the years 1988-1994 were used to calculate the factor K as a function of age. Forty-four additional patients were studied prospectively in conditions of either hydropenia or water diuresis in order to evaluate the possible variation of K as a function of urine flow rate. RESULTS: When GFR was estimated by the standard inulin clearance, the calculated values of K was 39 (infants less than 6 months), 44 (1-2 years) and 47 (2-12 years). The correlation between the values of GFR, as estimated by the formula, and the values measured by the standard clearance of inulin was highly significant; the scatter of individual values was however substantial. When K was calculated using Ccr, the formula overestimated Cin at all urine flow rates. When calculated from Ccr, K varied as a function of urine flow rate (K = 50 at urine flow rates of 3.5 and K = 64 at urine flow rates of 8.5 mL/min x 1.73 m2). When calculated from Cin, in the same conditions, K remained constant with a value of 50. CONCLUSIONS: The formula GFR = K x H/Pcr can be used to estimate GFR. The scatter of values precludes however the use of the formula to estimate GFR in pathophysiological studies. The formula should only be used when K is calculated from Cin, and the plasma creatinine concentration is measured in well defined conditions of hydration.