118 resultados para Modell

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird ein generisches Modell fuer synchrone Gruppenarbeit auf gemeinsamen Informationsraeumen entwickelt. Fuer die Entwicklung dieses Modells muessen die Grundfunktionen fuer Anwendungen der synchronen Gruppenarbeit realisiert werden. Neben der Modellierung des Datenraumes (Datenmodell) und der operationellen Schnittstelle (Interaktionsmodell), muessen Mechanismen fuer die Darstellung der Aktivitaeten der Gruppenmitglieder auf dem Informationsraum (Awareness), sowie fuer die Synchronisierung gleichzeitiger Zugriffe verschiedener Benutzer auf dem Datenraum realisiert werden (Nebenlaeufgkeitskontrolle). Das Grundproblem bei der Loesung der Nebenlaeufigkeit liegt bei der Aufgabe der Isolation aus den klassischen ACID-Transaktionen zu gunsten von Awareness. Die rapide Entwicklung von Techniken der mobilen Kommunikation ermoeglicht den Einsatz dieser Geraete fuer den Zugriff auf Daten im Internet. Durch UMTSund WLAN-Technologien koennen Mobilgeraete fuer Anwendungen ueber die reine Kommunikation hinaus eingesetzt werden. Eine natuerliche Folge dieser Entwicklung sind Anwendungen fuer die Zusammenarbeit mehrerer Benutzer. In der Arbeit wird daher auf die Unterstuetzung mobiler Geraete besonderen Wert gelegt. Die Interaktion der Benutzer auf den gemeinsamen Datenraum wird durch einfache Navigationsoperationen mit einem Cursor (Finger) realisiert, wobei der Datenraum durch XML-Dokumente dargestellt wird. Die Visualisierung basiert auf der Transformierung von XML-Dokumenten in andere XML-basierte Sprachen wie HTML oder SVG durch XSLT-Stylesheets. Awareness-Informationen werden, aehnlich dem Fokus/Nimbus-Modell, von der Interaktion der Benutzer und der Ermittlung der sichtbaren Objekte bei dem Benutzer hergeleitet. Fuer eine geeignete Kontrolle der Nebenlaeufigkeit wurde der Begriff der visuellen Transaktion eingefuehrt, wo die Auswirkungen einer Transaktion von anderen Benutzern (Transaktionen) beobachtet werden koennen. Die Synchronisierung basiert auf einem Sperrverfahren und der Einfuehrung der neuen W-Sperre und der Grundoperationen readV und writeV. Das Modell (Groupware-Server) wird in der Arbeit in einem Prototyp implementiert. Weiterhin wird eine Java-Anwendung sowohl auf einem Desktop PC als auch auf einem Pocket PC (iPAQ 3970) implementiert, welche die Einsetzbarkeit dieses Prototyps demonstriert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper provides a model for the international market of credit ratings in order to promote transparency of rating methodologies and combat the oligopolistic market structure where Standard & Poor‘s, Moody‘s and Fitch Ratings collectively comprise approximately 85 percent of the market. For the German credit market this paper strongly advises the establishment of at least three centralistic credit rating agencies (CRAs), set up and run independently by the large bank institutions – „Großbanken“, „Sparkassen“ and „Genossenschaftsbanken“. By acting as CRAs, universal banks could not only decrease their costs but would also be able to increase competition and transparency. These new credit rating agencies would be subject to the Basel II internal ratings-based (IRB) surveillance standards that go far beyond the Basel II standard approach with its external ratings by the dominating three US-american CRAs. Due to the fact that the new Basle Accord has already been implemented in Europe, this model could be applied all over Europe and possibly even worldwide, assuming the US were to adopt the new capital adequacy rules. This would lead to an increase in the number of CRAs and hence to more competition, as the barriers to entry in the rating industry would not apply to these new institutions because of their expertise in the credit market. The fact that the IRB-criteria already have to be disclosed by law would make the methodologies transparent and subject to approval by national regulators such as the „Bundesanstalt für Finanzdienstleistungsaufsicht“ (BaFin) in Germany. Hence the requirement to set up a new monitoring committee in Europe would become obsolete.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bildung ist zu einem Gut geworden, das den weiteren Lebensweg für alles öffnen oder auch versperren kann. Dabei ist die Bildung schon lange nicht mehr nur eine Sache der Schulen, auch die Frühkindliche Förderung rückt immer mehr in den Vordergrund. Nicht mehr nur eine Ansammlung von Abschlüssen, sondern Fähigkeiten und Fertigkeiten werden im Mittelpunkt gerückt. Bildung soll den Menschen ermöglichen selbst zu bestimmen und sein eigenes Leben in Beruf, Familien und anderen Bereichen zu führen Deutschland hat im Bereich der Bildungspolitik besonders mit den Folgen der schlechten PISA-Ergebnisse von 2000 zu kämpfen. Die Kritik an dem längst überholten System und der mangelnden Chancengleichheit, besonders bei Schülerinnen und Schülern mit Migrationshintergrund, werden von Seiten der Eltern, Lehrer und Bildungsforscher immer lauter. Der Blick auf den Rest der Welt und dessen Bildungssysteme werden dabei immer wichtiger. Schweden hingegen gilt schon seit Jahrzehnten als Vorzeigeland in Sachen Bildung. Die schwedischen Schüler schneiden bei PISA unter anderem bei der Lesekompetenz deutlich besser ab als die deutschen Schüler. In dieser Arbeit soll der Frage nachgegangen werden, wie Schweden es schafft eine hohe Chancengleichheit in der Bildung durchzusetzen und was Deutschland von diesem Land lernen kann. Besonders die aktuelle PISA- Diskussion steht dabei im Mittelpunkt. Infolge dessen wird besonders auf die Chancengleichheit im Bezug auf die Migrationspolitik eingegangen. Welche Maßnahmen Schweden und Deutschland unternehmen, um Chancengleichheit zu garantieren wird erläutert, um abschließend einen Blick in die Zukunft zu werfen und aufzuzeigen, wie es mit dem deutschen Bildungssystem weiter gehen kann und welche Herausforderungen es gegenüber steht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Markt für öffentlichen Personennahverkehr (ÖPNV) wird liberalisiert, in die gewachsenen Monopolstrukturen werden Marktmechanismen implementiert. Ziel der neuen ordnungspolitischen Rahmenbedingungen ist die Steigerung der Effizienz des defizitären Verkehrsbereichs, der von kommunalen Verkehrsunternehmen dominiert wird. Diese erbringen als Quasi-Monopolisten traditionell die Verkehrsdurchführung, regelmäßig anfallende Defizite werden von der öffentlichen Hand ausgeglichen. Bedingt durch ihre Leistungsstrukturen sind kommunale Verkehrsunternehmen in einem Wettbewerbsmarkt kaum konkurrenzfähig. Charakteristisch für diesen Unternehmenstyp ist der hohe Grad an vertikal integrierten Wertschöpfungsstufen. Im Gegensatz zu anderen Branchen erbringen kommunale Verkehrsunternehmen die wesentlichen Teile der gesamten ÖPNV-Wertschöpfungskette innerhalb der eigenen Unternehmensgrenzen. An dem hohen vertikalen Integrationsgrad setzt die Untersuchung an. Mit dem von Williamson entwickelten Instrumentarium der Transaktionskostentheorie werden die Leistungsbereiche einer transaktionskostentheoretischen Bewertung unterzogen. Als Alternativen zum institutionellen Arrangement der vertikalen Integration – das als Hierarchie bezeichnet wird – stehen die Arrangements Kooperation und Markt zur Verfügung. Die Bewertung zeigt, welche Leistungsbereiche unter transaktionskostentheoretischen Gesichtspunkten hierarchisch institutionalisiert werden sollten und welche alternativ erbracht werden können. Aus den Ergebnissen werden Strategieempfehlungen abgeleitet, die als Arbeitshypothesen einer anschließenden empirischen Überprüfung unterzogen werden. Die befragten ÖPNV-Experten bewerten somit die Marktfähigkeit der Strategieempfehlungen. Die Untersuchungsergebnisse werden für die Erarbeitung eines alternativen Koordinierungsarrangements für kommunale Verkehrsunternehmen herangezogen. Das Modell basiert auf der Grundlage Strategischer Netzwerke. Kommunale Verkehrsunternehmen nehmen in dem Modell die Rolle des Nukleus ein, der eine Vielzahl von Netzwerkpartnern steuert und für die Erbringung der ÖPNV-Leistungen mit diesen kooperiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RNA interference (RNAi) is a recently discovered process, in which double stranded RNA (dsRNA) triggers the homology-dependant degradation of cognate messenger RNA (mRNA). In a search for new components of the RNAi machinery in Dictyostelium, a new gene was identified, which was called helF. HelF is a putative RNA helicase, which shows a high homology to the helicase domain of Dicer, to the helicase domain of Dictyostelium RdRP and to the C. elegans gene drh-1, that codes for a dicer related DExH-box RNA helicase, which is required for RNAi. The aim of the present Ph.D. work was to investigate the role of HelF in PTGS, either induced by RNAi or asRNA. A genomic disruption of the helF gene was performed, which resulted in a distinct mutant morphology in late development. The cellular localization of the protein was elucidated by creating a HelF-GFP fusion protein, which was found to be localized in speckles in the nucleus. The involvement of HelF in the RNAi mechanism was studied. For this purpose, RNAi was induced by transformation of RNAi hairpin constructs against four endogenous genes in wild type and HelF- cells. The silencing efficiency was strongly enhanced in the HelF K.O. strain in comparison with the wild type. One gene, which could not be silenced in the wild type background, was successfully silenced in HelF-. When the helF gene was disrupted in a secondary transformation in a non-silenced strain, the silencing efficiency was strongly improved, a phenomenon named here “retrosilencing”. Transcriptional run-on experiments revealed that the enhanced gene silencing in HelF- was a posttranscriptional event, and that the silencing efficiency depended on the transcription levels of hairpin RNAs. In HelF-, the threshold level of hairpin transcription required for efficient silencing was dramatically lowered. The RNAi-mediated silencing was accompanied by the production of siRNAs; however, their amount did not depend on the level of hairpin transcription. These results indicated that HelF is a natural suppressor of RNAi in Dictyostelium. In contrast, asRNA mediated gene silencing was not enhanced in the HelF K.O, as shown for three tested genes. These results confirmed previous observations (H. Martens and W. Nellen, unpublished) that although similar, RNAi and asRNA mediated gene silencing mechanisms differ in their requirements for specific proteins. In order to characterize the function of the HelF protein on a molecular level and to study its interactions with other RNAi components, in vitro experiments were performed. Besides the DEAH-helicase domain, HelF contains a double-stranded RNA binding domain (dsRBD) at its N-terminus, which showed high similarity to the dsRBD domain of Dicer A from Dictyostelium. The ability of the recombinant dsRBDs from HelF and Dicer A to bind dsRNA was examined and compared. It was shown by gel-shift assays that both HelF-dsRBD and Dicer-dsRBD could bind directly to long dsRNAs. However, HelF-dsRBD bound more efficiently to dsRNA with imperfect matches than to perfect dsRNA. Both dsRBDs bound specifically to a pre-miRNA substrate (pre-let-7). The results suggested that most probably there were two binding sites for the proteins on the pre-miRNA substrate. Moreover, it was shown that HelF-dsRBD and Dicer-dsRBD have siRNA-binding activity. The affinities of the two dsRBDs to the pre-let-7 substrate were also examined by plasmon surface resonance analyses, which revealed a 9-fold higher binding affinity of the Dicer-dsRBD to pre-let-7 compared to that of the HelF-dsRBD. The binding of HelF-dsRBD to the pre-let-7 was impaired in the presence of Mg2+, while the Dicer-dsRBD interaction with pre-let-7 was not influenced by the presence of Mg2+. The results obtained in this thesis can be used to postulate a model for HelF function. In this, HelF acts as a nuclear suppressor of RNAi in wild type cells by recognition and binding of dsRNA substrates. The protein might act as a surveillance system to avoid RNAi initiation by fortuitous dsRNA formation or low abundance of dsRNA trigger. If the protein acts as an RNA helicase, it could unwind fold-back structures in the nucleus and thus lead to decreased RNAi efficiency. A knock-out of HelF would result in initiation of the RNAi pathway even by low levels of dsRNA. The exact molecular function of the protein in the RNAi mechanism still has to be elucidated. RNA interferenz (RNAi) ist ein in jüngster Zeit entdeckter Mechanismus, bei dem doppelsträngige RNA Moleküle (dsRNA) eine Homologie-abhängige Degradation einer verwandten messenger-RNA (mRNA) auslösen. Auf der Suche nach neuen Komponenten der RNAi-Maschinerie in Dictyostelium konnte ein neues Gen (helF) identifiziert werden. HelF ist eine putative RNA-Helikase mit einer hohen Homologie zur Helikasedomäne der bekannten Dicerproteine, der Helikasedomäne der Dictyostelium RdRP und zu dem C. elegans Gen drh-1, welches für eine Dicer-bezogene DExH-box RNA Helikase codiert, die am RNAi-Mechanismus beteiligt ist. Das Ziel dieser Arbeit war es, die Funktion von HelF im Zusammenhang des RNAi oder asRNA induzierten PTGS zu untersuchen. Es wurde eine Unterbrechung des helF-Gens auf genomischer Ebene (K.O.) vorgenommen, was bei den Mutanten zu einer veränderten Morphologie in der späten Entwicklung führte. Die Lokalisation des Proteins in der Zelle konnte mit Hilfe einer GFP-Fusion analysiert werden und kleinen Bereichen innerhalb des Nukleus zugewiesen werden. Im Weiteren wurde der Einfluss von HelF auf den RNAi-Mechanismus untersucht. Zu diesem Zweck wurde RNAi durch Einbringen von RNAi Hairpin-Konstrukten gegen vier endogene Gene im Wiltypstamm und der HelF--Mutante induziert. Im Vergleich zum Wildtypstamm konnte im HelF--Mutantenstamm eine stark erhöhte „Silencing“-Effizienz nachgewiesen werden. Ein Gen, welches nach RNAi Initiation im Wildtypstamm unverändert blieb, konnte im HelF--Mutantenstamm erfolgreich stillgelegt werden. Durch sekundäres Einführen einer Gendisruption im helF-Locus in einen Stamm, in welchem ein Gen nicht stillgelegt werden konnte, wurde die Effizienz des Stilllegens deutlich erhöht. Dieses Phänomen wurde hier erstmals als „Retrosilencing“ beschrieben. Mit Hilfe von transkriptionellen run-on Experimenten konnte belegt werden, dass es sich bei dieser erhöhten Stilllegungseffizienz um ein posttranskriptionelles Ereignis handelte, wobei die Stillegungseffizienz von der Transkriptionsstärke der Hairpin RNAs abhängt. Für die HelF--Mutanten konnte gezeigt werden, dass der Schwellenwert zum Auslösen eines effizienten Stillegens dramatisch abgesenkt war. Obwohl die RNAi-vermittelte Genstilllegung immer mit der Produktion von siRNAs einhergeht, war die Menge der siRNAs nicht abhängig von dem Expressionsniveau des Hairpin-Konstruktes. Diese Ergebnisse legen nahe, dass es sich bei der HelF um einen natürlichen Suppressor des RNAi-Mechanismus in Dictyostelium handelt. Im Gegensatz hierzu war die as-vermittelte Stilllegung von drei untersuchten Genen im HelF-K.O. im Vergleich zum Wildyp unverändert. Diese Ergebnisse bestätigten frühere Beobachtungen (H. Martens und W. Nellen, unveröffentlicht), wonach die Mechanismen für RNAi und asRNA-vermittelte Genstilllegung unterschiedliche spezifische Proteine benötigen. Um die Funktion des HelF-Proteins auf der molekularen Ebene genauer zu charakterisieren und die Interaktion mit anderen RNAi-Komponenten zu untersuchen, wurden in vitro Versuche durchgeführt. Das HelF-Protein enthält, neben der DEAH-Helikase-Domäne eine N-terminale Doppelstrang RNA bindende Domäne (dsRBD) mit einer hohen Ähnlichkeit zu der dsRBD des Dicer A aus Dictyostelium. Die dsRNA-Bindungsaktivität der beiden dsRBDs aus HelF und Dicer A wurde analysiert und verglichen. Es konnte mithilfe von Gel-Retardationsanalysen gezeigt werden, dass sowohl HelF-dsRBD als auch Dicer-dsRBD direkt an lange dsRNAs binden können. Hierbei zeigte sich, dass die HelF-dsRBD eine höhere Affinität zu einem imperfekten RNA-Doppelstrang besitzt, als zu einer perfekt gepaarten dsRNA. Für beide dsRBDs konnte eine spezifische Bindung an ein pre-miRNA Substrat nachgewiesen werden (pre-let-7). Dieses Ergebnis legt nah, dass es zwei Bindestellen für die Proteine auf dem pre-miRNA Substrat gibt. Überdies hinaus konnte gezeigt werden, dass die dsRBDs beider Proteine eine siRNA bindende Aktivität besitzen. Die Affinität beider dsRBDs an das pre-let-7 Substrat wurde weiterhin mit Hilfe der Plasmon Oberflächen Resonanz untersucht. Hierbei konnte eine 9-fach höhere Bindeaffinität der Dicer-dsRBD im Vergleich zur HelF-dsRBD nachgewiesen werden. Während die Bindung der HelF-dsRBD an das pre-let-7 durch die Anwesenheit von Mg2+ beeinträchtigt war, zeigte sich kein Einfluß von Mg2+ auf das Bindeverhalten der Dicer-dsRBD. Mit Hilfe der in dieser Arbeit gewonnen Ergebnisse lässt sich ein Model für die Funktion von HelF postulieren. In diesem Model wirkt HelF durch Erkennen und Binden von dsRNA Substraten als Suppressor von der RNAi im Kern. Das Protein kann als Überwachungsystem gegen eine irrtümliche Auslösung von RNAi wirken, die durch zufällige dsRNA Faltungen oder eine zu geringe Häufigkeit der siRNAs hervorgerufen sein könnte. Falls das Protein eine Helikase-Aktivität besitzt, könnte es rückgefaltete RNA Strukturen im Kern auflösen, was sich in einer verringerten RNAi-Effizienz wiederspiegelt. Durch Ausschalten des helF-Gens würde nach diesem Modell eine erfolgreiche Auslösung von RNAi schon bei sehr geringer Mengen an dsRNA möglich werden. Das Modell erlaubt, die exakte molekulare Funktion des HelF-Proteins im RNAi-Mechanismus weiter zu untersuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.