38 resultados para Lange, Julius

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RNA interference (RNAi) is a recently discovered process, in which double stranded RNA (dsRNA) triggers the homology-dependant degradation of cognate messenger RNA (mRNA). In a search for new components of the RNAi machinery in Dictyostelium, a new gene was identified, which was called helF. HelF is a putative RNA helicase, which shows a high homology to the helicase domain of Dicer, to the helicase domain of Dictyostelium RdRP and to the C. elegans gene drh-1, that codes for a dicer related DExH-box RNA helicase, which is required for RNAi. The aim of the present Ph.D. work was to investigate the role of HelF in PTGS, either induced by RNAi or asRNA. A genomic disruption of the helF gene was performed, which resulted in a distinct mutant morphology in late development. The cellular localization of the protein was elucidated by creating a HelF-GFP fusion protein, which was found to be localized in speckles in the nucleus. The involvement of HelF in the RNAi mechanism was studied. For this purpose, RNAi was induced by transformation of RNAi hairpin constructs against four endogenous genes in wild type and HelF- cells. The silencing efficiency was strongly enhanced in the HelF K.O. strain in comparison with the wild type. One gene, which could not be silenced in the wild type background, was successfully silenced in HelF-. When the helF gene was disrupted in a secondary transformation in a non-silenced strain, the silencing efficiency was strongly improved, a phenomenon named here “retrosilencing”. Transcriptional run-on experiments revealed that the enhanced gene silencing in HelF- was a posttranscriptional event, and that the silencing efficiency depended on the transcription levels of hairpin RNAs. In HelF-, the threshold level of hairpin transcription required for efficient silencing was dramatically lowered. The RNAi-mediated silencing was accompanied by the production of siRNAs; however, their amount did not depend on the level of hairpin transcription. These results indicated that HelF is a natural suppressor of RNAi in Dictyostelium. In contrast, asRNA mediated gene silencing was not enhanced in the HelF K.O, as shown for three tested genes. These results confirmed previous observations (H. Martens and W. Nellen, unpublished) that although similar, RNAi and asRNA mediated gene silencing mechanisms differ in their requirements for specific proteins. In order to characterize the function of the HelF protein on a molecular level and to study its interactions with other RNAi components, in vitro experiments were performed. Besides the DEAH-helicase domain, HelF contains a double-stranded RNA binding domain (dsRBD) at its N-terminus, which showed high similarity to the dsRBD domain of Dicer A from Dictyostelium. The ability of the recombinant dsRBDs from HelF and Dicer A to bind dsRNA was examined and compared. It was shown by gel-shift assays that both HelF-dsRBD and Dicer-dsRBD could bind directly to long dsRNAs. However, HelF-dsRBD bound more efficiently to dsRNA with imperfect matches than to perfect dsRNA. Both dsRBDs bound specifically to a pre-miRNA substrate (pre-let-7). The results suggested that most probably there were two binding sites for the proteins on the pre-miRNA substrate. Moreover, it was shown that HelF-dsRBD and Dicer-dsRBD have siRNA-binding activity. The affinities of the two dsRBDs to the pre-let-7 substrate were also examined by plasmon surface resonance analyses, which revealed a 9-fold higher binding affinity of the Dicer-dsRBD to pre-let-7 compared to that of the HelF-dsRBD. The binding of HelF-dsRBD to the pre-let-7 was impaired in the presence of Mg2+, while the Dicer-dsRBD interaction with pre-let-7 was not influenced by the presence of Mg2+. The results obtained in this thesis can be used to postulate a model for HelF function. In this, HelF acts as a nuclear suppressor of RNAi in wild type cells by recognition and binding of dsRNA substrates. The protein might act as a surveillance system to avoid RNAi initiation by fortuitous dsRNA formation or low abundance of dsRNA trigger. If the protein acts as an RNA helicase, it could unwind fold-back structures in the nucleus and thus lead to decreased RNAi efficiency. A knock-out of HelF would result in initiation of the RNAi pathway even by low levels of dsRNA. The exact molecular function of the protein in the RNAi mechanism still has to be elucidated. RNA interferenz (RNAi) ist ein in jüngster Zeit entdeckter Mechanismus, bei dem doppelsträngige RNA Moleküle (dsRNA) eine Homologie-abhängige Degradation einer verwandten messenger-RNA (mRNA) auslösen. Auf der Suche nach neuen Komponenten der RNAi-Maschinerie in Dictyostelium konnte ein neues Gen (helF) identifiziert werden. HelF ist eine putative RNA-Helikase mit einer hohen Homologie zur Helikasedomäne der bekannten Dicerproteine, der Helikasedomäne der Dictyostelium RdRP und zu dem C. elegans Gen drh-1, welches für eine Dicer-bezogene DExH-box RNA Helikase codiert, die am RNAi-Mechanismus beteiligt ist. Das Ziel dieser Arbeit war es, die Funktion von HelF im Zusammenhang des RNAi oder asRNA induzierten PTGS zu untersuchen. Es wurde eine Unterbrechung des helF-Gens auf genomischer Ebene (K.O.) vorgenommen, was bei den Mutanten zu einer veränderten Morphologie in der späten Entwicklung führte. Die Lokalisation des Proteins in der Zelle konnte mit Hilfe einer GFP-Fusion analysiert werden und kleinen Bereichen innerhalb des Nukleus zugewiesen werden. Im Weiteren wurde der Einfluss von HelF auf den RNAi-Mechanismus untersucht. Zu diesem Zweck wurde RNAi durch Einbringen von RNAi Hairpin-Konstrukten gegen vier endogene Gene im Wiltypstamm und der HelF--Mutante induziert. Im Vergleich zum Wildtypstamm konnte im HelF--Mutantenstamm eine stark erhöhte „Silencing“-Effizienz nachgewiesen werden. Ein Gen, welches nach RNAi Initiation im Wildtypstamm unverändert blieb, konnte im HelF--Mutantenstamm erfolgreich stillgelegt werden. Durch sekundäres Einführen einer Gendisruption im helF-Locus in einen Stamm, in welchem ein Gen nicht stillgelegt werden konnte, wurde die Effizienz des Stilllegens deutlich erhöht. Dieses Phänomen wurde hier erstmals als „Retrosilencing“ beschrieben. Mit Hilfe von transkriptionellen run-on Experimenten konnte belegt werden, dass es sich bei dieser erhöhten Stilllegungseffizienz um ein posttranskriptionelles Ereignis handelte, wobei die Stillegungseffizienz von der Transkriptionsstärke der Hairpin RNAs abhängt. Für die HelF--Mutanten konnte gezeigt werden, dass der Schwellenwert zum Auslösen eines effizienten Stillegens dramatisch abgesenkt war. Obwohl die RNAi-vermittelte Genstilllegung immer mit der Produktion von siRNAs einhergeht, war die Menge der siRNAs nicht abhängig von dem Expressionsniveau des Hairpin-Konstruktes. Diese Ergebnisse legen nahe, dass es sich bei der HelF um einen natürlichen Suppressor des RNAi-Mechanismus in Dictyostelium handelt. Im Gegensatz hierzu war die as-vermittelte Stilllegung von drei untersuchten Genen im HelF-K.O. im Vergleich zum Wildyp unverändert. Diese Ergebnisse bestätigten frühere Beobachtungen (H. Martens und W. Nellen, unveröffentlicht), wonach die Mechanismen für RNAi und asRNA-vermittelte Genstilllegung unterschiedliche spezifische Proteine benötigen. Um die Funktion des HelF-Proteins auf der molekularen Ebene genauer zu charakterisieren und die Interaktion mit anderen RNAi-Komponenten zu untersuchen, wurden in vitro Versuche durchgeführt. Das HelF-Protein enthält, neben der DEAH-Helikase-Domäne eine N-terminale Doppelstrang RNA bindende Domäne (dsRBD) mit einer hohen Ähnlichkeit zu der dsRBD des Dicer A aus Dictyostelium. Die dsRNA-Bindungsaktivität der beiden dsRBDs aus HelF und Dicer A wurde analysiert und verglichen. Es konnte mithilfe von Gel-Retardationsanalysen gezeigt werden, dass sowohl HelF-dsRBD als auch Dicer-dsRBD direkt an lange dsRNAs binden können. Hierbei zeigte sich, dass die HelF-dsRBD eine höhere Affinität zu einem imperfekten RNA-Doppelstrang besitzt, als zu einer perfekt gepaarten dsRNA. Für beide dsRBDs konnte eine spezifische Bindung an ein pre-miRNA Substrat nachgewiesen werden (pre-let-7). Dieses Ergebnis legt nah, dass es zwei Bindestellen für die Proteine auf dem pre-miRNA Substrat gibt. Überdies hinaus konnte gezeigt werden, dass die dsRBDs beider Proteine eine siRNA bindende Aktivität besitzen. Die Affinität beider dsRBDs an das pre-let-7 Substrat wurde weiterhin mit Hilfe der Plasmon Oberflächen Resonanz untersucht. Hierbei konnte eine 9-fach höhere Bindeaffinität der Dicer-dsRBD im Vergleich zur HelF-dsRBD nachgewiesen werden. Während die Bindung der HelF-dsRBD an das pre-let-7 durch die Anwesenheit von Mg2+ beeinträchtigt war, zeigte sich kein Einfluß von Mg2+ auf das Bindeverhalten der Dicer-dsRBD. Mit Hilfe der in dieser Arbeit gewonnen Ergebnisse lässt sich ein Model für die Funktion von HelF postulieren. In diesem Model wirkt HelF durch Erkennen und Binden von dsRNA Substraten als Suppressor von der RNAi im Kern. Das Protein kann als Überwachungsystem gegen eine irrtümliche Auslösung von RNAi wirken, die durch zufällige dsRNA Faltungen oder eine zu geringe Häufigkeit der siRNAs hervorgerufen sein könnte. Falls das Protein eine Helikase-Aktivität besitzt, könnte es rückgefaltete RNA Strukturen im Kern auflösen, was sich in einer verringerten RNAi-Effizienz wiederspiegelt. Durch Ausschalten des helF-Gens würde nach diesem Modell eine erfolgreiche Auslösung von RNAi schon bei sehr geringer Mengen an dsRNA möglich werden. Das Modell erlaubt, die exakte molekulare Funktion des HelF-Proteins im RNAi-Mechanismus weiter zu untersuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Informationszeitalter erhalten die Neuen Medien eine immer größer werdende Bedeutung. Lange Zeit galten gedruckte Informationen – häufig in Form von Büchern und Zeitschriften – als eigentliche Informationsquelle in den Bibliotheken. Mehr und mehr nehmen jedoch mittlerweile auch multimediale Anwendungen breiteren Raum ein, gilt es doch, sich den veränderten Lese- und insbesondere Informationsgewohnheiten anzupassen. Insbesondere sollen elektronische Informationsquellen und digitale Literatur erschlossen und bereitgestellt werden. Im Zuge dieser Entwicklung wurde durch die hessische Ministerin für Wissenschaft und Kunst am 11.11.1998 in der Gesamthochschulbibliothek Kassel eine neugeschaffene Multi-Media-Thek (MMT) eröffnet. In dieser Multimediathek sollen die Bibliotheksbenutzer die Möglichkeit erhalten, die Neuen Medien zu erkunden und gewinnbringend für ihre Fragestellungen einzusetzen. Neben den mittlerweile weiter verbreiteten Internetarbeitsplätzen haben die Benutzer Gelegenheit, an speziell ausgestatteten Arbeitsplätzen Audio- und Videoanwendungen zu testen. Die zur Verfügung stehenden Arbeitsplätze sind plattformübergreifend gestaltet, neben Windows NT-Rechnern können Macintosh-, Java- und Linux-Rechner benutzt werden. Alle PC-Systeme verfügen über hochauflösende Grafik- und Soundkarten, allerdings müssen zum Abhören von Audio-Medien, DVD’s oder Multimedia-CD’s entsprechende Kopfhörer aufgesetzt werden. Über WinCenter können auch auf Linux- und Macintosh-Rechnern CD-Applikationen aus dem GHB-internen CD-Server angewählt werden. Zur Auswahl stehen derzeit 140 Datenbanken, die zudem ergänzt werden durch entsprechende Datenbankzugriffe auf den Silverplatter-Server der GHB. In separaten Klein-Arbeitsräumen können Audio-Cassetten und Video-Bänder benutzt werden. Natürlich lassen sich auch herkömmliche Dias und Microfiches in den Räumen der MMT betrachten und Ausdrucke über den Reader-Printer bzw. über das Bibliotheksnetz auf einen zentralen Benutzer-Drucker (OCE-Drucksystem mit Entgeldregelung) machen. Als Auslegestelle für DIN-Normen kann im DIN-Katalog über Internet recherchiert und das Ergebnis der Recherche direkt im DIN-Bestand angesehen werden. In einem speziell eingerichteten Macintosh-Pool sind mittels Scanner, Grafikbearbeitungssoftware und OCR-Möglichkeit weitere Bedingungen für multimediales Arbeiten geschaffen. Sie sollen bei entsprechendem Bedarf um digitale Bildbearbeitung (Photo, Video) gegebenenfalls ergänzt werden. Die Bibliothek bietet in den Räumen der Multimediathek entsprechende Schulungen zur effektiven Nutzung der Rechnerausstattung an.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während der letzten 20 Jahre hat sich das Periodensystem bis zu den Elementen 114 und 116 erweitert. Diese sind kernphysikalisch nachgewiesen, so dass jetzt die chemische Untersuchung an erster Selle steht. Nachdem sich das Periodensystem bis zum Element 108 so verhält, wie man es dem Periodensystem nach annimmt, wird in dieser Arbeit die Chemie des Elements 112 untersucht. Dabei geht es um die Adsorptionsenergie auf einer Gold-Ober fläche, weil dies der physikalisch/chemische Prozess ist, der bei der Analyse angewandt wird. Die Methode, die in dieser Arbeit angwandt wird, ist die relativistische Dichtefunktionalmethode. Im ersten Teil wird das Vielkörperproblem in allgemeiner Form behandelt, und im zweiten die grundlegenden Eigenschaften und Formulierungen der Dichtefunktionaltheorie. Die Arbeit beschreibt zwei prinzipiell unterschiedliche Ansätze, wie die Adsorptionsenergie berechnet werden kann. Zum einen ist es die sogenannte Clustermethode, bei der ein Atom auf ein relativ kleines Cluster aufgebracht und dessen Adsorptionsenergie berechnet wird. Wenn es gelingt, die Konvergenz mit der Größe des Clusters zu erreichen, sollte dies zu einem Wert für die Adsorptionsenergie führen. Leider zeigt sich in den Rechnungen, dass aufgrund des zeitlichen Aufwandes die Konvergenz für die Clusterrechnungen nicht erreicht wird. Es werden sehr ausführlich die drei verschiedenen Adsorptionsplätze, die Top-, die Brücken- und die Muldenposition, berechnet. Sehr viel mehr Erfolg erzielt man mit der Einbettungsmethode, bei der ein kleiner Cluster von vielen weiteren Atomen an den Positionen, die sie im Festkörpers auf die Adsorptionsenergie soweit sichergestellt ist, dass physikalisch-chemisch gute Ergebnisse erzielt werden. Alle hier gennanten Rechnungen sowohl mit der Cluster- wie mit der Einbettungsmethode verlangen sehr, sehr lange Rechenzeiten, die, wie oben bereits erwähnt, nicht zu einer Konvergenz für die Clusterrechnungen ausreichten. In der Arbeit wird bei allen Rechnungen sehr detailliert auf die Abhängigkeit von den möglichen Basissätzen eingegangen, die ebenfalls in entscheidender Weise zur Länge und Qualität der Rechnungen beitragen. Die auskonvergierten Rechnungen werden in der Form von Potentialkurven, Density of States (DOS), Overlap Populations sowie Partial Crystal Overlap Populations analysiert. Im Ergebnis zeigt sich, dass die Adsoptionsenergie für das Element 112 auf einer Goldoberfläche ca. 0.2 eV niedriger ist als die Adsorption von Quecksilber auf der gleichen Ober fläche. Mit diesem Ergebnis haben die experimentellen Kernchemiker einen Wert an der Hand, mit dem sie eine Anhaltspunkt haben, wo sie bei den Messungen die wenigen zu erwartenden Ereignisse finden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Vorstellungen einer Rechtsordnung für die Informationsgesellschaft waren lange Zeit von weiten Freiheitsräumen geprägt. Staat und Recht waren in diesen Vorstellungen an den Rand gedrängt. Neue technische Grundlagen sollten auch neue Formen des Zusammenlebens ermöglichen. Die rasanten Veränderungen in den Produktionsmitteln und Produktivkräften weckten Visionen über veränderte Produktionsverhältnisse und Kooperationsbeziehungen. Frühere Analysen und Entwürfe zur Regulierung der Informationsgesellschaft (I.) sollen im Folgenden einem Review unterworfen werden (II.), auf dem aufbauend künftige Handlungsmöglichkeiten erörtert werden sollen (III.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Beispiel der in der Wetterau gelegenen Reichsgrafschaft Solms-Rödelheim werden in der Dissertation die Existenzbedingungen der kleinen und kleinsten selbstständigen Reichsstände im Heiligen Römischen Reich Deutscher Nation der Frühen Neuzeit untersucht. Erkenntnisleitend ist dabei die Frage, ob und wie solche Territorien nicht nur trotz wiederkehrender Existenzbedrohungen bis zum Ende des Alten Reichs überleben konnten, sondern durch welche Strategien es ihnen gelang, dabei teilweise recht erfolgreich zu sein, wobei sich Erfolg durch politische Stabilität und wirtschaftliche Effizienz äußern konnte. Diese Frage rückt die zahlreichen kleinen Stände in den Fokus, nachdem diese lange Zeit marginalisiert und als bloße Objekte im Spiel der mächtigen Fürsten angesehen wurden. Insofern füllt sie eine bis heute evidente Lücke in der historischen Forschung zu frühneuzeitlicher Landesherrschaft, aber auch zum Funktionieren des Reichs als Verbund von Hoch-adelsherrschaften insgesamt. Zu ihrer Beantwortung werden zunächst systematisch die territorialen und rechtlichen Grundlagen reichsgräflicher Herrschaft herausgearbeitet, die aus einer größeren Zahl einzelner Rechts- und Herrschaftstitel zusammengesetzt waren. Die Herrschaft der Reichsgrafen unterschied sich also im 18. Jahrhundert deutlich von derjenigen der meisten Fürsten, die oft eine autonome und einheitliche Landeshoheit hatten herausbilden können. Die verstreut liegenden Gebiete, auf die sie sich bezog, wurden durch eine wirtschaftliche und herrschaftliche Administration verwaltet, die trotz kleiner Dimensionen als auf der Höhe der Zeit befindlich und leistungsfähig bezeichnet werden kann. Sowohl Herrschaft als auch Ökonomie waren dabei jederzeit stark auf die Person des regierenden Reichsgrafen ausge-richtet, weshalb in der Dissertation der Begriff „personale Ökonomie“ analog zur geläufigen „personalen Herrschaft“ entwickelt wird. Die schmale territoriale Basis konnte im späten 17. und im 18. Jahrhundert auf verschiedenen Wegen erweitert werden. Durch eine rigidere Kontrolle über die Weitergabe durch Vererbung durch die Durchsetzung der Primogenitur gelang es zudem, eine neuerliche Zersplitterung beim Tod eines Regenten weitgehend zu verhindern. Dass dies jedoch nicht die Lösung aller Probleme bedeutete, zeigt die Untersuchung der Position des Sekundogenitus, die – insbesondere wenn er der Erbe eines verfeindeten Bruders war – große Bedeutung für die Entwicklung einer Reichsgrafschaft gewinnen konnte. Im letzten Kapitel schließlich rückt das in der Dissertation entwickelte Konzept der „Herrschaft durch Delegation“ in den Mittelpunkt. Danach funktionierte eine Landesherrschaft kleiner und kleinster Reichsstände angesichts der großen Herausforderungen bei gleichzeitig geringer Macht und vergleichsweise wenig leistungsfähiger Verwaltungen dann besonders gut, wenn die Landesherren darauf verzichteten, alle ihnen prinzipiell zustehenden Rechte selbst auszuüben, sondern sie statt dessen an Dritte delegierten. Für die Reichsgrafen von Solms-Rödelheim wird herausgearbeitet, dass besonders Haus und Familie, Ständische Bündnissysteme wie der Wetterauer Grafenverein, der Oberrheinische Reichskreis und innerterritoriale Mediatgewalten, hier v.a. die Gemeinden, große Bedeutung als Träger delegierter Herrschaft besaßen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Inspektion von Schule und Unterricht hat eine lange Tradition. Auf der Grundlage von Dokumenten aus der hessischen Schulgeschichte wird gezeigt, dass anfänglich der einzelne Lehrer, sein sittliches Verhalten und insbesondere sein Umgang mit der unterrichtlichen Disziplin im Zentrum der Beobachtungen stand. Das moderne Inspektionswesen nutzt demgegenüber das sozialwissenschaftliche Instrumentarium um anstelle punktueller Erfolgskontrollen schulische und unterrichtliche Entwicklungsprozesse in ihrer Komplexität zu beobachten, zu beschreiben und zu bewerten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erforschung der Biologie maligner Tumoren beschränkte sich über lange Zeit auf die Suche nach genetischen Veränderungen. Dies hat sich in den letzten Jahren grundlegend geändert, da sich aus dem Wissen um die molekularen Veränderungen in den frühesten histomorphologisch erkennbaren Vorläuferläsionen neue Möglichkeiten zur Früherkennung und Prävention maligner Tumoren ergeben. Darüber hinaus gewinnen Aspekte zur Aufklärung des Krebs- und Progressionsrisikos zunehmend an Bedeutung. Voraussetzung für die Beantwortung dieser medizinischen und tumorbiologischen Fragestellungen war die Etablierung zielgerichteter molekularbiologischer und zytogenetischer Untersuchungsverfahren, die sich auch an Gewebeproben mit geringer Zellzahl, vor allem aus formalinfixierten, in Paraffin eingebetteten Geweben durchführen lassen. Dabei sollten, wenn möglich zeitgleich, multiple Gene in ein und derselben Zellprobe analysierbar sein. Da die individuelle Mutationsbeladung (mutation load) einzelner morphologisch gesunder Gewebe, als Ausdruck eines möglicherweise erhöhten Krebsrisikos, zumeist nur an Einzelzellen bestimmt werden kann, waren hier zur Untersuchung einzelner Gene weitergehend optimierte molekulargenetische Untersuchungstechniken erforderlich. In vorliegender sollten neue Biomarker mittels der DNA-Mikroarray-Technik identifiziert werden, die für eine Aussage über den Krankheitsverlauf verwendet werden können. Dabei wurden Expressionsprofile von normaler Kolonschleimhaut mit Schleimhaut von Kolonkarzinom Patienten verglichen. An diesem Beispiel sollte ferner geprüft werden, in wie weit sich formalin-fixiertes Gewebe (FFPE-Gewebe) derselben Patienten zur Expressionsdiagnostik eignen, um eventuelle retrospektive Studien durchführen zu können. Des Weiteren wurden, ebenfalls mittels DNA-Mikroarray-Technik, Gen-Expressionsprofile am Beispiel des Prostatakarzinoms erstellt, um einen Hinweis auf die Entstehung der Hormon-Therapieresistenz im Verlauf dieser Erkrankung zu erhalten. Es sollte geklärt werden, ob es z.B. Hinweise auf irreguläre Stoffwechselprozesse gibt, chromosomale Translokationsprozesse bzw. differenziell regulierte Gencluster, die einen Hinweis auf die Therapieresistenz liefern könnten. Ferner sollte methodisch analysiert werden, ob die Art der Gewebegewinnung, d.h. transurethrale Resektion im Vergleich zur chirurgischen Totalresektion der Prostata, vergleichbare Gen-Expressionsdaten liefert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Autistische Phänomene haben seit ihrer Entdeckung (Kanner 1943, Asperger 1944) Wissenschaftler verschiedener Disziplinen immer wieder beschäftigt: Psychiater, Neurowissenschaftler, kognitive Psychologen, Säuglingsforscher, Evolutionspsychologen und Psychoanalytiker haben sich sowohl mit der Beschreibung des Krankheitsbildes wie auch mit den psychischen Prozessen, die bei autistischen Phänomenen vorhanden sind, befasst. Wenn man von einem globalen interdisziplinären Ergebnis der Autismus-Forschung sprechen wollte, könnte man behaupten, dass diese sich als eine Möglichkeit anbot, ein umfassenderes Verständnis für psychische Vorgänge im Allgemeinen zu entwickeln. Die Psychoanalyse als eine „Wissenschaft der Subjektivität“ (Meissner 1983) hat eine lange Tradition in der Entwicklung von Theorie- und Behandlungsansätzen entwickelt. Die kognitiv-psychologischen Untersuchungen haben sich ebenfalls ausführlich mit autistischen Phänomenen befasst. Diese Arbeit stellt einen Versuch dar, eine Fragestellung zu entwickeln, die das psychoanalytische Verständnis autistischer Phänomene mit Auffassungen kognitions-psychologischer Autoren zu verbinden und zu vergleichen sucht. Aus der Sichtweise der Psychoanalyse ist das ein Versuch, die interne bzw. narrative Kohärenz (Leuzinger-Bohleber 1995) psychoanalytischen Verständnisses durch die externe Kohärenz des interdisziplinären Dialoges mit einer anderen Wissenschaft her zu stellen. Zugrunde liegt der Versuch einer Vernetzung verschiedener Erkenntnisse im Sinne verschiedener Modelle, die sich gegenseitig bereichern können. Dem Begriff der Theory of Mind, deren Beeinträchtigung von Kognitionswissenschaftlern (Baron-Cohen 1993, 1995; Baron-Cohen et.al. 1985; Hobson 1993, 2007; Frith 1989, 2003) in der Autismusforschung als grundlegendes Merkmal betrachtet wird, werde ich die psychodynamische Betrachtung (Tustin 1972, 1995; 1981, 1989; 1991; Meltzer 1975; Bion 1962, 1992) gegenüber stellen, die eher von einer Dysfunktion projektiv-identifikatorischer Prozesse (-PI) ausgeht, die sich in einem scheinbaren Mangel an diesen Prozessen äußert. Den von Baron-Cohen entwickelten Parametern, die eine phänomenologische Betrachtung autistischer Phänomene ermöglichen, werde ich die intrapsychische und objektbezogene psychoanalytische Betrachtungsweise gegenüberstellen, die postuliert, dass die Projektive Identifizierung als psychisches Phänomen, das der unbewussten averbalen Kommunikation zugrunde liegt, in autistischen Manifestationen beeinträchtig zu sein scheint. Da die Fähigkeit, psychische Phänomene in sich selbst und in anderen wahrzunehmen, der Psyche immanenteste Eigenschaft und gerade in autistischen Phänomenen beeinträchtigt ist, kann die psychoanalytische Konzeptbildung, die sich mit der Struktur des Psychischen und deren prozesshaftem Charakter befasst, den verschiedenen Disziplinen und auch der Autismus Forschung wichtige Anregungen geben. Anhand einer Einzelfalldarstellung, aus der sich psychodynamische Hypothesen entwickelten, die zu einem psychoanalytischen Verständnis führten, versuche ich, eine gewisse Korrespondenz mit Hypothesen aus der „embodied“ kognitiven Psychologie, wie z.B. die Rolle der Projektiven Identifizierung in der Bildung einer „Theory of Mind“ und ihre Beeinträchtigung (-PI) bei autistischen Phänomenen (Mindblindness, Baron-Cohen) herzustellen.