284 resultados para Köln kann auch anders
Resumo:
Cell-cell interactions during embryonic development are crucial in the co-ordination of growth, differentiation and maintenance of many different cell types. To achieve this co-ordination each cell must properly translate signals received from neighbouring cells, into spatially and temporally appropriate developmental responses. A surprisingly limited number of signal pathways are responsible for the differentiation of enormous variety of cell types. As a result, pathways are frequently 'reused' during development. Thus, in mammals the JAK/STAT pathway is required during early embryogenesis, mammary gland formation, hematopoiesis and, finally, plays a pivotal role in immune response. In the canonical way, the JAK/STAT pathway is represented by a transmembrane receptor associated with a Janus kinase (JAK), which upon stimulation by an extra-cellular ligand, phosphorylates itself, the receptor and, finally, the signal transducer and activator of transcription (STAT) molecules. Phosphorylated STATs dimerise and translocate to the nucleus where they activate transcription of target genes. The JAK/STAT pathway has been conserved throughout evolution, and all known components are present in the genome of Drosophila melanogaster. Besides hematopoietic and immunity functions, the pathway is also required during development for processes including embryonic segmentation, tracheal morphogenesis, posterior spiracle formation etc. This study describes Drosophila Ken&Barbie (Ken) as a selective regulator of JAK/STAT signalling. ken mutations identified in a screen for modulators of an eye overgrowth phenotype, caused by over-expression of the pathway ligand unpaired, also interact genetically with the pathway receptor domeless (dome) and the transcription factor stat92E. Over-expression of Ken can phenocopy developmental defects known to be caused by the loss of JAK/STAT signalling. These genetic interactions suggest that Ken may function as a negative regulator of the pathway. Ken has C-terminal Zn-finger domain, presumably for DNA binding, and N-terminal BTB/POZ domain, often found in transcriptional repressors. Using EGFP-fused construct expressed in vivo revealed nuclear accumulation of Ken. Therefore, it is proposed that Ken may act as a suppresser of STAT92E target genes. An in vitro assay, termed SELEX, determined that Ken specifically binds to a DNA sequence, with the essential for DNA recognition core overlapping that of STAT92E. This interesting observation suggests that not all STAT92E sites may also allow Ken binding. Strikingly, when effects of ectopic Ken on the expression of putative JAK/STAT pathway target genes were examined, only a subset of the genes tested, namely vvl, trh and kni, were down-regulated by Ken, whereas some others, such as eve and fj, appeared to be unresponsive. Further analysis of vvl, one of the genes susceptible to ectopic Ken, was undertaken. In the developing hindgut, expression of vvl is JAK/STAT pathway dependent, but remains repressed in the posterior spiracles, despite the stimulation of STAT92E by Upd in their primordia. Importantly, ken is also expressed in the developing posterior spiracles. Strikingly, up-regulation of vvl is observed in these tissues in ken mutant embryos. These imply that while ectopic Ken is sufficient to repress the expression of vvl in the hindgut, endogenous Ken is also necessary to prevent its activation in the posterior spiracles. It is therefore conceivable that ectopic vvl expression in the posterior spiracles of the ken mutants may be the result of de-repression of endogenous STAT92E activity. Another consequence of these observations is a fine balance that must exist between STAT92E and Ken activities. Apparently, endogenous level of Ken is sufficient to repress vvl, but not other, as yet unidentified, JAK/STAT pathway targets, whose presumable activation by STAT92E is required for posterior spiracle development as the embryos mutant for dome, the receptor of the pathway, show severe spiracle defects. These defects are also observed in the embryos mis-expressing Ken. Though it is possible that the posterior spiracle phenotype caused by higher levels of Ken results from a JAK/STAT pathway independent activity, it seems to be more likely that Ken acts in a dosage dependent manner, and extra Ken is able to further antagonise JAK/STAT pathway target genes. While STAT92E binding sites required for target gene expression have been poorly characterised, the existence of genome data allows the prediction of candidate STAT92E sites present in target genes promoters to be attempted. When a 6kb region containing the putative regulatory domains flanking the vvl locus are examined, only a single potential STAT92E binding site located 825bp upstream of the translational start can be detected. Strikingly, this site also includes a perfect Ken binding sequence. Such an in silico observation, though consistent with both Ken DNA binding assay in vitro and regulation of STAT92E target genes in vivo, however, requires further analysis. The JAK/STAT pathway is implicated in a variety of processes during embryonic and larval development as well as in imago. In each case, stimulation of the same transcription factor results in different developmental outcomes. While many potential mechanisms have been proposed and demonstrated to explain such pleiotropy, the present study indicates that Ken may represent another mechanism, with which signal transduction pathways are controlled. Ken selectively down-regulates a subset of potential target genes and so modifies the transcriptional profile generated by activated STAT92E - a mechanism, which may be partially responsible for differences in the morphogenetic processes elicited by JAK/STAT signalling during development.
Resumo:
Aufgrund der breiten aktuellen Verwendung des Mythen-Begriffs in Kunst und Werbung, aber darüber hinaus auch in nahezu allen Bereichen gesellschaftlichen Lebens und vor allem in der Philosophie ergibt sich die Notwendigkeit, einen erweiterten Mythos-Begriff über das Historisch-Authentische hinaus zu verfolgen. Ausgehend von einer strukturalen Annäherung an den Mythos-Begriff im Sinne des von Roland Barthes vorgeschlagenen sekundären semiologischen Systems, d.h. einer semiologischen Sinnverschiebung zur Schaffung einer neuen – mythischen – Bedeutung, fordert diese neue Bedeutung eine Analyse, eine Mythenanalyse heraus. Dies ist deshalb so entscheidend, weil eben diese neue Bedeutung ihr mythisches Profil im Sinne von Hans Blumenberg durch forcierte Bedeutsamkeit für Individuen oder für bestimmte gesellschaftliche Gruppierungen unterlegt, z.B. durch bewusst intensive Wiederholung eines Themas oder durch unerwartete Koinzidenzen von Ereignissen oder durch Steigerung bzw. Depotenzierung von Fakten. Der erweiterte Mythen-Begriff verlangt nach einer Strukturierung und führt dabei zu unterschiedlichen Mythen-Ansätzen: zum Ursprungsstoff des authentischen Mythos und darauf basierender Geisteslage, zum Erkennen eines reflektierten Mythos, wenn es um das Verhältnis Mythos/Aufklärung geht, zum Zeitgeist-Mythos mit seinen umfangreichen Ausprägungen ideologischer, affirmativer und kritischer Art oder zu Alltagsmythen, die sich auf Persönlichkeitskulte und Sachverherrlichungen beziehen. Gerade der letztere Typus ist das Terrain der Werbung, die über den Gebrauchswert eines Produktes hinaus Wert steigernde Tauschwerte durch symbolische Zusatzattribute erarbeiten möchte. Hierbei können Markenmythen unterschiedlichster Prägung entstehen, denen wir täglich im Fernsehen oder im Supermarkt begegnen. Die Manifestation des Mythos in der Kunst ist einerseits eine unendliche Transformationsgeschichte mythischer Substanzen und andererseits ein überhöhender Bezug auf Zeitgeisterscheinungen, etwa bei dem Mythos des Künstlers selbst oder der durch ihn vorgenommenen „Verklärung des Gewöhnlichen“. Die Transformationsprozesse können u.a . prototypisch an zwei Beispielketten erläutert werden, die für den Kunst/Werbung-Komplex besonders interessant sind, weil ihr Charakter sich in einem Fall für die Werbung als äußerst Erfolg versprechend erwiesen hat und weil sich im zweiten Fall geradezu das Gegenteil abzeichnet: Zum einen ist es die Mythengestalt der Nymphe, jene jugendliche, erotisch-verführerische Frauengestalt, die über ihre antiken Wurzeln als Sinnbild der Lebensfreude und Fruchtbarkeit hinaus in und nach der Renaissance ihre Eignung als Verbildlichung der Wiederzulassung des Weiblichen in der Kunst beweist und schließlich der Instrumen-talisierung der Werbung dient. Im anderen Fall ist es die Geschichte der Medusa, die man idealtypisch als die andere Seite der Nympha bezeichnen kann. Hier hat Kunst Auf-klärungsarbeit geleistet, vor allem durch die Verschiebung des medusischen Schreckens von ihr weg zu einer allgemein-medusischen Realität, deren neue Träger nicht nur den Schrecken, sondern zugleich ihre Beteiligung an der Schaffung dieses Schreckens auf sich nehmen. Mythosanalyse ist erforderlich, um die Stellungnahmen der Künstler über alle Epochen hinweg und dabei vor allem diese Transformationsprozesse zu erkennen und im Sinne von Ent- oder Remythologisierung einzuordnen. Die hierarchische Zuordnung der dabei erkannten Bedeutungen kann zu einem Grundbestandteil einer praktischen Philosophie werden, wenn sie einen Diskurs durchläuft, der sich an Jürgen Habermas’ Aspekt der Richtigkeit für kommunikatives Handeln unter dem Gesichtspunkt der Toleranz orientiert. Dabei ist nicht nur zu beachten, dass eine verstärkte Mythenbildung in der Kunst zu einem erweiterten Mythen-begriff und damit zu dem erweiterten, heute dominierenden Kunstbegriff postmoderner Prägung geführt hat, sondern dass innerhalb des aktuellen Mythenpakets sich die Darstellungen von Zeitgeist- und Alltagsmythen zu Lasten des authentischen und des reflektierten Mythos entwickelt haben, wobei zusätzlich werbliche Markenmythen ihre Entstehung auf Verfahrensvorbildern der Kunst basieren. Die ökonomische Rationalität der aktuellen Gesellschaft hat die Mythenbildung keines-wegs abgebaut, sie hat sie im Gegenteil gefördert. Der neuerliche Mythenbedarf wurde stimuliert durch die Sinnentleerung der zweckrationalisierten Welt, die Ersatzbedarf anmeldete. Ihre Ordnungsprinzipien durchdringen nicht nur ihre Paradedisziplin, die Ökonomie, sondern Politik und Staat, Wissenschaft und Kunst. Das Umschlagen der Aufklärung wird nur zu vermeiden sein, wenn wir uns Schritt für Schritt durch Mythenanalyse unserer Unmündigkeit entledigen.
Resumo:
The utilization and management of arbuscular mycorrhiza (AM) symbiosis may improve production and sustainability of the cropping system. For this purpose, native AM fungi (AMF) were sought and tested for their efficiency to increase plant growth by enhanced P uptake and by alleviation of drought stress. Pot experiments with safflower (Carthamus tinctorius) and pea (Pisum sativum) in five soils (mostly sandy loamy Luvisols) and field experiments with peas were carried out during three years at four different sites. Host plants were grown in heated soils inoculated with AMF or the respective heat sterilized inoculum. In the case of peas, mutants resistant to AMF colonization were used as non-mycorrhizal controls. The mycorrhizal impact on yields and its components, transpiration, and P and N uptake was studied in several experiments, partly under varying P and N levels and water supply. Screening of native AMF by most probable number bioassays was not very meaningful. Soil monoliths were placed in the open to simulate field conditions. Inoculation with a native AMF mix improved grain yield, shoot and leaf growth variables as compared to control. Exposed to drought, higher soil water depletion of mycorrhizal plants resulted in a haying-off effect. The growth response to this inoculum could not be significantly reproduced in a subsequent open air pot experiment at two levels of irrigation and P fertilization, however, safflower grew better at higher P and water supply by multiples. The water use efficiency concerning biomass was improved by the AMF inoculum in the two experiments. Transpiration rates were not significantly affected by AM but as a tendency were higher in non-mycorrhizal safflower. A fundamental methodological problem in mycorrhiza field research is providing an appropriate (negative) control for the experimental factor arbuscular mycorrhiza. Soil sterilization or fungicide treatment have undesirable side effects in field and greenhouse settings. Furthermore, artificial rooting, temperature and light conditions in pot experiments may interfere with the interpretation of mycorrhiza effects. Therefore, the myc- pea mutant P2 was tested as a non-mycorrhizal control in a bioassay to evaluate AMF under field conditions in comparison to the symbiotic isogenetic wild type of var. FRISSON as a new integrative approach. However, mutant P2 is also of nod- phenotype and therefore unable to fix N2. A 3-factorial experiment was carried out in a climate chamber at high NPK fertilization to examine the two isolines under non-symbiotic and symbiotic conditions. P2 achieved the same (or higher) biomass as wild type both under good and poor water supply. However, inoculation with the AMF Glomus manihot did not improve plant growth. Differences of grain and straw yields in field trials were large (up to 80 per cent) between those isogenetic pea lines mainly due to higher P uptake under P and water limited conditions. The lacking N2 fixation in mutants was compensated for by high mineral N supply as indicated by the high N status of the pea mutant plants. This finding was corroborated by the results of a major field experiment at three sites with two levels of N fertilization. The higher N rate did not affect grain or straw yields of the non-fixing mutants. Very efficient AMF were detected in a Ferric Luvisol on pasture land as revealed by yield levels of the evaluation crop and by functional vital staining of highly colonized roots. Generally, levels of grain yield were low, at between 40 and 980 kg ha-1. An additional pot trial was carried out to elucidate the strong mycorrhizal effect in the Ferric Luvisol. A triplication of the plant equivalent field P fertilization was necessary to compensate for the mycorrhizal benefit which was with five times higher grain yield very similar to that found in the field experiment. However, the yield differences between the two isolines were not always plausible as the evaluation variable because they were also found in (small) field test trials with apparently sufficient P and N supply and in a soil of almost no AMF potential. This similarly occurred for pea lines of var. SPARKLE and its non-fixing mycorrhizal (E135) and non-symbiotic (R25) isomutants, which were tested in order to exclude experimentally undesirable benefits by N2 fixation. In contrast to var. FRISSON, SPARKLE was not a suitable variety for Mediterranean field conditions. This raises suspicion putative genetic defects other than symbiotic ones may be effective under field conditions, which would conflict with the concept of an appropriate control. It was concluded that AMF resistant plants may help to overcome fundamental problems of present research on arbuscular mycorrhiza, but may create new ones.
Resumo:
Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.
Resumo:
Der Janus Kinase / signal transducer and activator of transcription (JAK/STAT) Signal- transduktionsweg wird für viele Entwicklungsvorgänge benötigt und spielt eine zentrale Rolle bei der Hämatopoese und bei der Immunantwort. Obwohl der JAK/STAT-Signalweg in den vergangenen Jahren Gegenstand intensiver Forschung war, erschwert die Redundanz des Signalwegs bei Wirbeltieren genetische Untersuchungen zur Identifizierung derjenigen Mechanismen, die den JAK/STAT-Signalweg regulieren. Der JAK/STAT-Signaltransduktionsweg ist evolutionär konserviert und ebenfalls bei der Taufliege Drosophila melanogaster vorhanden. Im Gegensatz zu Wirbeltieren ist der Signaltransduktionsweg von Drosophila weniger redundant und beinhaltet folgende Hauptkomponenten: den Liganden Unpaired (Upd), den Transmembranrezeptor Domeless (Dome), die einzige JAK-Tyrosinkinase Hopscotch (hop), sowie den Transkriptionsfaktor STAT92E. In der vorliegenden Arbeit wird die Rolle des JAK/STAT-Signalwegs bei der zellulären Proliferation mithilfe der Modellsysteme der Flügel- und der Augen-Imaginalscheiben von Drosophila charakterisiert. "Loss-of-function"- und "Gain-of-function"-Experimente zur Verminderung beziehungs-weise Erhöhung der Signalaktivität zeigten, dass der JAK/STAT-Signalweg eine Rolle bei der zellulären Proliferation der Flügel-Imaginalscheiben spielte, ohne die Zellgröße oder Apoptose zu verändern. Bei der Flügelentwicklung während des zweiten und des frühen dritten Larvalstadiums war die Aktivität des JAK/STAT-Signalwegs sowohl notwendig für die zelluläre Proliferation als auch hinreichend, um Überproliferation anzutreiben. Allerdings änderte sich während der späten dritten Larvalstadien die JAK/STAT-Signalaktivität, sodass endogene STAT92E-Mengen einen anti-proliferativen Effekt im gleichen Gewebe aufwiesen. Weiterhin reichte die ektopische Aktivierung des JAK/STAT-Signalwegs zu diesem späten Entwicklungszeitpunkt aus, um die Mitose zu inhibieren und die Zellen in der Phase G2 des Zellzyklus zu arretieren. Diese Ergebnisse legen den Schluss nahe, dass der JAK/STAT-Signalweg sowohl pro-proliferativ in frühen Flügelscheiben als auch anti-proliferativ zu späten Stadien der Flügelscheiben-Entwicklung wirken kann. Dieser späte anti-proliferative Effekt wurde durch einen nicht-kanonischen Mechanismus der STAT92E-Aktivierung vermittelt, da späte hop defiziente Zellverbände im Vergleich zu Wildtyp-Zellen keine Veränderungen im Ausmaß der zellulären Proliferation aufwiesen. Ferner konnte gezeigt werden, dass eine während der Larvalstadien exprimierte dominant-negative und im N-Terminus deletierte Form von STAT92E (?NSTAT92E) nicht für den anti-proliferativen Effekt verantwortlich ist. Diese Tatsache ist ein weiteres Indiz dafür, dass das vollständige STAT92E den späten anti-proliferativen Effekt verursacht. Um Modulatoren für die von JAK/STAT vermittelte zelluläre Proliferation zu identifieren, wurde ein P-Element-basierter genetischer Interaktions-Screen in einem sensibilisierten genetischen Hintergrund durchgeführt. Insgesamt wurden dazu 2267 unabhängige P-Element-Insertionen auf ihre Wechselwirkung mit der JAK/STAT-Signalaktivität untersucht und 24 interagierende Loci identifiziert. Diese Kandidaten können in folgende Gruppen eingeordnet werden: Zellzyklusproteine, Transkriptionsfaktoren, DNA und RNA bindende Proteine, ein Mikro-RNA-Gen, Komponenten anderer Signaltransduktionswege und Zelladhäsionsproteine. In den meisten Fällen wurden mehrere Allele der interagierenden Kandidatengene getestet. 18 Kandidatengene mit übereinstimmend interagierenden Allelen wurden dann zur weiteren Analyse ausgewählt. Von diesen 18 Kandidaten-Loci wurden 7 mögliche JAK/STAT-Signalwegskomponenten und 6 neue Zielgene des Signalwegs gefunden. Zusammenfassend wurde das Verständnis um STAT92E verbessert. Dieses Protein hat die gleiche Funktion wie das STAT3-Protein der Wirbeltiere und treibt die zelluläre Proliferation voran. Analog zu STAT1 hat STAT92E aber auch einen anti-proliferativen Effekt. Ferner wurden 24 mögliche Modulatoren der JAK/STAT-Signalaktivität identifiziert. Die Charakterisierung dieser Wechselwirkungen eröffnet vielversprechende Wege zu dem Verständnis, wie JAK/STAT die zelluläre Proliferation reguliert und könnte bei der Entwicklung von neuartigen therapeutischen Targets zur Behandlung von Krebskrankheiten und Entwicklungsstörungen beitragen.
Polarization and correlation phenomena in the radiative electron capture by bare highly-charged ions
Resumo:
In dieser Arbeit wird die Wechselwirkung zwischen einem Photon und einem Elektron im starken Coulombfeld eines Atomkerns am Beispiel des radiativen Elektroneneinfangs beim Stoß hochgeladener Teilchen untersucht. In den letzten Jahren wurde dieser Ladungsaustauschprozess insbesondere für relativistische Ion–Atom–Stöße sowohl experimentell als auch theoretisch ausführlich erforscht. In Zentrum standen dabei haupsächlich die totalen und differentiellen Wirkungsquerschnitte. In neuerer Zeit werden vermehrt Spin– und Polarisationseffekte sowie Korrelationseffekte bei diesen Stoßprozessen diskutiert. Man erwartet, dass diese sehr empfindlich auf relativistische Effekte im Stoß reagieren und man deshalb eine hervorragende Methode zu deren Bestimmung erhält. Darüber hinaus könnten diese Messungen auch indirekt dazu führen, dass man die Polarisation des Ionenstrahls bestimmen kann. Damit würden sich neue experimentelle Möglichkeiten sowohl in der Atom– als auch der Kernphysik ergeben. In dieser Dissertation werden zunächst diese ersten Untersuchungen zu den Spin–, Polarisations– und Korrelationseffekten systematisch zusammengefasst. Die Dichtematrixtheorie liefert hierzu die geeignete Methode. Mit dieser Methode werden dann die allgemeinen Gleichungen für die Zweistufen–Rekombination hergeleitet. In diesem Prozess wird ein Elektron zunächst radiativ in einen angeregten Zustand eingefangen, der dann im zweiten Schritt unter Emission des zweiten (charakteristischen) Photons in den Grundzustand übergeht. Diese Gleichungen können natürlich auf beliebige Mehrstufen– sowie Einstufen–Prozesse erweitert werden. Im direkten Elektroneneinfang in den Grundzustand wurde die ”lineare” Polarisation der Rekombinationsphotonen untersucht. Es wurde gezeigt, dass man damit eine Möglichkeit zur Bestimmung der Polarisation der Teilchen im Eingangskanal des Schwerionenstoßes hat. Rechnungen zur Rekombination bei nackten U92+ Projektilen zeigen z. B., dass die Spinpolarisation der einfallenden Elektronen zu einer Drehung der linearen Polarisation der emittierten Photonen aus der Streuebene heraus führt. Diese Polarisationdrehung kann mit neu entwickelten orts– und polarisationsempfindlichen Festkörperdetektoren gemessen werden. Damit erhält man eine Methode zur Messung der Polarisation der einfallenden Elektronen und des Ionenstrahls. Die K–Schalen–Rekombination ist ein einfaches Beispiel eines Ein–Stufen–Prozesses. Das am besten bekannte Beispiel der Zwei–Stufen–Rekombination ist der Elektroneneinfang in den 2p3/2–Zustand des nackten Ions und anschließendem Lyman–1–Zerfall (2p3/2 ! 1s1/2). Im Rahmen der Dichte–Matrix–Theorie wurden sowohl die Winkelverteilung als auch die lineare Polarisation der charakteristischen Photonen untersucht. Beide (messbaren) Größen werden beträchtlich durch die Interferenz des E1–Kanals (elektrischer Dipol) mit dem viel schwächeren M2–Kanal (magnetischer Quadrupol) beeinflusst. Für die Winkelverteilung des Lyman–1 Zerfalls im Wasserstoff–ähnlichen Uran führt diese E1–M2–Mischung zu einem 30%–Effekt. Die Berücksichtigung dieser Interferenz behebt die bisher vorhandene Diskrepanz von Theorie und Experiment beim Alignment des 2p3/2–Zustands. Neben diesen Ein–Teichen–Querschnitten (Messung des Einfangphotons oder des charakteristischen Photons) wurde auch die Korrelation zwischen den beiden berechnet. Diese Korrelationen sollten in X–X–Koinzidenz–Messungen beobbachtbar sein. Der Schwerpunkt dieser Untersuchungen lag bei der Photon–Photon–Winkelkorrelation, die experimentell am einfachsten zu messen ist. In dieser Arbeit wurden ausführliche Berechnungen der koinzidenten X–X–Winkelverteilungen beim Elektroneneinfang in den 2p3/2–Zustand des nackten Uranions und beim anschließenden Lyman–1–Übergang durchgeführt. Wie bereits erwähnt, hängt die Winkelverteilung des charakteristischen Photons nicht nur vom Winkel des Rekombinationsphotons, sondern auch stark von der Spin–Polarisation der einfallenden Teilchen ab. Damit eröffnet sich eine zweite Möglichkeit zur Messung der Polaristion des einfallenden Ionenstrahls bzw. der einfallenden Elektronen.
Resumo:
Das Thema dieser Arbeit ist die philosophischgeschichliche Darlegung des Selbstfindungsprozesses des lateinamerikanischen Denkens. Es wird die enge Verknüpfung dieses Denkens mit der Kultur aufgezeigt, in der es entstand und die sich in deren Mythen und Traditionen widerspiegelt. Durch diese kulturgeschichtlichen Betrachtungen soll der Leser zum Verständnis der lateinamerikanischen Autoren und zu deren zentralen Themen hingeführt werden. Die Erfahrung hat die lateinamerikanischen Denker gelehrt, dass sie die Begriffswelt Europas nicht identisch in ihre Lebenswelt übernehmen können, sonder dass sie diese umbilden müssen. Die Widersprüche zwischen den Bezugspunkten ihres Denkens, der westlichen Rationalität und der eigenen Realität empfinden sie als Inauthentizität. Das Bewusstsein von der Notwendigkeit eines Neuanfangs, des Befindens an einem Nullpunkt, kennzeichnet die Philosophie Lateinamerikas. Nicht der Besitz eines Wissens in festen Begriffen, sondern die Suche nach Offenheit charakterisiert diese Denken. Offenheit ist ihr zentraler Begriff, der ihren Weg zur Authentizität beschreibt. Authentizität ist hier nicht eine Eigenschaft des Menschen, die er aus sich selbst entwickelt. Sie ist auch nicht rein vom Erkennen des faktischen Seins deduzierbar. Authentizität ist ein Ziel, das nur gemeinsam mit den anderen, in einer durch die Gemeinsamkeit geschaffenen Kultur erreicht werden kann. Die Authentizität eines Denkens kann nur aus einer kulturellen Gemeinschaft erwachsen. In Lateinamerika erfolgt die Orientierung an der Gemeinschaft und deren Lebensgesetzen. Freiheit bedeutet hier diese Lebensgesetze aufzufinden und sie mit derGemeinschaft zu realizieren, also eine Verpfichtung auf die eigene Authentizität. Diese Philosophie sucht die Utopie, die Vergangenheit und Zukunft verbindet. Sie hat die Kraft der Transformation und setzt neue Intentionen, die unser Bild der Realität verändern. Sie bietet die Möglichkeit zu einem Denken das über die eine Rationalität hinausgeht. Durch ihre Ziele wird sie zum Teil der interkulturellen Philosophie.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
Die Arbeit hat zum Ziel, die Beziehungen der Bewohnerinnen und Bewohner ihres neuen Stadtteils zu beobachten und zu erklären. Der Verfasser ist dabei teilnehmender Beobachter, da er seit über acht Jahren als Quartiersarbeiter in diesem Stadtteil tätig ist. Hintergrund der Tätigkeit des Verfassers und seiner Arbeit ist die Kritik an den Trabantenstädten der 1970er Jahre in Deutschland. Im weiteren Verlauf verfolgt die Arbeit einem soziologisch theoretischen Ansatz. Handlungen, Zeichen, Symbole, Konflikte, Distanzen und Prozesse der sozialen Durchmischungen werden in Bezug zu einzelnen Theorem gesehen. Der Handlungsansatz, der Milieuansatz, die Raumtheorien, Integration und Exklusion sind die fünf theoretischen Perspektiven. Diese werden jeweils zunächst auf Grundlage der wissenschaftlichen Literatur dargestellt, um dann einzelne Beobachtungen diesen jeweiligen Rahmen zuzuordnen. Neue Stadtteile sind in den letzten Jahren in Deutschland nicht viele entstanden. Zu viele negative Erfahrungen machten die Städte, die in 60er und 70er Jahren des 20 Jahrhunderts Trabenten- oder Satellitenstädte am Stadtrand errichteten. Die Stadt Freiburg war eine der ersten Städte, die Anfang der 90er Jahre wieder versucht einen neuen urbanen Stadtteil für 10 – 12 000 Einwohner auf der grünen Wiese zu planen und zu bauen. Die Leitfrage war darum, wie kann eine ähnlich problematische Entwicklung, wie sie die vielen anderen Neubaustadtteile genommen haben, im Stadtteil Rieselfeld verhindert werden. Vor diesem Hintergrund beauftragte die Stadt Freiburg ein Konzept zu unterstützen, dass neben dem Bau der Häuser und der Infrastruktur auch die Entsehung des sozialen und kulturellen Lebens fördern sollte. Die Trägerschaft für dieses Projekt „Quartiersaufbau Rieselfeld“ wurde der Kontaktstelle für praxisorientierte Forschung e. V., der Forschungsstelle der Evangelischen Fachhochschule Freiburg für Sozialwesen, für den Zeitraum von 1996 bis 2003 übertragen. Dieses Stadtentwicklungsprojekt war auch Arbeitgeber für den Verfasser dieser Arbeit. In den vorliegenden Text fliesen daher auch viele Alltagserfahrungen und auch biographische Anteile ein. Diese Arbeit will als eine sozialtheoretische Reflektion verstanden werden, die als Rahmen für lokalisierte empirische Beobachtungen dienen soll. Dies gewährleistete die absolute Nähe zu den Geschehnissen vor Ort, die Entwicklung im alltäglichen Leben mit den BewohnerInnen zu erleben, erschwerte aber die Distanz zur Reflexion dieses Prozesses. Aus dieser Nähe entwickelte sich im Lauf der Zeit, die Frage wie eigen sich die Bewohnerinnen und Bewohner ihren Stadtteil an. Dieses Interesse steht quasi über den alltäglichen sozialarbeiterischen Aufgaben und Herausforderungen. Die Hauptthese dieser Arbeit ist, dass sich die Aneignung des neuen Stadtteils durch einen ständigen Machtkampf, der auf den unterschiedlichsten Ebenen ausgetragen wird, vollzieht. Der Kern der Argumentation besteht neben theoretischen Überlegungen aus alltagstypischen Beobachtungen, die der Verfasser du Zusammenfassend orientiert sich die vorliegende Arbeit als machtsoziologischer Versuch an der genau verorteten Lokalisierung ihrer Produzenten, die sich im Laufe der letzten sieben Jahre herausgebildet und räumlich lokalisiert haben.
Resumo:
Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Die vorliegende Arbeit besteht aus einem theoretischen Teil, der Filmrezeption aus weiblicher Sicht zum Gegenstand hat und einem praktischen Teil, der 8 Filme über die Methode von Übertragung und Gegenübertragung erschließt. Es wird die These vertreten, daß Film nicht nur gesehen, sondern auch verzehrt und verschlungen wird. Das Konzept der Lewinschen Traumleinwand als visueller Erinnerungsspur und die Annahme der taktilen, primären Wahrnehmung, die René Spitz in der Mundhöhle situiert, die er als Urhöhle bezeichnet, dient der Darstellung dieses doppelten Wahrnehmungsansatzes. Das Konzept Daniel Sterns von der „amodalen Wahrnehmung“ kann den Transfer von visueller zu akustischer Rezeption von Film erklären. Es wird die Annahme vertreten, daß es zu einer Regression auf die Stufe der Wiederbelebung einer halluzinatorischen Einheit mit einer frühen prägenitalen Mutter kommt, die sich in multiplen primären Identifizierungen der Zuschauerin niederschlägt. Es wird ein weiblicher Blick auf den Film postuliert. Die Autorin geht davon aus, daß diese Regression, aufgrund spezifischer weiblicher Entwicklung, Frauen leichter fällt als Männern. Die Arbeit stellt die ursprünglich von der feministischen Filmtheorie vertretene Auffassung von der ausschließlichen Auslösung von phallischen Identifizierungen aufgrund der Annahme der Verschweißung des männlichen Zuschauerblicks mit der männlichen Filmkamera in Frage. Die Filminterpretationen verdanken sich einem intersubjektiven methodischen Zugang. Der Film wird zu einem Partner, mit dem die Autorin interagiert; er hat die Qualität eines Übergangsobjekts. Im Prozess des Erlebens und des Verstehens bewegt sich Mechthild Zeul in einem „intermediären Raum“ (Winnicott), in dem sich psychische Realität mit äußerer Realität mischen. Theoretisch wird dieser Raum in Anlehnung an René Spitz als „Urhöhle“ bezeichnet.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.