27 resultados para Übergang
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Im Mittelpunkt dieser Diplomarbeit stehen Jugendliche, mit schlechten Ausbildungschancen, beim Übergang von der Schule in den Beruf. Hierbei liegt ein Schwerpunkt zunächst auf dem Übergangssystem, in das insbesondere benachteiligte Jugendliche nach den allgemeinbildendenden Schulen einmünden. Weil für diese Zielgruppe das Übergangssystem auch eine „Warteschleife“ bedeuten kann, werden im Rahmen dieser Arbeit neuere Fördermaßnahmen untersucht, die eine intensivere Betreuung dieser Zielgruppe anstreben. Dies ist zum einen das hessische Konzept der SchuB- Klassen, welches sich durch seine besondere Praxisnähe zu den Betrieben auszeichnet und zum anderen die bundesweit eingeführten Kompetenzagenturen, die eine individuelle und intensive Förderung der Jugendlichen ermöglicht. Durch die durchgeführten Interviewgespräche mit Lehrern und Case- Managern, die mit den betroffenen Jugendlichen arbeiten, wurde eine qualitative Untersuchung dieser Fördermaßnahmen vorgenommen.
Resumo:
Als von der sozioökonomischen Herkunft unabhängige, in bestimmten Beziehungsstrukturen verankerte Ressource kann soziales Kapital nach Coleman gerade in der Institution Schule zur Kompensation familiär bedingter Benachteiligungen von Schülern herangezogen werden. Vor diesem Hintergrund wirkt schulisches Sozialkapital vor allem in unterstützenden Lernbedingungen, wie sie etwa durch soziale Einbindung, das Lehrer-Schüler-Verhältnis oder Partizipationsmöglichkeiten innerhalb der jeweiligen Schulstruktur abgebildet werden. So stellt die vorliegende Untersuchung die Rolle des schulischen Sozialkapitals am Übergang in die Sekundarstufe II, hier am Beispiel der gymnasialen Oberstufe, in den Fokus. Ausgehend von der Überlegung, dass gerade mit dem Wechsel in die Einführungsphase für Schüler, zumal vor dem Hintergrund der sich gegenwärtig vollziehenden Veränderungen im Hinblick auf die Gestaltung der Oberstufe, besondere Anforderungen einhergehen, rücken jene Investitionen in schulische Strukturen in den Vordergrund, die Schülern vor allem das Lernen, aber auch die erfolgreiche Bewältigung der Statuspassage an sich erleichtern sollen. Gerade die Dimension der vertrauensbasierten Lehrer-Schüler-Beziehung als unterstützender Lernbedingung im Sinne des schulischen Sozialkapitals soll in der vorliegenden Arbeit genauer theoretisch beleuchtet und mittels einer Hypothesenüberprüfung auf ihre angenommene Wirkung auf die von Schülern erlebte Lernatmosphäre hin untersucht werden. Dies geschieht anhand der Auswertung einer evaluativen Fragebogenerhebung, die an der Jacob-Grimm-Schule Kassel durchgeführt werden konnte. Ob der Feststellung, dass besagter Übergang in die Sekundarstufe II in der deutschen Schul- und Bildungsforschung bislang im Hinblick auf die Schülerperspektive noch nicht hinreichend als eigenständiger Forschungsgegenstand gewürdigt wird, wird anhand ausgewählter offener Items zudem untersucht, wie sich der Übergang in die Sekundarstufe II aus Schülersicht darstellt. So dient der Aufbau der Arbeit in ihrem theoretischen Teil der gezielten Hinführung zur empirischen Untersuchung und leistet hier am Beispiel der Jacob-Grimm-Schule Kassel vor allem auch die Übertragung verschiedener theoretischer Ansätze zum Sozialkapital in den Kontext der gymnasialen Oberstufe.
Resumo:
Vom 20. bis zum 23. Februar 2013 fand die zweite Arbeitstagung des Kompetenzzentrums Hochschuldidaktik Mathematik (www.khdm.de) zum Thema „Mathematik im Übergang Schule/Hochschule und im ersten Studienjahr“ statt, auf der Forschungsergebnisse und Erfahrungen aus der Praxis zum Übergang Schule/Hochschule, zu Vor- und Brückenkurse und zum ersten Studienjahr bezogen auf die Studiengänge Bachelor und gymnasiales Lehramt Mathematik, Grund-, Haupt und Realschullehramt Mathematik, Mathematik im Service in den INT-Fächern und den nicht-INT Fächern vorgestellt und diskutiert wurden. Die Extended Abstracts geben einen Überblick über einen Großteil der Vorträge und Posterbeiträge.
Resumo:
Als Beispiele für die vielfältigen Phänomene der Physik der Elektronen in niedrigdimensionalen Systemen wurden in dieser Arbeit das Cu(110)(2x1)O-Adsorbatsystem und die violette Li0.9Mo6O17-Bronze untersucht. Das Adsorbatsystem bildet selbstorganisierte quasi-eindimensionale Nanostrukturen auf einer Kupferoberfläche. Die Li-Bronze ist ein Material, das aufgrund seiner Kristallstruktur quasi-eindimensionale elektronische Eigenschaften im Volumen aufweist. Auf der Cu(110)(2x1)O-Oberfläche kann durch Variation der Sauerstoffbedeckung die Größe der streifenartigen CuO-Domänen geändert werden und damit der Übergang von zwei Dimensionen auf eine Dimension untersucht werden. Der Einfluss der Dimensionalität wurde anhand eines unbesetzten elektronischen Oberflächenzustandes studiert. Dessen Energieposition (untere Bandkante) verschiebt mit zunehmender Einschränkung (schmalere CuO-Streifen) zu größeren Energien hin. Dies ist ein bekannter quantenmechanischer Effekt und relativ gut verstanden. Zusätzlich wurde die Lebensdauer des Zustandes auf der voll bedeckten Oberfläche (zwei Dimensionen) ermittelt und deren Veränderung mit der Breite der CuO-Streifen untersucht. Es zeigt sich, dass die Lebensdauer auf schmaleren CuO-Streifen drastisch abnimmt. Dieses Ergebnis ist neu. Es kann im Rahmen eines Fabry-Perot-Modells als Streuung in Zustände außerhalb der CuO-Streifen verstanden werden. Außer den gerade beschriebenen Effekten war es möglich die Ladungsdichte des diskutierten Zustandes orts- und energieabhängig auf den CuO-Streifen zu studieren. Die Li0.9Mo6O17-Bronze wurde im Hinblick auf das Verhalten der elektronischen Zustandsdichte an der Fermikante untersucht. Diese Fragestellung ist besonders wegen der Quasieindimensionalität des Materials interessant. Die Messungen von STS-Spektren in der Nähe der Fermienergie zeigen, dass die Elektronen in der Li0.9Mo6O17-Bronze eine sogenannte Luttingerflüssigkeit ausbilden, die anstatt einer Fermiflüssigkeit in eindimensionalen elektronischen Systemen erwartet wird. Bisher wurde Luttingerflüssigkeitsverhalten erst bei wenigen Materialien und Systemen experimentell nachgewiesen, obschon die theoretischen Voraussagen mehr als 30 Jahre zurückliegen. Ein Charakteristikum einer Luttingerflüssigkeit ist die Abnahme der Zustandsdichte an der Fermienergie mit einem Potenzgesetz. Dieses Verhalten wurde in STS-Spektren dieser Arbeit beobachtet und quantitativ im Rahmen eines Luttingerflüssigkeitsmodells beschrieben. Auch die Temperaturabhängigkeit des Phänomens im Bereich von 5K bis 55K ist konsistent mit der Beschreibung durch eine Luttingerflüssigkeit. Generell zeigen die Untersuchungen dieser Arbeit, dass die Dimensionalität, insbesondere deren Einschränkung, einen deutlichen Einfluss auf die elektronischen Eigenschaften von Systemen und Materialien haben kann.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.
Resumo:
Scanning Probe Microscopy (SPM) has become of fundamental importance for research in area of micro and nano-technology. The continuous progress in these fields requires ultra sensitive measurements at high speed. The imaging speed limitation of the conventional Tapping Mode SPM is due to the actuation time constant of piezotube feedback loop that keeps the tapping amplitude constant. In order to avoid this limit a deflection sensor and an actuator have to be integrated into the cantilever. In this work has been demonstrated the possibility of realisation of piezoresistive cantilever with an embedded actuator. Piezoresistive detection provides a good alternative to the usual optical laser beam deflection technique. In frames of this thesis has been investigated and modelled the piezoresistive effect in bulk silicon (3D case) for both n- and p-type silicon. Moving towards ultra-sensitive measurements it is necessary to realize ultra-thin piezoresistors, which are well localized to the surface, where the stress magnitude is maximal. New physical effects such as quantum confinement which arise due to the scaling of the piezoresistor thickness was taken into account in order to model the piezoresistive effect and its modification in case of ultra-thin piezoresistor (2D case). The two-dimension character of the electron gas in n-type piezoresistors lead up to decreasing of the piezoresistive coefficients with increasing the degree of electron localisation. Moreover for p-type piezoresistors the predicted values of the piezoresistive coefficients are higher in case of localised holes. Additionally, to the integration of the piezoresistive sensor, actuator integrated into the cantilever is considered as fundamental for realisation of fast SPM imaging. Actuation of the beam is achieved thermally by relying on differences in the coefficients of thermal expansion between aluminum and silicon. In addition the aluminum layer forms the heating micro-resistor, which is able to accept heating impulses with frequency up to one megahertz. Such direct oscillating thermally driven bimorph actuator was studied also with respect to the bimorph actuator efficiency. Higher eigenmodes of the cantilever are used in order to increase the operating frequencies. As a result the scanning speed has been increased due to the decreasing of the actuation time constant. The fundamental limits to force sensitivity that are imposed by piezoresistive deflection sensing technique have been discussed. For imaging in ambient conditions the force sensitivity is limited by the thermo-mechanical cantilever noise. Additional noise sources, connected with the piezoresistive detection are negligible.
Resumo:
Vielen Sensoren in mikroelektromechanische Systemen (MEMS) liegen Siliziummembranen zu Grunde. Die Membranen werden mit unterschiedlichen Verfahren hergestellt. Zum Teil kann man Opferschichten benutzen. Will man jedoch Membranen aus kristallinem Silizium, so muß man auf Ätzstopptechniken zurückgreifen. Eine gängige Methode verwendet vergrabene p^(+)-Schichten. Die sehr hohe Dotierung des Siliziums führt jedoch zu unüberwindbaren Problemen bei der Schaltkreisintegration. Die Verwendung von pn-Übergängen beim elektrochemischen Ätzen als Ätzstopp scheint eine aussichtsreiche Lösung. Die Dotierstoffkonzentrationen sind unkritisch, da sie die Elektronik nicht beeinflussen. Die Siliziummembranen lassen sich mit den üblichen Standard-IC-Prozessen herstellen. Ein Ziel der vorliegenden Arbeit bestand darin, die physikalisch-chemische Erklärung des elektrochemischen Ätzstopps von Silizium in alkalischen Lösungen zu finden. Dabei sollten Effekte untersucht werden, die einen Einfluß auf das Ätzstoppverhalten haben, wozu insbesondere - die Verarmungszone unterhalb der p-Silizium/Elektrolyt-Phasengrenzfläche - sowie die Raumladungszone des in Sperrichtung geschalteten pn-Übergangs zählen. Ausgangspunkt sind die chemischen Ätzmechanismen des Siliziums respektive des Siliziumdioxids, wobei der Mechanismus des Siliziumätzens in alkalischen Lösungen und die elektrochemischen Effekte ausführlich beschrieben werden. Es zeigt sich ein starker Einfluß der Oberflächenelektronen im Leitungsband des Siliziums und der Hydroxidionen des Elektrolyten auf den Auflösungsmechanismus des Siliziums. Diese Erkenntnisse ermöglichen es, den mittels pn-Übergangs kontrollierten elektrochemischen Ätzstopp vollständig zu beschreiben. Es zeigte sich, daß die Dicke der Membran von den Dotierstoffkonzentrationen des p-Siliziumsubstrats und der n-Siliziumschicht, der Tiefe der n-Dotierung, der Temperatur im Ätzsystem und besonders von der anodischen Sperrspannung abhängig ist. Zur Verifizierung wurden Siliziummembrandicken mit Hilfe von IR-Ellipsometrie vermessen. Im Rahmen dieser Arbeit wurde auch der es Einflusses von starken Dotierungen im Silizium auf dessen elastische Eigenschaften untersucht, im speziellen bei µm-dünnen Membranen, die mittels elektrochemischen Ätzstopps hergestellt wurden. Dabei wird auf den Einfluß der hohen Dotierstoffkonzentrationen ein besonderes Augenmerk gelegt. Der Youngsche Modul läßt sich bei einem Zugversuch durch Messung der Ausdehnung ermitteln. Für eine zerstörungsfreie Messung der sehr dünnen pn-Siliziummembranen wird die Dehnung berührungslos mit Hilfe des Laser-Speckle Extensometers gemessen. Laserakustische Oberflächenwellen wurden eingesetzt, um gezielt den Einfluß der unterschiedlich starken Dotierung mit Phosphor auf den Elastizitätsmodul zu ermitteln.
Resumo:
In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.
Resumo:
The collection of X chromosome insertions (PX) lethal lines, which was isolated from a screen for essential genes on the X chromosome, was characterized by means of cloning the insertion sites, mapping the sites within genomic DNA and determination of the associated reporter gene expresssion patterns. The established STS flanking the P element insertion sites were submitted to EMBL nucleotide databases and their in situ data together with the enhancer trap expression patterns have been deposited in the FlyView database. The characterized lines are now available to be used by the scientific community for a detailed analysis of the newly established lethal gene functions. One of the isolated genes on the X chromosome was the Drosophila gene Wnt5 (DWnt5). From two independent screens, one lethal and three homozygous viable alleles were recovered, allowing the identification of two distinct functions for DWnt5 in the fly. Observations on the developing nervous system of mutant embryos suggest that DWnt5 activity affects axon projection pattern. Elevated levels of DWNT5 activity in the midline cells of the central nervous system causes improper establishment and maintenance of the axonal pathways. Our analysis of the expression and mutant phenotype indicates that DWnt5 function in a process needed for proper organization of the nervous system. A second and novel function of DWnt5 is the control of the body size by regulation of the cell number rather than affecting the size of cells. Moreover, experimentally increased DWnt5 levels in a post-mitotic region of the eye imaginal disc causes abnormal cell cycle progression, resulting in additional ommatidia in the adult eye when compared to wild type. The increased cell number and the effects on the cell cycle after exposure to high DWNT5 levels is the result of a failure to downregulate cyclin B and therefore the unsuccessful establishment of a G1 arrest.
Resumo:
Der eukaryotische Mikroorganismus Dictyostelium discoideum lebt als einzellige Amöbe solange ausreichende Nahrungsressourcen zur Verfügung stehen. Sobald Nahrungsmangel eintritt, entwickeln sich die Zellen von einem einzelligen zu einem mehrzelligen Zustand, der mit einem multizellulären Fruchtkörper abschließt. Dieser Prozess wird durch eine Reihe aufeinanderfolgender Signale organisiert, die eine differentielle Genexpression regulieren. Die Gene der Discoidin I Familie gehören zu den Ersten, die im Laufe des Wachstums-Differenzierungs-Übergangs (engl. GDT) aktiviert werden. Sie eignen sich daher vorzüglich als Marker für den Beginn der Entwicklung. Mit Hilfe einer REMI-Mutagenese und Discoidin I als molekularem Marker sind verschiedene Komponenten des Wachstums-Differenzierungs-Übergangs in unserer Arbeitsgruppe identifiziert worden (Zeng et al., 2000 A und B; Riemann und Nellen, persönliche Mitteilung). Mit demselben Ansatz wurde in der vorliegenden Arbeit eine REMI-Mutante identifiziert, die eine Fehl-Expression von Discoidin zeigte und einen axenischen Wachstumsdefekt bei 15 °C aufwies. Das Gen wurde als Homolog zum humanen Tafazzin-Gen identifiziert. Dieses Gen wurde zur Rekonstruktion des Phänotyps über homologe Rekombination erneut disruptiert, was wie erwartet zu dem zuerst beschriebenen Phänotyp führte. Folgerichtig ergab eine Überexpression des Gens in den Mutanten eine Komplementation des Phänotyps. Immunfluoreszenz-Experimente zeigten eine mitochondriale Lokalisation des Dictyostelium discoideum Taffazzin Proteins. Dass ein mitochondriales Protein in Zusammenhang mit dem Wachstums-Differenzierungs-Übergang steht, ist ein unerwarteter Befund, der aber als Hinweis darauf gewertet werden kann, dass Mitochondrien einen direkten Einfluss auf die entwicklungsspezifische Signaltransduktion ausüben. Die Taffazzin Disruptions-Mutante in Dictyostelium führte zu einem abnormalen Cardiolipin Metabolismus. Dieses Phospholipid ist ein charakteristischer Bestandteil der inneren Mitochondrienmembran und für die Funktion verschiedener Enzyme erforderlich. Unsere vorläufigen Analysen des Phospholipid-Gehalts zeigten Übereinstimmung mit Daten von Patienten mit Barth-Syndrom, einer humanen Erkrankung, bei der das Taffazzin-Gen Mutationen aufweist, und mit Hefe-Mutanten dieses Gens. Dies zeigt den Wert von Dictyostelium discoideum als einen weiteren Modelorganismus zur Untersuchung des Barth-Syndroms und zur Erprobung möglicher Therapieansätze.
Resumo:
Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.