18 resultados para Gesetz
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Vor 1933 hatte sich in Deutschland im staatlichen und im kommunalen Bereich ein vielfach differenziertes öffentliches Gesundheitswesen entwickelt. Für die Protagonisten der nationalsozialistischen Erbpflege und Rassenhygiene war aber ein einheitlich gestaltetes öffentliches Gesundheitswesen eine wesentliche Voraussetzung, um ihre gesundheitspolitischen Ziele zu verwirklichen. Dem für Erbgesundheits- und Rassenpflege zuständigen Referenten Dr. Arthur Gütt und dem Reichsministerium des Innern gelang es in der noch "staatsorientierten" Phase der Konsolidierung des NS-Regimes, gegen den Widerstand eigener Abteilungen, anderer Ministerien, der Länder, des Deutschen Gemeindetages und der gesundheitlichen Unterorganisation der NSDAP des "Gesetz über die Vereinheitlichung des Gesundheitswesens" (= GVG) durchzusetzen: durch das GVG vom 3. Juli 1934 wurden staatlicher Gesundheitsschutz, kommunale Gesundheitspflege und nationalsozialistische Erb- und Rassenpflege zu reichseinheitlichen Pflichtaufgaben; diese durchzuführen, oblag dem jetzt erst geschaffenen öffentlichen Gesundheitsdienst, den Gesundheitsämtern und den Einheitsmedizinalbeamten.
Resumo:
Seit gut zehn Jahren erlebt die Windenergienutzung in Deutschland einen in der Mitte der 80er Jahre nicht für möglich gehaltenen Aufschwung. Anlagenanzahl und installierte Leistung haben in diesem Zeitraum mit durchschnittlichen jährlichen Wachstumsraten von mehr als 30 Prozent zugenommen, die mittlere installierte Leistung pro neu errichteter Anlage stieg dabei um das Zehnfache und die technische Verfügbarkeit der Anlagen liegt mittlerweile bei über 98 Prozent. Mit größer werdenden Anlagen zeigt sich weiterhin ein klarer Trend zu Blattwinkel verstellbaren Konzepten, mit zunehmend drehzahlvariabler Betriebsweise. Vor dem von Vielen für die kommenden drei bis sechs Jahre prognostizierten Einstieg in die großtechnische Offshore- Windenergienutzung mit den damit verbundenen immensen technologischen und strukturellen Herausforderungen erscheint es sinnvoll, einen kritischen Blick zurückzuwerfen auf die 90er Jahre mit den ihnen zugrunde liegenden förderpolitischen Rahmenbedingungen. Dabei soll die Frage beantwortet werden, welchen konkreten Einfluss die staatlichen Forschungs- und Förderprogramme, besonders das "250 MW Wind"-Programm, auf die Entwicklung der Windenergienutzung hatten, das heißt, unter welchen Bedingungen sich bestimmte Techniklinien durchsetzten, wie der Einfluss eines geschützten Marktes durch gesetzlich garantierte Einspeisetarife auf diese Entwicklung zu bewerten ist und schließlich, welche Fehlentwicklungen möglicher Weise eingetreten sind. Dazu wird mit Hilfe von Lernkurven gezeigt, welche Kostenreduktionen insgesamt erzielt wurden, wie hoch die dazu notwendigen staatlichen Finanzmittel waren und welche Schlussfolgerungen daraus für die Zukunft abgeleitet werden können. Die Arbeit soll insgesamt dazu beitragen, die erreichten technischen Entwicklungsschritte vor dem Hintergrund der förderpolitischen Gegebenheiten besser zu verstehen, Chancen für gezielte Änderungen in der Förderpraxis zu ergreifen und Hinweise auf die Ausgestaltung von zukünftigen Forschungsprogrammen und Entwicklungsschwerpunkten im Bereich der Windenergie zu geben, um weitere Kostensenkungspotenziale auszuschöpfen. Dabei wird sich die zukünftige Schwerpunktsetzung in der programmatischen Ausrichtung der Forschung stärker auf die drei wichtigsten Anwendungsfelder für Windenergieanlagen konzentrieren müssen, die großtechnische Offshore- Anwendung, die netzgebundene, dezentrale Energieversorgung sowie auf Windenergieanlagen zur ländlichen Elektrifizierung in autonomen Versorgungssystemen für Schwellen- und Entwicklungsländer.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung der beim Thermofließlochformen entstehenden Temperaturen. Im Rahmen dieser Arbeit wurden die Temperaturen während des Bearbeitungsprozesses mittels der berührungslosen Temperaturmesssysteme Pyrometer und Thermografiekamera in Abhängigkeit von Werkstoffsorte, Werkstoffdicke und Werkzeuggeometrie untersucht. Die Untersuchung beinhaltet die Auswertung der Ergebnisse unter Anwendung einer statistischen Versuchsplanung und -auswertung, den Vergleich der gewonnenen Temperaturen und Temperaturverläufe sowie die Darstellung einiger Vor- und Nachteile der eingesetzten Temperaturmesssysteme. Als Voraussetzung zu einer berührungslosen Temperaturmessung mit diesen Messsystemen fand weiterhin eine experimentelle Ermittlung der Emissionsgrade der untersuchten Werkstoffe statt. Abschließend wurde ein Zusammenhang zwischen der während der Bearbeitung entstehenden Prozesstemperaturen und der Momente untersucht.
Resumo:
Produkte mit Sonderabfällen sind im privaten täglichen Gebrauch in allen Lebensbereichen in vielfältiger Form anzutreffen. Per Gesetz sind die Vorgaben für die vom Hausmüll getrennte Erfassung, Verwertung bzw. schadlose Beseitigung von Sonderabfällen in den entsprechenden Bundes- bzw. Landesgesetzen sowie durch Rechtsvorgaben der EU geregelt. Dennoch werden erhebliche Mengen an Sonderabfällen über den Hausmüll entsorgt. Exakte Daten liegen hierzu allerdings bisher nicht vor. Vor diesem Hintergrund beabsichtigt die vorliegende Arbeit, auf der Grundlage einer empirischen Analyse (differenzierte Hausmüllanalysen) eine quantitative und qualitative Bewertung der über den Hausmüll entsorgten schadstoffhaltigen Abfälle vorzunehmen und die Leistungsfähigkeit der getrennten Erfassungssysteme für private Sonderabfälle zu bewerten. Darüber hinaus werden strukturelle und regionale Einflussgrößen ermittelt. Hierzu wurden bei zwölf öffentlich-rechtlichen Entsorgungsträgern aus acht verschiedenen Bundesländern Hausmüllanalysen durchgeführt.
Resumo:
In der vorliegenden Arbeit wird ein Unterrichtskonzept für die gymnasiale Oberstufe beschrieben, das anhand der Polarisationseigenschaft des Lichts von der Beobachtung ausgehend einen Zugang zur Quantenphysik ermöglicht. Die Unterrichtsinhalte bauen so aufeinander auf, dass ein "harter Bruch" zwischen der klassischen und der quantenphysikalischen Beschreibung von Licht vermieden wird. Das methodische Vorgehen des Unterrichtskonzeptes führt vom Phänomen ausgehend zu quantitativen Experimenten hin zu einer Einführung in quantenphysikalische Begriffe und Prinzipien. Dabei bildet der elektrische Feldvektor die Verknüpfung zwischen der klassischen und der quantenphysi-kalischen Beschreibung der Polarisationsexperimente, in dem er zunächst die Polarisationsexperimente beschreibt und im weiteren Verlauf des Unterrichtsganges als Wahrscheinlichkeitsamplitude gedeutet wird. Die Polarisation von Licht wird zu Beginn des Unterrichtsganges im Rahmen eines fächerübergreifenden Kontextes eingeführt, wobei die Navigation der Insekten nach dem polarisierten Himmelslicht als Einstieg dient. Die Erzeugung und die Eigen-schaften von polarisiertem Licht werden anhand von einfachen qualitativen Schüler- und Demonstrationsexperimenten mit Polarisationsfolien erarbeitet. Das Polarisationsphänomen der Haidinger-Büschel, das bei der Beobachtung von polarisiertem Licht wahrgenommen werden kann, ermöglicht eine Anbindung an das eigene Erleben der Schülerinnen und Schüler. Zur Erklärung dieser Experimente auf der Modellebene wird der elektrische Feldvektor und dessen Komponentenzerlegung benutzt. Im weiteren Verlauf des Unterrichtsganges wird die Komponentenzerlegung des elektrischen Feldvektors für eine quantitative Beschreibung der Polarisationsexperimente wieder aufgegriffen. In Experimenten mit Polarisationsfiltern wird durch Intensitätsmessungen das Malussche Gesetz und der quadratische Zusammenhang zwischen Intensität und elektrischem Feldvektor erarbeitet. Als Abschluss der klassischen Polarisationsexperimente wird das Verhalten von polarisiertem Licht bei Überlagerung in einem Michelson-Interferometer untersucht. Das in Abhängigkeit der Polarisationsrichtungen entstehende Interferenzmuster wird wiederum mit Hilfe der Komponentenzerlegung des elektrischen Feldvektors beschrieben und führt zum Superpositionsprinzip der elektrischen Feldvektoren. Beim Übergang zur Quantenphysik werden die bereits durchgeführten Polarisationsexperimente als Gedankenexperimente in der Photonenvorstellung gedeutet. Zur Beschreibung der Polarisation von Photonen wird der Begriff des Zustandes eingeführt, der durch die Wechselwirkung der Photonen mit dem Polarisationsfilter erzeugt wird. Das Malussche Gesetz wird in der Teilchenvorstellung wieder aufgegriffen und führt mit Hilfe der statistischen Deutung zum Begriff der Wahrscheinlichkeit. Bei der Beschreibung von Interferenzexperimenten mit einzelnen Photonen wird die Notwendigkeit eines Analogons zum elektrischen Feldvektor deutlich. Diese Betrachtungen führen zum Begriff der Wahrscheinlichkeitsamplitude und zum Superpositionsprinzip der Wahrscheinlichkeitsamplituden. Zum Abschluss des Unterrichtsganges wird anhand des Lokalisationsproblems einzelner Photonen das Fundamentalprinzip der Quantenphysik erarbeitet.
Resumo:
Am 11.1.2005 trat das Erste Gesetz zur Änderung des Signaturgesetzes (1. SigÄndG) in Kraft. Es ermöglicht vor allem den Vertrieb von Signaturkarten im Fernabsatz. Damit soll Kreditinstituten erleichtert werden, Signaturverfahren mit ihren Bankkarten zu verbinden. Der Beitrag beschreibt die Bedeutung der neuen Regelungen für qualifizierte Signaturverfahren (I.), das Gesetzgebungsverfahren (II.), die wesentlichen Neuregelungen (III.) sowie die Folgen für Regelungen, die auf das Signaturgesetz Bezug nehmen (IV.). Ein kurzer Ausblick beschließt den Beitrag (V.).
Resumo:
Ab 1991 verfolgte die bolivianische Sozialfondspolitik primär über eine Förderung sozialer Infrastruktur und lokaler Partizipation eine Strategie zur Reduktion von Armut. Ein 1994 in Bolivien eingeführtes Gesetz zur Volksbeteiligung, die Ley de Participación Popular, unterstützte diese Bemühungen, indem es eine partizipativ ausgerichtete Kommunalpolitik ermöglichte, welche eine stärkere Berücksichtung der lokalen Bedürfnisse sicherstellen sollte, um so die Bedarfsgerechtigkeit, Effizienz sowie Nachhaltigkeit der knappen staatlichen Investitionen zu erhöhen. Im vorliegenden working paper wurden die Bemühungen dieser Lokalförderung durch den Fonds analysiert. Dazu wurden am Beispiel von vier ausgewählten bolivianischen Munizipien zum einen die messbaren Wirkungen der Sozialfondsaktivitäten respektive ihr Anteil an der Verbesserung der lokal anzutreffenden Armutssituationen untersucht. Zum anderen wurde die These einer positiven Korrelation von Partizipationsförderung und Armutsbekämpfung überprüft. Dabei wird deutlich, dass die Qualität und Dimension der Partizipation auf lokaler Ebene im Rahmen des untersuchten Mehrebenensystems des bolivianischen Sozialfonds nicht ausreichte, um tradierte Dominanz- und Dependenzverhältnisse zu durchbrechen. Die Partizipationsförderung ermöglichte aber gleichwohl eine Stärkung der Artikulationsfähigkeit lokaler Akteure und schuf somit nicht nur neue Entwicklungskapazitäten, sondern vermag mittel- bis langfristig auch einen Beitrag zur Reduzierung von Armut zu leisten.
Resumo:
Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat
Resumo:
To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.