386 resultados para Soziale Arbeit
Resumo:
Im Rahmen dieser Arbeit wurde mittels einer umfassenden und von einer Projektgruppe begleiteten Literaturanalyse sowie anhand von Praxiserhebungen der Frage nachgegangen, wie es um die Tiergesundheit in der ökologischen Schweinehaltung bestellt ist. Ferner wurde untersucht, ob die ökologischen Rahmenrichtlinien (EWG-VO 2092/91) ein Hemmnis für die Sicherstellung eines hohen Gesundheitsstatus der Nutztiere darstellen. Die Literaturauswertung ergab, dass die Erkrankungsraten sowohl auf ökologisch wie auf konventionell geführten Betrieben ein hohes Niveau aufwiesen. Die Ursachen wurden vorrangig in einem unzureichenden betrieblichen Management gesehen, während den EG-Rahmenrichtlinien in der Regel keine maßgebliche Bedeutung für den Gesundheitsstatus beigemessen wurde. In Praxiserhebungen wurde die Status-quo-Situation zur Tiergesundheit auf sechs ökologisch wirt- schaftenden Schweinemastbetrieben erfasst. Ferner wurde untersucht, inwieweit eine Verbesserung des Gesundheitsstatus auf den Betrieben mit einem Mehraufwand an Arbeitszeit und Investitionen verbunden ist. Hierzu wurden die Bereiche Haltung, Fütterung und Hygienemanagement mittels einer Schwachstellenanalyse (Hazard Analysis Critical Control Points-Konzept) beurteilt. Der Zeit- bedarf für Maßnahmen zur Gesundheitsvorsorge wurde durch Arbeitszeitaufzeichnungen erfasst. Die Untersuchungen zeigten, dass auf den Betrieben zum Teil erhebliche Mängel im Hygiene- management bestanden. Anhand von Schlachtkörperbefunden wurde eine hohe Rate pathologischer Leberveränderungen, verursacht durch Larven des Schweinespulwurms Ascaris suum, diagnosti- ziert. Insgesamt wiesen die Schlachtkörper der Tiere von den sechs Betrieben mit durchschnittlich 48,8 % sowie die Schlachtkörper von ökologischen Vergleichsbetrieben mit 63,9 % signifikant höhere Befundraten auf als die Schlachtkörper konventioneller Vergleichsbetriebe (17,4 %). Der Arbeitszeitbedarf für die Mastschweinehaltung auf den sechs Betrieben variierte zwischen 2,0 und 3,7 Arbeitskraftstunden pro Mastplatz und Jahr und lag damit deutlich höher als vergleichbare Literaturdaten. Zwischen den Betrieben traten hohe Unterschiede hinsichtlich der zeitlichen Aufwendungen für Hygiene- und Tiergesundheitsmaßnahmen auf. Während der Interventionsphase wurden das Entwurmungs- und das Hygieneregime der sechs Betriebe optimiert. Die Buchten wurden ordnungsgemäß gereinigt und desinfiziert und der erforderliche Arbeitszeitaufwand quantifiziert. Dieser lag zusammen mit den zusätzlichen Kosten um ca. 46 % höher als der betrieblich übliche Arbeitszeitaufwand. Betriebe mit neu konzipierten Ställen und glatten Buchtenböden und -wänden konnten diese mit vergleichsweise geringem Arbeitsaufwand reinigen und desinfizieren. In einigen Altgebäuden hingegen war aufgrund rauer und schadhafter Oberflächen eine ordnungsgemäße Reinigung und Desinfektion nur bedingt durchzuführen. Die Rate der Leberveränderungen am Schlachthof konnte von durchschnittlich 48,9 % auf 32,7 % gesenkt werden. Während sich die Befundraten auf einigen Betrieben signifikant verbesserten, trat bei der Nutzung von unrenovierten Ställen in Altgebäuden keine Besserung ein. Es wird geschlussfolgert, dass die Rahmenbedingungen der EG-Verordnung einem hohen Tiergesundheitsstatus nicht entgegen stehen, in der Regel jedoch mit einem erhöhten Aufwand für Hygienemaßnahmen verbunden sind. Voraussetzung für eine geringe Parasitenbelastung sind ein konsequent umgesetztes Hygiene- und Entwurmungsregime sowie gut zu reinigende Buchten. Letzteres ist allerdings bei der Nutzung von Altgebäuden nicht immer gegeben.
Resumo:
Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.
Resumo:
Wie hat Fernsehen unsere Kultur geprägt? Am Übergang vom Fernsehen zu Multimedia untersucht das Buch unsere Fernsehkultur als Überlagerung von Fernsehen und Alltagsleben (z.B. das Ereignis- und Medienarrangement "Streetball"), stellt die Frage nach dafür typischen Erlebnisweisen - die persönliche Welt als Maßstab - und ordnet Veränderungen z.B. von Männerbildern in kulturhistorische Entwicklungslinien ein. Was ist typisch für Fernsehkultur? In individuellen Prozessen der Bedeutungskonstitution entstehen soziale Räume, Bilderwelten spiegeln mimetisch individuelle Themen, Medienkommunikation als Alltagsbewältigung geht in alltagsästhetische Inszenierungen von Szenen und Fan-Gruppen über, und das Automobil findet in Verdichtung und textuellem Schein seine kulturelle Fortsetzung.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Die vorliegende Arbeit berichtet über ein neuartiges, kombiniertes Messverfahren zur gleichzeitigen Erfassung von Form und Material einer glänzenden Probenoberfläche. Die Materialerkennung erfolgt über die polarisationsoptische Brechzahlbestimmung im Messpunkt mit Mikroellipsometrie. Die Mikroellipsometrie ist ein fokussierendes Ellipsometer, das aus der Polarisationsänderung, bedingt durch die Wechselwirkung Licht – Materie, die materialcharakteristische komplexe Brechzahl eines reflektierenden Materials ermitteln kann. Bei der fokussierenden Ellipsometrie ist die Anordnung der fokussierenden Optiken von Bedeutung. Die hier vorgestellte ellipsometerexterne Fokussierung vermeidet Messfehler durch optische Anisotropien und ermöglicht die multispektrale ellipsometrische Messung. Für die ellipsometrische Brechzahlbestimmung ist zwingend die Kenntnis des Einfallswinkels des Messstrahls und die räumliche Orientierung der Oberflächenneigung zum Koordinatensystem des Ellipsometers notwendig. Die Oberflächenneigung wird mit einem Deflektometer ermittelt, das speziell für den Einsatz in Kombination mit der Ellipsometrie entwickelt wurde. Aus der lokalen Oberflächenneigung kann die Topographie einer Probe rekonstruiert werden. Der Einfallswinkel ist ebenfalls aus den Oberflächenneigungen ableitbar. Die Arbeit stellt die Systemtheorie der beiden kombinierten Messverfahren vor, außerdem werden Beiträge zu Messunsicherheiten diskutiert. Der experimentelle Teil der Arbeit beinhaltet die separate Untersuchung zur Leistungsfähigkeit der beiden zu kombinierenden Messverfahren. Die experimentellen Ergebnisse erlauben die Schlussfolgerung, dass ein Mikro-Deflexions-Ellipsometer erfolgreich realisierbar ist.
Resumo:
Numerische Urteile wie Schätzungen oder Prognosen sind anfällig für Ankereffekte. Ein in eine Entscheidungssituation willkürlich eingeführter numerischer Wert – der Anker – beeinflusst oft das Urteil im Sinne einer Assimilation des Urteils an diesen Wert. Bei Kaufentscheidungen fließt das Ergebnis eines Vergleichs des Produktpreises mit einem Referenzpreis, einem numerischen Wert, in die Kaufentscheidung mit ein. Unter Orientierung an die Prospekttheorie von Kahneman & Tversky kann dieser Referenzpreis in Form eines implementierten Ankers variiert werden. Die vorgelegte interdisziplinäre Arbeit wendet psychologisches Fachwissen in den Wirtschaftswissenschaften an. Sie beschäftigt sich mit den Möglichkeiten bei telefonischen Verkaufsgesprächen, gezielt Anker zu Erhöhung der Verkaufsquote einzusetzen. Der Anker wird in drei unterschiedlichen Experimenten entweder durch den Preis eines zusätzlich angebotenen Produkts, durch das Einbringen eines belanglos scheinenden numerischen Wertes, wie die Anzahl an bereits getätigten Anrufen, oder in Form einer Schätzfrage in das Verkaufsgespräch implementiert. Es wird dabei festgestellt, dass durch einen im Vergleich zum verkaufenden Produkt höheren numerischen Wert, dem Anker, die Verkaufsquote erhöht werden kann. Das Neuartige an der Arbeit liegt vor allem im Aufzeigen der Einfachheit solcher ökonomisch effektiver Ankersetzungen in Verkaufsgesprächen. Willkürlich in eine Kaufsituation eingeführte numerische Werte können - analog zu ihrem Einfluss in Urteilssituationen - auch Kaufentscheidungen in einem realen Markt beeinflussen.
Resumo:
Die Dissertation beschäftigt sich aus interdisziplinärer (musikwissenschaftlicher, literaturwissenschaftlicher und theologischer) Sicht mit den Biographien Brechts und Weills und ihrem bekanntesten gemeinsamen Werk, der Dreigroschenoper. Im ersten Teil werden anhand von Selbstäußerungen in Briefen und Tagebüchern die Biographien beider Künstler mit Blick auf Spuren von religiöser Biographie, Frömmigkeit und argumentativer Auseinandersetzung mit ihrer jeweiligen Heimatreligion – für Brecht das Christentum und für Weill das Judentum – untersucht. Die in der Forschung pauschal gehaltene These von einer intensiven religiösen Sozialisation beider Künstler ist zwar gerechtfertigt und vor allem für Brecht bekannt, stellt aber nur einen Ausgangspunkt für differenziertere Untersuchungen dar. Dazu gehört es religiöse Existenz als bedeutenden und künstlerisch wirksamen Bestandteil von Persönlichkeitsentwicklung zu verstehen. Religiöse Existenz darf nicht, wie es fast durchgängig in der Forschung zu Brecht und Weill geschieht, auf eine affirmative Grundhaltung begrenzt werden, auch dürfen nicht christliche und jüdische Sozialisation gleichgesetzt werden. Daher sind auch die in der Arbeit gewonnenen exemplarischen Einblicke in Glaubensvorstellungen und Lebenspraxis von Juden und Christen im ausgehenden Kaiserreich und in der Weimarer Republik von besonderer Bedeutung. Auch reicht die bloße Feststellung einer intensiven religiösen Sozialisation nicht aus um wirklich zu beschreiben, was sie jeweils – etwa die Schabbatpraxis im Hause Weill oder Brechts Zweifel am Christentum während der Krankheit seines Vaters – bedeuten und bewirken kann. Mit der in der Dissertation vorgenommenen differenzierten Sichtung von Biographie wird weder die „Moderation“ der eigenen Biographie durch die Künstler außer Acht gelassen noch das künstlerische Werk der Biographie untergeordnet. Es wird vielmehr in der Verknüpfung der mehrdimensionalen Bezugssysteme das geschichtliche und damit auch das biographische Werden eines Werkes gleichzeitig als Charakteristikum seiner Ästhetik verstanden. Für die religiöse Dimension der Dreigroschenoper gilt ähnliches wie für die Sicht auf die religiösen Sozialisationen. Einige der offensichtlichen Anspielungen auf religiöse Kontexte gelten als bekannt. Dabei werden aber Tiefendimensionen und Ambivalenzen vernachlässigt, welche bei der Verwendung der zumeist biblischen Spuren mitschwingen und die auch für die Künstler mitschwingen konnten (Buch Rut, Passion Jesu etc.). An diesem Punkt setzt die Untersuchung im zweiten Teil der Arbeit ein, welche die versteckten, verdeckten oder nur oberflächlich untersuchten Spuren religiöser Konnotation in der Dreigroschenoper ermittelt und wieder verständlich macht. Brecht war nicht Theologe und schon gar nicht Exeget war, er war aber als Literat und als christlich sozialisierter Künstler in der Lage, kontextuelle Zusammenhänge, innerbiblische Verweise und Leerstellen biblischer Texte zu erkennen. Daher ist es für die Interpretation der Dreigroschenoper auch wesentlich, biblische Hintergründe und ausgewählte theologische Erkenntnisse heranzuziehen. Durch den Rückgriff auf Biblisches und damit auf jüdische und christliche Tradition wird nicht nur die Komplexität der Dreigroschenoper verdeutlicht, sondern gleichsam rückwirkend die Komplexität biblischer Theologie sichtbar. Der Komponist darf bei diesem künstlerischen Verarbeitungsprozess religiöser Kontexte nicht verdrängt werden. Die Frage nach religiös semantisierbarer Musik ist trotz aller Schwierigkeiten notwendig. Der Blick auf Weills Biographie, sein Aufwachsen im Hause eines jüdischen Kantors, seine Kenntnis der Synagogalmusik, seine künstlerische Verbundenheit mit Gustav Mahler, seine Kenntnis von Orgelmusik, Chorälen und den bachschen Passion und seine Selbstreflexion über sich als Künstler, der Jude war, fordert in dieser Hinsicht eine differenzierte und funktionale Sicht auf religiöse Semantik in der Musik. In der Dreigroschenoper spiegeln sich Säkularisierungsprozesse wider, doch bleibt trotz dieser Prozesse ein Bewusstsein für die religiösen Traditions- und Erklärungsmuster erhalten. Dieses gilt es wieder zu erschließen, da es untrennbar zum Werk, zur Werkästhetik und damit zu seinem Verständnis gehört. Die Dreigroschenoper verdeutlicht darüber hinaus, dass die religiöse Dimension noch in der Distanzierung bedeutsam bleibt. Auch daran wird erkennbar, wie sehr eine Gesellschaft von Voraussetzungen lebt, die sie nicht selbst hergestellt hat. Die Dreigroschenoper kann somit heute auch zu einem Lehrstück für kulturelle Codes werden.
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
Aus mehreren Untersuchungen zum Interesse der Schülerinnen und Schüler am Physikunterricht ist bekannt, dass der Unterricht dann für sie interessant ist, wenn die fachlichen Inhalte in einen für die Schülerinnen und Schüler relevanten Kontext eingebunden sind. Die vorliegende empirische Untersuchung beschäftigt sich mit dem Kontext „Physik lernen durch lehren“. Bei diesem Kontext sollen Schülerinnen und Schüler des Gymnasiums Physik lernen, um anschließend Kindern in der Vor- und Grundschule selbst naturwissenschaftliche Inhalte zu vermitteln. Der Kontext wurde dahingehend untersucht, inwiefern er das situationale Interesse der Schülerinnen und Schüler am Physikunterricht beeinflusst und welchen Einfluss er auf die Vermittlung fachlicher und überfachlicher Kompetenzen hat. Die Arbeit basiert auf der Selbstbestimmungstheorie der Motivation von Deci u. Ryan (1993) sowie der pädagogischen Interessentheorie von Krapp u. Prenzel (1992). Um die Interessantheit des Unterrichts im Kontext und den Erwerb von Kompetenzen festzustellen, wurden im Rahmen der Untersuchung zwei quantitative Studien mittels Fragebogenerhebungen und eine qualitative Studie in Form von Leitfaden-Interviews sowohl mit Schülerinnen und Schülern als auch mit Lehrkräften durchgeführt. Die Ergebnisse der Untersuchung zeigen, dass der Unterricht im Kontext „Physik lernen durch lehren“ hinsichtlich der Interessantheit deutlich den herkömmlichen Zugängen überlegen ist. In der Untersuchung wurde eine Reihe von potenziellen Einflussvariablen auf die festgestellte Interessantheit am Unterricht in dem zu unter-suchenden Kontext ermittelt. Der Unterricht wurde in erster Linie aufgrund der naturwissenschaftlichen Veranstaltungen mit den Vor- und Grundschulkindern für die Schülerinnen und Schüler interessanter. Es wurde festgestellt, dass der Kontext besonders bei Schülerinnen und Schülern, die am Unterrichtsfach Physik allgemein unterdurchschnittlich interessiert sind, auf ein größeres situationales Interesse stößt. Insbesondere Mädchen zeigen ein großes situationales Interesse an dem Kontext. Bei dem kontextorientierten Unterricht werden neben fachlichen Kompetenzen vor allem überfachliche Kompetenzen bei den Schülerinnen und Schülern gefördert. Der Schwerpunkt bei den fachlichen Kompetenzen liegt im Bereich des Prozesswissens, und bei den überfachlichen Kompetenzen werden primär das methodisch-problemlösende Lernen und das sozial-kommunikative Lernen gefördert.