732 resultados para Nun moth
Resumo:
Worin genau liegen Möglichkeiten und Faszination des Films im Unterricht? Wie vermitteln Filme Wissenswertes, wann sollte man einen Film im Unterricht zeigen und wann ist eine andere Methode zu bevorzugen? Die meisten Schüler erinnern sich nur daran, dass Filme vor Weihnachten oder den Ferien gezeigt wurden um die letzte(n) Stunde(n) zu überbrücken. Doch im Medium Film steckt viel größeres Potenzial. Schüler können nicht nur Rezipienten von Unterrichtsfilmen sein, mit einfachen technischen Mitteln können sie auch zum Produzenten kleiner Unterrichtsfilme und Dokumentationen werden. Um mit Filmen zu arbeiten oder sogar Filme mit Schülern zu erstellen, bedarf es bei der Lehrperson ebenso wie den Schülern besonderer Fähigkeiten. Trotz all dieser Anforderungen übt der Film, ob nun Spiel- oder Lehrfilm, immer einen ganz besonderen Reiz auf Schüler aus. Doch Film einlegen, anschalten und die Bildungsverantwortung dem Film überlassen, funktioniert in keinem Unterricht. Vielmehr ist es so, dass durch den Film verschiedenste Anforderungen im Vorfeld an die Lehrperson und später an den Schüler gestellt werden. Was also muss der Lehrer und später der Schüler beherrschen um mit Filmen im Unterricht produktiv arbeiten zu können? An dieser Stelle setzen insbesondere die Bildungsstandards an, deren Fokus auf der Vermittlung von Kompetenzen liegt, da gerade auch das Erlernen von Medienkompetenzen für einen späteren erfolgreichen Einstieg in das Berufsleben immer wichtiger wird.Die vorgelegte wissenschaftliche Hausarbeit gliedert sich inhaltlich in zwei Teile. Zielsetzung des Hauptteils der wissenschaftlichen Hausarbeit ist es, eine thematisch umfassende Zusammenstellung zum Thema Filme im Biologieunterricht zu erstellen. Ausgehend davon, dass das Thema „Filme im Biologieunterricht“ im Studium gar nicht oder nur am Rand behandelt wird und dass die einschlägig bekannten Fachdidaktiken dieser Thematik selten mehr als ein bis zwei Seiten im Lehrbuch widmen (vgl. Berck 2005 S.148), soll eine Übersicht des momentanen Forschungsstands gegeben werden. Dazu gehört eine Kategorisierung (biologischer) Lehr- und Spielfilme, eine Auseinandersetzung mit den verschiedenen Abspielmedien, ein Überblick über Zeitpunkt und Häufigkeit des Filmeinsatzes sowie die umfassende Darstellung der benötigten Arbeitsweisen und Einsatzmöglichkeiten. Im zweiten Teil der wissenschaftlichen Hausarbeit soll eine beispielhafte Unterrichtseinheit (Projekteinheit) geplant und vorgestellt werden, die Möglichkeiten aufzeigen soll, wie Schüler an das Thema Film herangeführt werden können und wie sie mit dem für sie alltäglichen Gebrauchsgegenstand Handy, Filme und Dokumentationen für den Unterricht gestalten können.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
Die Engel erfahren insbesondere in der Gegenwart ein wachsendes Interesse und spielen im Leben vieler Menschen mehr und mehr eine bedeutsame Rolle. Der Engelglaube scheint wiederzukehren. Nicht selten begegnet man Menschen, die an ihren persönlichen Schutzengel glauben und eine intensive Beziehung zu diesem aufbauen. Eine Forsa-Umfrage belegt diese Tendenz und stellt fest, dass mit 66% mehr Menschen an Engel glauben als an Gott (64%). Nicht nur aus diesem Grund stellt Thomas Ruster fest: „Und schon hat sich eine neue Religion herausgebildet, weltweit und in den Herzen unzähliger Menschen fest verankert: die Religion der Engel.“ Auch im Alltag begegnen uns Engel in den unterschiedlichsten Formen und Farben. Es gibt kaum einen Bereich der Alltagskultur, den die Engel noch nicht bevölkert haben. Sie sind allgegenwärtig. Betrachtet man nun diese aktuellen Entwicklungen, ist es eigentlich nicht verwunderlich, wie ein Interesse meinerseits für dieses Thema entstehen konnte. Dabei wies mich diese ununterbrochene Begegnung mit den Engeln vor allem auf eine interessante Gegenläufigkeit zwischen der Häufigkeit dieser Wesen im Alltag und der Seltenheit der tatsächlichen gegenwärtigen theologischen Beschäftigung mit ihnen hin. Wo begegnet man den Engeln also heute noch in christlicher Hinsicht? Außerdem entwickelte sich für mich als angehende Religionslehrerin auch eine andere Fragestellung: Bietet die Aktualität der Engel im alltäglichen Leben der Menschen nicht auch gerade einen Anknüpfungspunkt, um den verloren gegangenen Gottesglauben und die nur noch vereinzelt gemachten religiösen Erfahrungen wiederzubeleben? Die nachfolgende Arbeit ist auf erster Ebene in zwei Bereiche gegliedert. In Teil A soll dabei eine theoretische Grundlegung des anschließenden Forschungsprojektes (Teil B) vorgenommen werden. Diesbezüglich werden zunächst die wichtigsten Aspekte der Engellehre aus biblischer, religionsgeschichtlicher, kunsthistorischer und gegenwartsbezogener Sicht vorgestellt. Im Teil B wird dann die empirische Untersuchung in einer vierten Klasse an einer hessischen Grundschule vorgestellt. Die Arbeit endet mit einer Reflexion der erworbenen Daten und abschließenden Überlegungen.
Resumo:
Mit der Einführung von Qualitätsmanagementsystemen an Beruflichen Schulen stellt sich für die externe Evaluation (Breitbandevaluation) die Herausforderung, verstärkt auf jene Aspekte einzugehen, die traditionell in den Bereich der Metaevaluation des Qualitätsmanagements (QM) gehören. So müssen sich in Hessen die Schulen, die sich für die nach dem 2011 novellierten Hessischen Schulgesetz ermöglichte Selbstständigkeit entscheiden, ein QM-System einführen. Erfolgt dies auf der Basis des Q2E-Modells, ist vorgesehen, ihnen ab 2012 eine Metaevaluation nach Q2E kombiniert mit Elementen der Schulinspektion im Rahmen einer Primärevaluation des Qualitätsbereichs „Lehren und Lernen“ des Hessischen Referenzrahmens für Schulqualität anzubieten. Hierfür wurde das Verfahren QEE-Hessen konzipiert und pilotiert. In dem Verfahren wird der Qualitätsbegriff an den beruflichen Schulen in Hessen dergestalt konkretisiert, dass zwei Qualitätskonzepte - Q2E und Schulinspektion - zusammengeführt werden. Die Reflexion des Verfahrens und seiner Pilotierung erfolgt auf den Grundlagen der beiden kombinierten Verfahren externer Evaluation sowie auf alltagstheoretischer und auf wissenschaftstheoretischer Ebene. Die Autoren machen Optimierungsvorschläge und stellen als positives Ergebnis fest, dass durch QEE-Hessen für alle Maßnahmen der schulischen Qualitätsentwicklung und -sicherung nun der Hessische Referenzrahmen Schulqualität als verbindlicher Orientierungsrahmen dient, der einheitliche Kriterien vorgibt, auf dessen Basis selbstständige Berufliche Schulen entwickelt, evaluiert, legitimiert und gesteuert werden können.
Resumo:
Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
Livestock production contributes substantially to the livelihoods of poor rural farmers in Pakistan; strengthening pastoral communities plays an imperative role in the country’s thrive for poverty alleviation. Intestinal helminths constitute a major threat for pastoral livestock keepers in the whole country because chronic infestation leads to distinct losses in livestock productivity, particularly the growth of young animals. Synthetic anthelmintics have long been considered the only effective way of controlling this problem but high prices, side effects and chemical residues/toxicity problems, or development of resistance, lead to their very limited use in many pastoral systems. Additionally, poor pastoralists in remote areas of Pakistan hardly have access to appropriate anthelmintic drugs, which are also relatively expensive due to the long routes of transportation. The search for new and more sustainable ways of supporting livestock keepers in remote areas has given rise to studies of ethno-botanicals or traditional plant-based remedies to be used in livestock health care. Plant-based remedies are cheap or free of cost, environmentally safe and generally create no problem of drug resistance; they thus might substitute allopathic drugs. Furthermore, these remedies are easily available in remote areas and simple to prepare and/or administer. Cholistan desert is a quite poor region of Pakistan and the majority of its inhabitants are practicing a nomadic life. The region’s total livestock population (1.29 million heads) is almost twice that of the human population. Livestock husbandry is the primordial occupation of the communities and traditionally wealth assessment was based on the number of animals, especially goats and sheep, owned by an individual. Fortunately, about 60% of this desert region is richly endowed with highly adapted grasses, shrubs and trees. This natural flora has a rich heritage of scientifically unexplored botanical pharmacopoeia. Against this background, the present research project that was conducted under the umbrella of the International Center for Development and Decent Work at Kassel University, focused on a development aspect: in the Cholistan desert region it was firstly examined how pastoralists manage their livestock, which major health problems they face for the different animal species, and which of the naturally occurring plants they use for the treatment of animal diseases (Chapter 2). For this purpose, a baseline survey was carried out across five locations in Cholistan, using a structured questionnaire to collect data from 100 livestock farmers (LF) and 20 local healers (LH). Most of LF and LH were illiterate (66%; 70%). On average, LH had larger herds (109 animals) than LF (85 animals) and were more experienced in livestock husbandry and management. On average LF spent about 163 Euro per year on the treatment of their livestock, with a huge variability in expenditures. Eighty-six traditional remedies based on 64 plants belonging to 43 families were used. Capparaceae was the botanical family with the largest number of species used (4), followed by Chenopodiaceae, Poaceae, Solanaceae and Zygophyllaceae (3). The plants Capparis decidua (n=55 mentions), Salsola foetida (n=52), Suaeda fruticosa (n=46), Haloxylon salicornicum (n=42) and Haloxylon recurvum (n=39) were said to be most effective against the infestations with gastrointestinal parasites. Aerial parts (43%), leaves (26%), fruits (9%), seeds and seed oils (9%) were the plant parts frequently used for preparation of remedies, while flowers, roots, bulbs and pods were less frequently used (<5%). Common preparations were decoction, jaggery and ball drench; oral drug administration was very common. There was some variation in the doses used for different animal species depending on age, size and physical condition of the animal and severity of the disease. In a second step the regionally most prevalent gastrointestinal parasites of sheep and goats were determined (Chapter 3) in 500 animals per species randomly chosen from pastoral herds across the previously studied five localities. Standard parasitological techniques were applied to identify the parasites in faecal samples manually collected at the rectum. Overall helminth prevalence was 78.1% across the 1000 animals; pure nematode infestations were most prevalent (37.5%), followed by pure trematode (7.9%), pure cestode (2.6%) and pure protozoa infestations (0.8%). Mixed infestations with nematodes and trematodes occurred in 6.4% of all animals, mixed nematode-cestode infestations in 3.8%, and all three groups were found in 19.1% of the sheep and goats. In goats more males (81.1%) than females (77.0%) were infested, the opposite was found in sheep (73.6% males, 79.5% females). Parasites were especially prevalent in suckling goats (85.2%) and sheep (88.5%) and to a lesser extent in young (goats 80.6%, sheep 79.3%) and adult animals (goats 72.8%, sheep 73.8%). Haemonchus contortus, Trichuris ovis and Paramphistomum cervi were the most prevalent helminths. In a third step the in vitro anthelmintic activity of C. decidua, S. foetida, S. fruticosa, H. salicornicum and H. recurvum (Chapter 2) was investigated against adult worms of H. contortus, T. ovis and P. cervi (Chapter 3) via adult motility assay (Chapter 4). Various concentrations ranging from 7.8 to 500 mg dry matter/ml of three types of extracts of each plant, i.e. aqueous, methanol, and aqueous-methanol (30:70), were used at different time intervals to access their anthelmintic activity. Levamisol (0.55 mg/ml) and oxyclozanide (30 mg/ml) served as positive and phosphate-buffered saline as negative control. All extracts exhibited minimum and maximum activity at 2 h and 12 h after parasite exposure; the 500 mg/ml extract concentrations were most effective. Plant species (P<0.05), extract type (P<0.01), parasite species (P<0.01), extract concentration (P<0.01), time of exposure (P<0.01) and their interactions (P<0.01) had significant effects on the number of immobile/dead helminths. From the comparison of LC50 values it appeared that the aqueous extract of C. decidua was more potent against H. contortus and T. ovis, while the aqueous extract of S. foetida was effective against P. cervi. The methanol extracts of H. recurvum were most potent against all three types of parasites, and its aqueous-methanol extract was also very effective against T. ovis and P. cervi. Based on these result it is concluded that the aqueous extract of C. decidua, as well as the methanol and aqueous-methanol extract of H. recurvum have the potential to be developed into plant-based drugs for treatment against H. contortus, T. ovis and P. cervi infestations. Further studies are now needed to investigate the in vivo anthelmintic activity of these plants and plant extracts, respectively, in order to develop effective, cheap and locally available anthelmintics for pastoralists in Cholistan and neighboring desert regions. This will allow developing tangible recommendations for plant-based anthelminthic treatment of sheep and goat herds, and by this enable pastoralists to maintain healthy and productive flocks at low costs and probably even manufacture herbal drugs for marketing on a regional scale.
Resumo:
Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.
Resumo:
„Egoist dank Bachelor?“ (Zeit online 2009). So lautet der Titel einer Leserdebatte zu ehrenamtlichem Engagement an der Hochschule, welche in der Online-Ausgabe der Wochenzeitung Die Zeit angestoßen wurde. Der zur Diskussion beitragende User „taralenatara“ äußerte sich am 27. Dezember 2009 um 18.15 Uhr folgendermaßen dazu: „Ich engagiere mich neben meinem Studium im FSR [Fachschaftsrat] und ich muss sagen, dass diese Arbeit sehr viel Zeit in Anspruch nimmt, die ich eigentlich bei meinem Bachelorstudium gar nicht habe. Ich habe zu tun, alles unter einen Hut zu bekommen. Wenn ich meine Arbeit gut machen möchte, muss ich aufpassen, dass das Studium nicht auf der Strecke bleibt. Zudem kann trotz Interesse kaum jemand für so eine Aufgabe gewonnen werden, da alle als Grund ‚Zeitmangel‘ angeben. Ist natürlich u.a. Studiengang abhängig – aber der Unterschied zwischen Diplom- und Bachelorzeiten ist deutlich zu spüren.“ Ein subjektiver Beitrag wie dieser kann sicherlich nicht als allgemeingültig betrachtet werden. Dennoch kritisieren diese und andere Aussagen weiterer Diskussionsteilnehmer den Bologna-Prozess – auch im Vergleich zu den traditionellen Studiengängen wie Diplom oder Magister – bezüglich seines Einflusses auf ehrenamtliches Engagement Studierender vehement. Unter anderem wird die Kritik über folgende Schlagworte angeführt: Überfüllte Lehrpläne, zunehmender Druck, viele Referate und Klausuren, wenig bis keine Freizeit und (oder dadurch?) eingeschränkte oder keine Zeit bzw. Möglichkeit für ehrenamtliches studentisches Engagement an der Hochschule. Bedeutet dies nun, wie Zeit online (2009) provokativ schreibt, „Ellenbogen statt Ehrenamt“ und steht diese Aussage exemplarisch für die Be- bzw. Verhinderung von ehrenamtlichem Engagement durch den Bologna-Prozess? In der vorliegenden Wissenschaftlichen Hausarbeit zum 1. Staatsexamen soll eben jenes Verhältnis herausgestellt werden, ob und inwieweit sich der Bologna-Prozess und ehrenamtliches Engagement an der Hochschule wirklich unversöhnlich gegenüberstehen. Weiter soll thematisiert werden, welche möglichen Zukunftsperspektiven sich daraus ergeben. Die Arbeit gliedert sich hierfür in fünf Teile (inklusive eines resümierenden Fazits), die nachfolgend erläutert werden.
Resumo:
Albert Einstein gilt wohl als einer der genialsten Menschen und größten Physiker aller Zeiten. Das Zitat „Es ist schwieriger, eine vorgefasste Meinung zu zertrümmern als ein Atom.“ stammte ebenfalls von ihm und verweist auf eine schier unmögliche Aufgabe. Doch bedenkt man, dass zu Einsteins Zeiten der griechische Begriff „atomos“, der dem „Atom“ seinen Namen verlieh, noch „unteilbar“ meinte, konnte (vermutlich einige Zeit nach diesem Zitat) das Unmögliche doch möglich gemacht werden. Heute, im Zeitalter der Atomenergie ist Einsteins Zitat wohl nur noch zu belächeln. Wie aber verhält es sich nun mit den vorgefassten Meinungen, mit den Stereotypen und Vorurteilen? Ist es auch heute, trotz fokussierter Anti-Diskriminierungs-Arbeit, noch nicht möglich, diese zu überwinden? Zunächst möchte ich die Begrifflichkeiten „Stereotyp“ und „Vorurteil“ in Abhängigkeit voneinander definieren. Danach soll erörtert werden, ob Stereotypen komplett erfunden sind, oder vielleicht doch einen wahren Kern besitzen. In Anlehnung an die hier dargestellten Ergebnisse, möchte ich schließlich zeigen, wie aus einem kulturellen Unterschied ein Vorurteil werden kann. Dabei stehen psychologische und soziologische Erscheinungen wie Ethnozentrismus, Wahrnehmungskonstruktion, kognitive Vereinfachung, Kategorisierung, Sozialisation und das Phänomen der selbsterfüllenden Prophezeiung im Zentrum meiner Aufmerksamkeit und sollen durch die Schilderung verschiedener Experimente ergänzt und bewiesen werden. Das vierte Kapitel soll der Relevanz von Stereotypen und Vorurteilen gelten. Dabei werde ich zuerst auf ihre allgemeinen Wirkungen und Folgen eingehen, da Vorurteile gesellschaftlich oft verpönt sind, kaum aber jemand weiß, warum. Danach möchte ich auch die Bedeutsamkeit von vorgefassten Meinungen auf Seite der Lehrer betrachten und gleichzeitig zeigen, dass niemand frei von Vorurteilen zu sein scheint. Schließlich soll auch die bildungspolitische Wichtigkeit der Abschaffung von Intoleranzen beleuchtet werden. Dazu werde ich beispielhaft die fächerübergreifenden Kompetenzen sowie den Lehrplan Französisch untersuchen. Nachdem nun die Entstehung von Vorurteilen sowie deren Bedeutung erläutert wurde, soll im darauffolgenden Kapitel gezeigt werden, wie diese abgeschafft werden können und wo die Gestaltpädagogik ansetzt. Dazu werde ich die zwölf gestaltpädagogischen Prinzipien nach Burow (1988) theoretisch auf ihre Möglichkeiten und Grenzen in der Vorurteilsüberwindung untersuchen. Diese Theorie soll schließlich auch in die Praxis umgesetzt werden. Demzufolge möchte ich in Kapitel 6 meine Erfahrungen mit Gestaltpädagogik, angewendet auf die Vorurteile französischer Schüler über Deutsche, darstellen und herausfinden, ob es tatsächlich möglich ist, Stereotypen mit Hilfe dieser Erziehungswissenschaft zu verhindern.
Resumo:
Seit der Entdeckung der Methyltransferase 2 als hoch konserviertes und weit verbreitetes Enzym sind zahlreiche Versuche zur vollständigen Charakterisierung erfolgt. Dabei ist die biologische Funktion des Proteins ein permanent umstrittener Punkt. In dieser Arbeit wird dnmA als sensitiver Oszillator bezüglich des Zellzyklus und weiterer Einflüsse gezeigt. Insgesamt liegt der Hauptfokus auf der Untersuchung der in vivo Charakterisierung des Gens, der endogenen subzellulären Verteilung, sowie der physiologischen Aufgaben des Proteins in vivo in D. discoideum. Um Hinweise auf Signalwege in vivo zu erhalten, in denen DnmA beteiligt ist, war es zunächst notwendig, eine detaillierte Analyse des Gens anzufertigen. Mit molekularbiologisch äußerst sensitiven Methoden, wie beispielsweise Chromatin‐IP oder qRT‐PCR, konnte ein vollständiges Expressionsprofil über den Zell‐ und Lebenszyklus von D. discoideum angelegt werden. Besonders interessant sind dabei die Ergebnisse eines ursprünglichen Wildtypstammes (NC4), dessen dnmA‐Expressionsprofil quantitativ von anderen Wildtypstämmen abweicht. Auch auf Proteinebene konnten Zellzyklus‐abhängige Effekte von DnmA bestimmt werden. Durch mikroskopische Untersuchungen von verschiedenen DnmA‐GFP‐Stämmen wurden Lokalisationsänderungen während der Mitose gezeigt. Weiterhin wurde ein DnmA‐GFP‐Konstrukt unter der Kontrolle des endogenen Promotors generiert, wodurch das Protein in der Entwicklung eindeutig als Zelltypus spezifisches Protein, nämlich als Präsporen‐ bzw. Sporenspezifisches Protein, identifiziert werden konnte. Für die in vivo Analyse der katalytischen Aktivität des Enzyms konnten nun die Erkenntnisse aus der Charakterisierung des Gens bzw. Proteins berücksichtigt werden, um in vivo Substratkandidaten zu testen. Es zeigte sich, dass von allen bisherigen Substrat Kandidaten lediglich die tRNA^Asp als in vivo Substrat bestätigt werden konnte. Als besondere Erkenntnis konnte hierbei ein quantitativer Unterschied des Methylierungslevels zwischen verschiedenen Wildtypstämmen detektiert werden. Weiterhin wurde die Methylierung sowie Bindung an einen DNA‐Substratkandidaten ermittelt. Es konnte gezeigt werden, dass DnmA äußerst sequenzspezifisch mit Abschnitten des Retrotransposons DIRS‐1 in vivo eine Bindung eingeht. Auch für den Substrakandidaten snRNA‐U2 konnte eine stabile in vitro Komplexbildung zwischen U2 und hDnmt2 gezeigt werden. Insgesamt erfolgte auf Basis der ermittelten Expressionsdaten eine erneute Charakterisierung der Aktivität des Enzyms und der Substrate in vivo und in vitro.
Resumo:
Die langfristig sichere und bezahlbare Versorgung von Mietern mit Wohnraum ist ein wichtiger Gesichtspunkt bei der Entscheidung von Wohnungsunternehmen, welche Objekte in welchem Umfang und wann energiesparend modernisiert werden. Eine integrierte Analyse der Wohnkostenbelastung (= Quotient aus Bruttowarmmiete und Haushaltsnettoeinkommen) im Zeitverlauf wurde bislang für die GdW-Wohnungsunternehmen noch nicht vorgenommen. Diese Arbeit schafft ein Modell für die Darstellung der zeitlichen Entwicklung der Wohnkostenbelastung. Ziel ist es, die Auswirkungen von Investitionsentscheidungen für energetische Modernisierungen besser zu verstehen. Als Eingangsdaten wurden soweit wie möglich empirische Daten für alle Bestandteile der Wohnkosten sowie für die entsprechenden Preissteigerungsraten und Einkommensentwicklungen zusammengestellt, die nun auch für die weitere Forschung zur Verfügung stehen. Es werden in der Arbeit 18 Gebäudetypen definiert, die sich nach Stand der energetischen Modernisierung und nach Energieträger unterscheiden und die 97% der durch GdW-Unternehmen bewirtschafteten Wohnungen abbilden. Für diese Typen wird die Entwicklung der Wohnkostenbelastung in verschiedenen Szenarien diskutiert. Besonders ausführlich werden Entwicklungen der Wohnkostenbelastung bei überdurchschnittlicher Anfangswohnkostenbelastung analysiert.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Die lokale Anlagerung molekularer Substanzen auf Oberflächen ist technologisch von großem Interesse. Die Beeinflussung selbstassemblierender Materialien bietet dabei große Vorteile, da sie kostengünstig und großflächig angewendet werden kann. Untersuchungen einer solchen Beeinflussung mithilfe von magnetischen Feldern wurden bisher jedoch noch nicht durchgeführt. Ursache hierfür ist das, insbesondere bei der Verwendung von diamagnetischen Substanzen, geringe induzierte magnetische Moment und die daraus resultierenden geringen magnetischen Kräfte. In der vorliegenden Arbeit wurde untersucht, ob es möglich ist, die lokale Anlagerung von selbstassemblierenden, diamagnetischen Substanzen durch die Verwendung von magnetischen Streufeldern zu beeinflussen und somit ein Schichtwachstum bevorzugt in gewünschten Bereichen eines Substrats zu erreichen. Es wurde ein austauschverschobenes Dünnschichtsystem über das Verfahren der ionenbeschuss-induzierten magnetischen Strukturierung mit einem künstlichen Domänenmuster in streifenförmiger Anordnung im Mikrometermaßstab erzeugt. Über experimentelle Untersuchungen wurden die aus diesem Schichtsystem austretenden magnetischen Streufelder erstmals quantifiziert. Die experimentell unvermeidbaren Mittelungen und technischen Limitierungen wurden mithilfe eines theoretischen Modells herausgerechnet, sodass letztlich die resultierende Magnetfeldlandschaft in allen drei Dimensionen über der Probenoberfläche erhalten wurde. Durch die Bestimmung der magnetischen Suszeptibilitäten der hier verwendeten thioethersubstituierten Subphthalocyanin-Derivate konnte somit die Berechnung der induzierten magnetischen Kräfte erfolgen, deren Vergleich mit Literaturwerten eine erfolgreiche Beeinflussung der Anlagerung dieser Substanzen erhoffen ließ. Aufgrund der Kombination diverser, anspruchsvoller Nachweisverfahren konnte der experimentelle Beweis für die erfolgreiche Positionierung der molekularen Substanzen durch die magnetischen Streufelder des Dünnschichtsystems erbracht werden. Zunächst wurde nachgewiesen, dass sich die Subphthalocyanin-Derivate auf der Probenoberfläche befinden und in einer mit der Periode der magnetischen Domänenstruktur korrelierenden Geometrie anlagern. Über Untersuchungen an Synchrotronstrahlungsquellen konnte die magnetische Streifenstruktur mit der Struktur der angelagerten Moleküle überlagert werden, sodass bekannt wurde, dass sich die Moleküle bevorzugt in den magnetisch begünstigten Bereichen anlagern. Um mögliche Einflüsse einer eventuell durch den magnetischen Strukturierungsprozess lokal modifizierten Substratoberfläche als Ursache für die lokale Molekülanlagerung ausschließen zu können, wurden zusätzliche Referenzmessungen durchgeführt. Alle Untersuchungen zeigen, dass die Molekülpositionierung auf der Wechselwirkung der diamagnetischen Substanzen mit den Streufeldern des Substrats zurückzuführen ist. Der im Rahmen dieser Arbeit entwickelte Mechanismus der magnetischen Beeinflussung der lokalen Molekülanlagerung besagt dabei, dass insbesondere die Oberflächendiffusion der selbstassemblierenden Substanz durch die in-plane-Magnetfeldkomponente beeinflusst wird und vermutlich die Nukleationsphase der Selbstassemblierung entscheidend für die lokale Materialabscheidung ist. Es konnte in dieser Arbeit somit gezeigt werden, dass eine Beeinflussung der Selbstassemblierung von diamagnetischen Subphthalocyanin-Derivaten und somit eine lokal bevorzugte Anlagerung dieser Substanzen durch magnetische Streufelder von magnetisch strukturierten austauschverschobenen Dünnschichtsystemen erreicht werden kann. Es resultiert somit eine neue Möglichkeit die technologisch wichtigen Selbstassemblierungsprozesse nun auch über magnetische Streufelder beeinflussen und kontrollieren zu können. Durch die hohe Flexibilität bei den Strukturierungsmöglichkeiten der magnetischen Domänengeometrien der hier verwendeten austauschverschobenen Dünnschichtsysteme resultieren aus den hier gezeigten Ergebnissen vielfältige Anwendungsmöglichkeiten im Bereich der Beschichtungstechnik.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.