187 resultados para Ziel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heutzutage haben selbst durchschnittliche Computersysteme mehrere unabhängige Recheneinheiten (Kerne). Wird ein rechenintensives Problem in mehrere Teilberechnungen unterteilt, können diese parallel und damit schneller verarbeitet werden. Obwohl die Entwicklung paralleler Programme mittels Abstraktionen vereinfacht werden kann, ist es selbst für Experten anspruchsvoll, effiziente und korrekte Programme zu schreiben. Während traditionelle Programmiersprachen auf einem eher geringen Abstraktionsniveau arbeiten, bieten funktionale Programmiersprachen wie z.B. Haskell, Möglichkeiten zur fortgeschrittenen Abstrahierung. Das Ziel der vorliegenden Dissertation war es, zu untersuchen, wie gut verschiedene Arten der Abstraktion das Programmieren mit Concurrent Haskell unterstützen. Concurrent Haskell ist eine Bibliothek für Haskell, die parallele Programmierung auf Systemen mit gemeinsamem Speicher ermöglicht. Im Mittelpunkt der Dissertation standen zwei Forschungsfragen. Erstens wurden verschiedene Synchronisierungsansätze verglichen, die sich in ihrem Abstraktionsgrad unterscheiden. Zweitens wurde untersucht, wie Abstraktionen verwendet werden können, um die Komplexität der Parallelisierung vor dem Entwickler zu verbergen. Bei dem Vergleich der Synchronisierungsansätze wurden Locks, Compare-and-Swap Operationen und Software Transactional Memory berücksichtigt. Die Ansätze wurden zunächst bezüglich ihrer Eignung für die Synchronisation einer Prioritätenwarteschlange auf Basis von Skiplists untersucht. Anschließend wurden verschiedene Varianten des Taskpool Entwurfsmusters implementiert (globale Taskpools sowie private Taskpools mit und ohne Taskdiebstahl). Zusätzlich wurde für das Entwurfsmuster eine Abstraktionsschicht entwickelt, welche eine einfache Formulierung von Taskpool-basierten Algorithmen erlaubt. Für die Untersuchung der Frage, ob Haskells Abstraktionsmethoden die Komplexität paralleler Programmierung verbergen können, wurden zunächst stencil-basierte Algorithmen betrachtet. Es wurde eine Bibliothek entwickelt, die eine deklarative Beschreibung von stencil-basierten Algorithmen sowie ihre parallele Ausführung erlaubt. Mit Hilfe dieses deklarativen Interfaces wurde die parallele Implementation vollständig vor dem Anwender verborgen. Anschließend wurde eine eingebettete domänenspezifische Sprache (EDSL) für Knoten-basierte Graphalgorithmen sowie eine entsprechende Ausführungsplattform entwickelt. Die Plattform erlaubt die automatische parallele Verarbeitung dieser Algorithmen. Verschiedene Beispiele zeigten, dass die EDSL eine knappe und dennoch verständliche Formulierung von Graphalgorithmen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als Kräuter werden alle krautigen Pflanzen, die nicht zu den Gehölzen und zu den Gräsern zählen, bezeichnet. Sie erfüllen wichtige Funktionen bei der Förderung von Insekten und der Ästhetik von Landschaften und tragen zur Verbesserung des Grundfutters landwirtschaftlicher Nutztiere bei. Ansaaten von Kräutern in geschlossene Vegetationsdecken und bei Neuanlagen sind durch deren langandauernde Entwicklungsphasen sehr schwierig zu realisieren. Eine innovative Option zur Etablierung in Grünlandbeständen kann die Herstellung von Kräutersoden sein. Ziel dieser Arbeit ist die Untersuchung der Eignung von Kräutern zur Sodenproduktion. Durch unterschiedliche Merkmale von Kräutern und Gräsern können Probleme bei der Entwicklung von Kräutersoden auftreten. In dieser Arbeit sind verschiedene Anbauversuche mit Wurzelkürzungen und Ertragsbestimmungen sowie Sodenverpflanzungen, die Ermittlung eines optimalen Trägermaterials und Untersuchungen zur Entwicklung eines Sodenschneidersystems durchgeführt worden. Wurzelkürzungen an Kräutern ergaben, dass die Bildung der Gesamtwurzelmasse, der Wurzelneubildung und der Masse des Oberbewuchses bei einzelnen Kräutern nur z.T. im Zusammenhang mit der Schnitttiefe stehen und die Entwicklungsstadien der Kräuter keine signifikanten Unterschiede aufzeigen. Hieraus ergibt sich, dass ein Wurzelschnitt generell möglich ist, jedoch verschiedenen Arte von Kräutern unterschiedlich stark auf diesen reagieren. Zu den Entwicklungsstadien, zum Ertrag des Bewuchses und zum Anwurzelungsverhalten von Kräutersoden können in Abhängigkeit vom Vorzuchtsort und im Vergleich zu Fertigrasen keine abschließenden Aussagen getroffen werden. Es besteht daher weiterer Forschungsbedarf. Ein kombinierter Anbau mit Untergräsern eignet sich durch die wuchsverdrängende Wirkung nicht zur Stabilisierung von Kräutersoden. Es konnte aber gezeigt werden, dass Trägermaterial aus Kokosfaser durch die hohe Zugfestigkeit und der Langlebigkeit des Materials geeignet ist. Demzufolge könnte es bei der Produktion von Kräutersoden eine wichtige Rolle spielen. Das Design von Sodenschneidertechnik aus dem Fertigrasenanbau kann nicht auf die Erzeugung von Kräutersoden übertragen werden, da Kräuter andere Wurzelmerkmale als Gräser haben und sich daher spezielle Anforderungen ergeben. Für einen erfolgreichen Schälvorgang von Kräutersoden bedarf es der Entwicklung einer speziell angepassten Technik. Denkbar währe die Verwendung oszillierender Schneideorgane, welche den Schneidevorgang besser ermöglichen könnten. Dadurch, dass ein flacher Wurzelschnitt bei Kräutern erfolgen kann, ist eine Erzeugung von Kräutersoden möglich. Aufgrund von morphologischen Unterschieden zwischen Kräutern und Gräsern unterscheiden sich diese in ihren Anforderungsprofilen, die Techniken der Fertigrasenproduktion können somit nicht direkt auf eine Kräutersodenproduktion übertragen werden. Mit dieser Arbeit fand ein erster Ansatz zur technischen Entwicklung einer Kräutersodenproduktion statt. Die Versuche haben gezeigt, dass noch viele Fragen bei der Entwicklung von Kräutersoden offen sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The global power supply stability is faced to several severe and fundamental threats, in particular steadily increasing power demand, diminishing and degrading fossil and nuclear energy resources, very harmful greenhouse gas emissions, significant energy injustice and a structurally misbalanced ecological footprint. Photovoltaic (PV) power systems are analysed in various aspects focusing on economic and technical considerations of supplemental and substitutional power supply to the constraint conventional power system. To infer the most relevant system approach for PV power plants several solar resources available for PV systems are compared. By combining the different solar resources and respective economics, two major PV systems are identified to be very competitive in almost all regions in the world. The experience curve concept is used as a key technique for the development of scenario assumptions on economic projections for the decade of the 2010s. Main drivers for cost reductions in PV systems are learning and production growth rate, thus several relevant aspects are discussed such as research and development investments, technical PV market potential, different PV technologies and the energetic sustainability of PV. Three major market segments for PV systems are identified: off-grid PV solutions, decentralised small scale on-grid PV systems (several kWp) and large scale PV power plants (tens of MWp). Mainly by application of ‘grid-parity’ and ‘fuel-parity’ concepts per country, local market and conventional power plant basis, the global economic market potential for all major PV system segments is derived. PV power plant hybridization potential of all relevant power technologies and the global power plant structure are analyzed regarding technical, economical and geographical feasibility. Key success criteria for hybrid PV power plants are discussed and comprehensively analysed for all adequate power plant technologies, i.e. oil, gas and coal fired power plants, wind power, solar thermal power (STEG) and hydro power plants. For the 2010s, detailed global demand curves are derived for hybrid PV-Fossil power plants on a per power plant, per country and per fuel type basis. The fundamental technical and economic potentials for hybrid PV-STEG, hybrid PV-Wind and hybrid PV-Hydro power plants are considered. The global resource availability for PV and wind power plants is excellent, thus knowing the competitive or complementary characteristic of hybrid PV-Wind power plants on a local basis is identified as being of utmost relevance. The complementarity of hybrid PV-Wind power plants is confirmed. As a result of that almost no reduction of the global economic PV market potential need to be expected and more complex power system designs on basis of hybrid PV-Wind power plants are feasible. The final target of implementing renewable power technologies into the global power system is a nearly 100% renewable power supply. Besides balancing facilities, storage options are needed, in particular for seasonal power storage. Renewable power methane (RPM) offers respective options. A comprehensive global and local analysis is performed for analysing a hybrid PV-Wind-RPM combined cycle gas turbine power system. Such a power system design might be competitive and could offer solutions for nearly all current energy system constraints including the heating and transportation sector and even the chemical industry. Summing up, hybrid PV power plants become very attractive and PV power systems will very likely evolve together with wind power to the major and final source of energy for mankind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kooperation zwischen den beiden Phasen der Lehrerbildung an Universität und Studienseminar und die Qualitätsssteigerung der schulpraktischen Ausbildung werden nicht nur im Hessischen Lehrerbildungsgesetz als eine der Möglichkeiten gesehen, die Ausbildungsqualität angehender Lehrer zu verbessern. Um die Bedingungen für die Intensivierung der Kooperation zwischen den beiden Phasen bestimmen zu können werden in einer Expertenbefragung (Studie 1) die Haltung und Erwartung von Vertretern der universitären Lehrerbildung, des Referendariats und der Bildungsadministration erhoben. Dabei werden die Schulpraktischen Studien als Beispiele für eine phasenübergreifende Kooperation herausgestellt. Die Untersuchung zeigt aber nicht nur geeignete Möglichkeit der Zusammenarbeit auf. Es werden auch Ursachen erforscht, welche Gründe die Kooperation hemmen oder behindern, wie etwa gegenseitige Vorbehalte, fehlende Verbindlichkeit oder institutionalisiertes Ungleichgewicht zwischen den beiden Phasen. Seit der Kritik u. a. von Terhart (2000) an der mangelnden Abstimmung zwischen Erster und Zweiter Phase der Lehrerbildung und der Klage von Oelkers (2000) über den fehlenden Nachweis, wie wirksam die Lehrerbildung ist, sind in den letzten Jahren Studien über die Erste und Zweite Phase der Lehrerbildung entstanden. In die Darstellung des Stand der Forschung zur schulpraktischen Lehrerausbildung werden zwei groß angelegte Untersuchungen (MT21 und COACTIV) einbezogen, deren Ergebnisse die Diskussion um die Wirksamkeit der (Mathematik-) Lehrerbildung und der Bedeutung des (mathematik-)fachdidaktischen Wissens in den letzten Jahren entscheidend geprägt haben. Darüber hinaus werden die Forschungen des Deutschen Instituts für internationale Bildungsforschung (DIPF) zum Referendariat und von Schubarth zur Lehrerausbildung in der Ersten und Zweiten Phase dargestellt. Zu den schulpraktischen Studien werden einschlägige Untersuchungen angeführt (wie die von Hascher oder von Bodensohn u.a.), die ergänzt bzw. kontrastiert werden durch die Ergebnisse kleinerer Evaluationen. Schließlich werden Studien zur Rolle der Mentoren herangezogen, die sich mit den Unterrichtsnachbesprechungen im Rahmen der Schulpraktika oder mit dem Mentorieren auseinandersetzen. In die Ergebnisse der Studie 1 (s.o.) und in den Forschungsstand lassen sich Kooperationsformen zwischen der Ersten und Zweiten Phase der Lehrerbildung einbetten, die in der schulpraktischen Ausbildung verwirklicht werden können. Mit dem Kooperationspraktikum haben Vertreter der Ersten und der Zweiten Phase der Lehrerausbildung gemeinsame eine Form gefunden, wie ohne strukturelle Veränderung und bei möglichst geringem zusätzlichen Aufwand im bestehenden Ausbildungsrahmen eine fünfwöchige Lernpartnerschaft zwischen Referendaren und Studierenden unter Verantwortung eines gemeinsamen Mentors realisiert werden kann. Die Evaluation dieses Kooperationspraktikums (Studie 2) zeigt, dass die Lernpartner diese Art der Zusammenarbeit positiv empfinden. Es werden aber auch Probleme aufgezeigt, die verdeutlichen, mit welchen Schwierigkeiten die Forderung nach phasenübergreifender Kooperation in der konkreten Umsetzung verbunden sein kann. Um die Befunde aus der Evaluation zum Kooperationspraktikum auch wegen der relativ kleinen Stichprobe richtig einordnen zu können, werden sie mit den relevanten Forschungsergebnissen in Verbindung gebracht. Idealisierende Vorstellungen von Kooperation zwischen Erster und Zweiter Phase sind allerdings fehl am Platz. Die Hoffnung auf einen bruchlosen Übergang unterschätzt auch die Anforderungen an den Rollenwechsel vom Studierenden zum Referendaren. Um ein Kooperation durch Lernpartnerschaften im Rahmen eines Kooperationspraktikums zu verwirklichen, sind Gelingens¬bedingungen zu berücksichtigen, zu denen sowohl Rahmenbedingungen als auch die Möglichkeiten zur Institutionalisierung gehören. Beide Ausbildungsphasen haben zwar als gemeinsames Ziel, Lehrer für die Schule zu qualifizieren und sie verbindet zudem der schulpraktische Ausbildungsteil, der in den Schulen stattfindet. Dieser Ausbildungsteil hat aber je nach Phase eine andere Bedeutung und unterscheidet sich zudem nicht nur nach Aufwand und Anspruch, sondern vor allem aufgrund der institutionellen Rolle seiner Akteure. Das Kooperationspraktikum berücksichtigt diese Unterschiedlichkeit und zeigt trotzdem einen Weg auf, gegenseitigen von der Zusammenarbeit zu profitieren. Von daher kann das Kooperationspraktikum einen Beitrag zur Weiterentwicklung der phasenübergreifenden Zusammenarbeit leisten und die Erkenntnisse könnten bei der Konzeption eines Praxissemesters gewinnbringend eingebracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Forschungsverbund ‚Stadt 2030‘ mit einer Laufzeit von etwa vier Jahren zwischen 2000 und 2004, mit seinen 21 Teilprojekten, mit über 350 Mitarbeiterinnen und Mitarbeitern aus allen Bereichen der Stadtforschung, aus kommunalen Verwaltungen und Kommunalpolitik sowie mit seinem Etat von ca. 18 Mio. Euro gilt bis heute vielfach als umfangreichstes Stadtforschungsprojekt in der deutschen Geschichte. Er hatte zum Ziel, in einer engen Kooperation zwischen Kommunalverwaltungen und wissenschaftlichen Einrichtungen Zukunftskonzeptionen und Leitbilder für Städte und Regionen zu formulieren, deren Perspektive über drei Jahrzehnte reicht. In der Dissertation wird der Frage nachgegangen, wie sich der spezifische Untersuchungsansatz des Forschungsverbundes ‚Stadt 2030‘ auf die Suche nach räumlichen Entwicklungsperspektiven in schrumpfenden Städten und Regionen ausgewirkt hat. Es geht dabei zum einen um eine speziell auf den Aspekt der Schrumpfungsprozesse fokussierende, rekonstruierende Analyse der Ergebnisse von ‚Stadt 2030‘, da diese bislang weder durch die Forschungsbegleitung noch durch andere Akteure der planungswissenschaftlichen Forschung vorgenommen wurde. Dabei wird einerseits untersucht, mit welchen Forschungsansätzen, methodischen Herangehensweisen und Fragestellungen sich der Forschungsverbund sowie die einzelnen Teilprojekte dem Thema der räumlichen Schrumpfungsprozesse genähert haben. In einem weiteren Schritt wird herausgearbeitet, welche planerischen, politischen und ggfs. auch zivilgesellschaftlichen Ansätze in den Projekten entstanden sind, um den Schrumpfungsprozessen zu begegnen. Andererseits wird auch analysiert, inwieweit das in den Projekten angewandte methodische Werkzeug und die Auswahl der einbezogenen Akteure geeignet waren, Ergebnisse zu erzielen, die den spezifischen Bedingungen in schrumpfenden Städten und Regionen Rechnung tragen. Auf einer anderen Untersuchungsebene geht es darum, zu analysieren, inwieweit die mit dem Forschungsverbund insgesamt und in den Teilprojekten erarbeiteten Ergebnisse für eine Implementierung in die langfristige Stadtentwicklungsplanung und -politik geeignet (bzw. überhaupt vorgesehen) sind und in welchem Maße eine solche Operationalisierung bislang erfolgt ist. Dabei steht einerseits die Frage im Vordergrund, welche Potenziale und Chancen mit der Erarbeitung und Umsetzung langfristiger Zukunftskonzepte für die Entwicklung schrumpfender Städte und Regionen verbunden sind, andererseits werden auch die Hemmnisse und Grenzen deutlich, die bei dem Versuch, Schrumpfungsprozesse langfristig zu steuern, berücksichtigt werden müssen. Die Ergebnisse der Dissertation fußen auf einer ausführlichen und detaillierten Analyse von vier Fallstudien, die in einem komplexen Auswahlverfahren aus der Gesamtheit der 21 Teilprojekte des Forschungsverbundes ausgewählt wurden. Es handelt sich dabei um die Teilprojekte in Eisenhüttenstadt (Brandenburg), in Guben / Gubin (Brandenburg / Polen), in der Region Braunschweig (Niedersachsen) und im Raum Schwalm-Eder-West (Hessen). Der Schwerpunkt der methodischen Herangehensweise lag auf der Durchführung und Auswertung von Experteninterviews mit den Projektbearbeitern der ausgewählten Fallstudien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lateinische Schriftsteller im Original zu lesen, fällt vielen Schülerinnen und Schülern in der Lektürephase des Lateinunterrichts schwer. In der vorliegenden Dissertation wird untersucht, inwiefern gezielter Einsatz von Lernstrategien das Textverständnis verbessern kann. Strategisches Arbeiten mit Texten kann bereits zu einem sehr frühen Zeitpunkt in schriftbasierten Kulturen nachgewiesen werden. In dieser Arbeit werden Quellentexte aus der griechisch-römischen Antike und dem Mittelalter hinsichtlich texterschließender Strategien untersucht, systematisiert, kommentiert und im modernen Lateinunterricht eingesetzt. Dabei arbeiten die Schülerinnen und Schüler selbstgesteuert und forschend-entdeckend mit Reproduktionen antiker Papyri und Pergamente. Im Laufe des Unterrichtsprojektes, das ich CLAVIS, lat. für „Schlüssel“, nenne, lernen die Schüler im Zusammenhang mit Fachinhalten des Lateinunterrichts sechs antike Strategien der Texterschließung kennen. Diese Strategien werden heute noch genauso verwendet wie vor 2000 Jahren. Unter Berücksichtigung der Erkenntnisse der modernen Lernstrategieforschung wurden die Strategien ausgewählt, die als besonders effektive Maßnahmen zur Förderung von Textverständnis beurteilt werden, nämlich CONIUGATIO: Vorwissen aktivieren, LEGERE: mehrfaches und möglichst lautes Lesen, ACCIPERE: Hilfen annehmen, VERTERE: Übersetzen mit System, INTERROGARE: Fragen zulassen, SUMMA: Zusammenfassung erstellen. Ziel von CLAVIS ist es, Schülern ein Werkzeug zur systematischen Texterschließung an die Hand zu geben, das leicht zu merken ist und flexibel auf Texte jeder Art und jeder Sprache angewendet werden kann. Um die Effektivität des Unterrichtsprojektes CLAVIS zu überprüfen, wurde mit zwei parallel geführten 10. Klassen am Johann-Schöner-Gymnasium in Karlstadt im Schuljahr 2009/10 eine Vortest-Nachtest-Studie durchgeführt. Eine der Klassen wurde als Experimentalgruppe mit Intervention in Form von CLAVIS unterrichtet, die andere Klasse, die die Kontrollgruppe bildete, erhielt kein strategisches Training. Ein Fragebogen lieferte Informationen zur Vorgehensweise der Schüler bei der Textbearbeitung in Vortest und Nachtest (jeweils eine Übersetzung eines lateinischen Textes in identischem Schwierigkeitsgrad). Die Auswertung der Daten zeigte deutlich, dass Textverständnis und Übersetzungsfähigkeit sich bei denjenigen Schülern verbesserten, die die CLAVIS-Strategien im Nachtest angewendet hatten. Im Zusammenhang mit der Neugestaltung der Lehrpläne auf dem Hintergrund der Kompetenzorientierung ergeben sich für das Fach Latein neue Chancen, nicht nur inhaltlich wertvolle Zeugnisse der Antike zur allgemeinen, zweckfreien Persönlichkeitsbildung von Schülerinnen und Schülern einzusetzen, sondern gezielt Strategien zu vermitteln, die im Hinblick auf die in einer Informationsgesellschaft unverzichtbare Sprach- und Textkompetenz einen konkreten Nutzen haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die medienpädagogische Förderung junger Menschen aus problematischen Familien, sozio-kulturellen Problemlagen, der sogenannten neuen Unterschicht bzw. die Förderung von Hauptschülern, insbesondere Jungen, ist das zentrale Anliegen dieses Buches. Das sind diejenigen Lerner, die die Anforderungen für einen qualifizierten Schulabschluss, die Basiskompetenzen im Sinne der PISA-Studien, nicht oder kaum erfüllen, Distanz zur Schule haben bzw. aus schwierigen sozio-ökonomischen Bevölkerungsgruppen stammen. Diese Gruppe, meist Jungen, häufig mit Migrationshintergrund, versucht der Begriff Risikolerner zu fassen. Die Frage nach Risikolernern eröffnet die Perspektive auf Kompetenzen und kulturelle Ressourcen, mit denen es Risikolernern gelingt, Medien selbstbestimmt und reflexiv für die eigene Persönlichkeitsentwicklung sowie Lebens- und Alltagsbewältigung aktiv zu nutzen (Niesyto, 2010, S. 315). Zentrales Thema und Fragestellung dieses Buches ist, welche Bildungschancen in den Mediennutzungsmustern der Risikolerner stecken. Aus theoretischer Perspektive geht es um die Frage, wie und mit welchen Mustern sich Risikolerner Medien als Kulturgüter aneignen. Die pädagogische Leitfrage, die an den Gedanken der Bildung geknüpft ist, lautet, wie die Entwicklung und damit das Lernen der Risikolerner mit ihren Mediennutzungsmustern, also ihren Aneignungsmustern in Bezug auf Medien, verbunden ist. Die medienpädagogische Frage nach den Chancen für Medienbildung von Risikolernern fundiert auf der Theorie der Medienbildung und auf dem kulturtheoretischen Modell der Sozio-kulturellen Ökologie, wie sie von der London Mobile Learning Group (LMLG; www.londonmobilelearning.net) entwickelt wurde (Pachler, Bachmair, & Cook, 2010). Auf der Grundlage dieser Theorien verortet diese Arbeit die Gruppe der Risikolerner im Zusammenhang von Lebenswelt und Lebenslagen und ordnet diese spezifische Gruppe von Lernern mit Bezug auf individuelle, schulische und gesellschaftliche Risiken ein. Die Gender-Perspektive öffnet den Blick für bestimmte jungenspezifische Aneignungsmuster im Zusammenhang mit Medien und eröffnet im nächsten Schritt die Möglichkeit, Bildungschancen speziell für Jungen zu formulieren. Ein genderbezogener Entwicklungsprozess, der die Lebenswelt der Jungen betrifft, ist die Auflösung hegemonialer Männlichkeit und die Transformation hin zu multioptionalen und situierten Männlichkeiten, die es von Jungen auszubalancieren gilt. Die Sozialstrukturanalyse der Soziologie dient als methodischer Zugang, um Risikolerner systematisch zu identifizieren und um mithilfe der sozialen Segmentierung entsprechende Ergebnisse in Bezug auf Mediennutzung und Alltagsbewältigung zu formulieren. Diese medienpädagogische Forschung ist eine Rekonstruktion der Mediennutzung über die Spuren der Artikulation und Aneignung, wie sie in den Konsumdaten repräsentiert sind, mit dem Ziel, die Aneignungsprozesse und die darin inhärenten Bildungschancen sichtbar zu machen. Risikolerner sind in der Perspektive gesellschaftlicher und alltagsästhetischer Strukturen ein eher hedonistischer, widerständiger Lifestyle, geprägt von sozialer Benachteiligung und von aktivem Risikoverhalten sowie von einer Mediennutzung, die schulischen Aneignungsformen eher entgegengesetzt ist. Die zentralen Ergebnisse und damit Chancen für Medienbildung der Risikolerner entstehen in drei Bereichen der Mediennutzungsmuster: im Downloaden, Speichern und Tauschen vielfältiger Formate; im (mobilen) Gaming; sowie im vielfältigen Produzieren und Verarbeiten von auditivem und visuellem Material. Mit diesen Mustern sind drei bedeutsame Bildungschancen verknüpft: durch Risikolerner generierte alternative Räume der Medienbildung, die strukturell entgegen der Lernwelt Schule ausgerichtet sind; das kommunikative Organisieren des Alltags und der Mediennutzung; sowie das Generieren von digitalen Sammlungen und Archiven als persönlicher Besitz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Dissertation stellt eine Studie da, welche sich mit den Änderungen in der Governance der Hochschulbildung in Vietnam beschäftigt. Das zentrale Ziel dieser Forschungsarbeit ist die Untersuchung der Herkunft und Änderung in der Beziehung der Mächte zwischen dem vietnamesischen Staat und den Hochschulbildungsinstituten (HI), welche hauptsächlich aus der Interaktion dieser beiden Akteure resultiert. Die Macht dieser beiden Akteure wurde im sozialen Bereich konstruiert und ist hauptsächlich durch ihre Nützlichkeit und Beiträge für die Hochschulbildung bestimmt. Diese Arbeit beschäftigt sich dabei besonders mit dem Aspekt der Lehrqualität. Diese Studie nimmt dabei die Perspektive einer allgemeinen Governance ein, um die Beziehung zwischen Staat und HI zu erforschen. Zudem verwendet sie die „Resource Dependence Theory“ (RDT), um das Verhalten der HI in Bezug auf die sich verändernde Umgebung zu untersuchen, welche durch die Politik und eine abnehmende Finanzierung charakterisiert ist. Durch eine empirische Untersuchung der Regierungspolitik sowie der internen Steuerung und den Praktiken der vier führenden Universitäten kommt die Studie zu dem Schluss, dass unter Berücksichtigung des Drucks der Schaffung von Einkommen die vietnamesischen Universitäten sowohl Strategien als auch Taktiken entwickelt haben, um Ressourcenflüsse und Legitimität zu kontrollieren. Die Entscheidungs- und Zielfindung der Komitees, die aus einer Mehrheit von Akademikern bestehen, sind dabei mächtiger als die der Manager. Daher werden bei initiativen Handlungen der Universitäten größtenteils Akademiker mit einbezogen. Gestützt auf die sich entwickelnden Muster der Ressourcenbeiträge von Akademikern und Studierenden für die Hochschulbildung prognostiziert die Studie eine aufstrebende Governance Konfiguration, bei der die Dimensionen der akademischen Selbstverwaltung und des Wettbewerbsmarktes stärker werden und die Regulation des Staates rational zunimmt. Das derzeitige institutionelle Design und administrative System des Landes, die spezifische Gewichtung und die Koordinationsmechanismen, auch als sogenanntes effektives Aufsichtssystem zwischen den drei Schlüsselakteuren - der Staat, die HI/Akademiker und die Studierenden – bezeichnet, brauchen eine lange Zeit zur Detektion und Etablierung. In der aktuellen Phase der Suche nach einem solchen System sollte die Regierung Management-Tools stärken, wie zum Beispiel die Akkreditierung, belohnende und marktbasierte Instrumente und das Treffen informations-basierter Entscheidungen. Darüber hinaus ist es notwendig die Transparenz der Politik zu erhöhen und mehr Informationen offenzulegen.