1000 resultados para termonucleari,reazioni,fisica nucleare,stelle
Resumo:
Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
In dieser Arbeit wird der Zusammenhang des kooperativen Lernens mit der Entwicklung von sozialen und sozial-kommunikativen Kompetenzen bei Schülern aufgeführt und die Funktion der Lehrkraft bei kooperativ ausgerichtetem Unterricht behandelt. Im zweiten Kapitel der Arbeit werden die Basiselemente kooperativen Lernens- und Lehrens und die einzelnen Elemente, aus denen sich kooperative Unterrichtssituationen zusammensetzen, vorgestellt. Des Weiteren werden einige methodische Formen der kooperativen Lehr- und Lernformen vorgestellt, sowie empirische Ergebnisse bezüglich des kooperativen Lernens aufgezeigt. Im dritten Punkt der Arbeit werden die beim kooperativen Lernen im Mittelpunkt stehenden Kompetenzen erläutert. Schwerpunkt dieses Kompetenzbereiches sind in dieser Arbeit die sozialen und kommunikativen Kompetenzen. Ich werde die Frage behandeln, inwiefern kooperative Lernformen das Kompetenzverhalten von Schülern positiv beeinflussen und welche Faktoren bei dieser positiven Einflussnahme eine Rolle spielen. An faktischen Beispielen werde ich die Phasen konkreten sozialen- und kommunikativen Handelns im Schulunterricht vorstellen und die daraus resultierenden Folgen und Forderungen an die Institution Schule darstellen. Im vierten Kapitel dieser Arbeit stelle ich eine von mir durchgeführte empirische Studie vor, die den Zusammenhang zwischen kooperativen Lernformen und der Förderung sozial-kommunikativer Kompetenzen im Schulunterricht untersucht. Dafür werde ich zunächst die Rahmenbedingungen der Studie vorstellen, um dann konkrete Angaben zur Durchführung zu machen. Das fünfte Fragment der Arbeit inkludiert die Erhebungselemente, die für die Durchführung und Auswertung der Studie verwendet wurden. Der sechste Passus beinhaltet die Durchführung der Studie und eine Erläuterung der verschiedenen methodischen und didaktischen Mittel, die für die Implementierung notwendig waren. Das siebte Kapitel umfasst die Auswertung der durchgeführten Studie. Im achten Kapitel werde ich ein abschließendes Fazit darlegen und die Arbeit noch einmal retrospektiv betrachten.
Resumo:
Für den Studienerfolg ausländischer Studierender sind zwei Aspekte von zentraler Bedeutung: Die weitere Vertiefung der Deutschkenntnisse und der Aufbau sozialer Netzwerke. An dieser Stelle setzt der Gedanke des Integrationsportfolios an. Auf der Grundlage von Erfahrungen aus einem PROFIN-Projekt an der Universität Kassel beschreibt der Artikel zunächst erfolgreich erprobte Aufgaben und setzt sich abschließend kritisch mit den Zielen, Möglichkeiten und Grenzen von Integrationsportfolios im Deutschunterricht auseinander.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit dem Werk des französischen Philosophen Gilles Deleuze (1925-1995), indem sie dessen vielfältig-pluralistisches, in mancher Hinsicht sogar heterogenes Denken in einen Zusammenhang mit vitalistischen Philosophien der ersten Hälfte des 20. Jahrhunderts stellt (an erster Stelle Henri Bergson, aber auch Hans Driesch und Jakob von Uexküll), um auf diese Weise – durch Vergleiche und Gegenüberstellungen - zu verdeutlichen, dass und inwiefern der Vitalismus in der Version von Deleuze unter dem Eindruck der Entwicklung der Biologie seit Darwin (für die hier besonders die wissenschaftsphilosophischen Überlegungen der französischen Molekularbiologen François Jacob und Jacques Monod herangezogen werden) nicht mehr in erster Linie naturphilosophisch verstanden werden kann, sondern experimentell. Das, womit hier gedanklich experimentiert wird, sind Intensitäten. Und Intensität – so wird dargelegt – ist der Schlüsselbegriff zum Verständnis von Deleuzes’ erstem philosophischen Hauptwerk „Differenz und Wiederholung“. Im Zeichen eines Denkens der Intensitäten versucht Deleuze etablierte Dualismen wie die von Natur (physis) und Kunst (techné), Mensch und Tier, Individualität und Allgemeinheit zu unterlaufen. Weil dieser Versuch sich selbst als ein – wie es in dem von Deleuze gemeinsam mit dem Psychiater Félix Guattari verfassten Buch „Tausend Plateaus“ heißt - Vorstoß in "eine Welt aus formlosen, gegenstandslosen und gesichtslosen Schnelligkeiten und Langsamkeiten" versteht, stellt sich mit der Frage nach den lebenspraktischen Aspekten dieses grenzüberschreitenden und Freiräume eröffnenden Vorhabens auch die nach den damit verbundenen Risiken und Nebenwirkungen. Zur Konkretisierung werden Beispiele aus der modernen Literatur (die Verzeitlichung des Denkens bei Marcel Proust, aber auch die existentielle Sprachskepsis Antonin Artauds), der bildenden Kunst (die Deformationskunst in der Malerei Francis Bacons) und der Moral- bzw. moralkritischen Philosophie (der Stoizismus als eine Art Kunst der Selbstverteidigung, Nietzsches Umwertung aller Werte als eine Kunst der Selbstüberbietung) erörtert. Was in diesen Praktiken stattfindet und zum Ausdruck gebracht wird, sind Zerreißproben, d. h. radikale Belastungen oder Erprobungen von Vermögen wie Sinnlichkeit, Einbildungskraft, Denken, weshalb diese Versuche mit Deleuze, der sich hier von den stilpsychologischen Untersuchungen des Kunsthistorikers Wilhelm Worringer hat inspirieren lassen, als Spielarten eines nichtorganischen Lebens zu verstehen sind. Sich darauf in einem ständigen Wechsel von Annäherung und Distanzierung einzulassen, macht das ausgeprägte Pathos der Philosophie aus, auf das man im Denken von Gilles Deleuze trifft.
Resumo:
The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.
Resumo:
Es wird aufgezeigt, welchen Stellenwert der Sport in der heutigen Gesellschaft einnimmt und welche Förderungsmöglichkeiten auf den verschiedenen politischen Ebenen gegeben sind. Auf dieser Grundlange werden die prozessbegleitende Novellierung und die kooperative Planungsarbeit zur zukunftsorientierten Anwendbarkeit der Sportförderrichtlinien der Stadt Kassel anhand der Ziel- und Handlungsempfehlungen der Sportentwicklungsplanung näher beleuchtet. Um zu dem Thema der Sportförderung und insbesondere zur Sportförderrichtlinie hinzuführen, wird in Kapitel 2 dieser Arbeit zunächst der Wandel des Sportverständnisses dargestellt. Dabei wird einerseits auf die Sportbegeisterung der Menschen und auf den Strukturwandel eingegangen, andererseits auf die Möglichkeit, wie die Sportvereine und die kommerziellen Anbieter auf diese Veränderungen reagieren können. Das Kapitel 3 befasst sich mit dem Begriff der Sportförderung und zeigt im Anschluss daran die verschiedenen Steuerungsinstrumente im Bereich der Sportförderung auf. Schwerpunkt des Kapitels bilden die verschiedenen Förderinstrumente, welche sich auf Bundes- und Länderebene sowie auf kommunaler Ebene unterscheiden. Anschließend erfolgt ein Zwischenfazit, welches die Erkenntnisse der Sportförderung auf den verschiedenen politischen Ebenen zusammenfasst. In Kapitel 4 wird die Legitimation der Sportförderung in der BRD dargestellt. Diese Legitimation nimmt besonders unter der Prämisse der Haushaltskonsolidierung einen besonderen Stellenwert ein. Dabei wird eine ökonomische Argumentation, welche die Aspekte der externen Effekte, externen Kosten und das soziale Kapital aufgreift, angeführt. Im fünften Kapitel werden explizit die Steuerungsmöglichkeiten der Sportförderung auf kommunaler Ebene erläutert. Nach der allgemeinen Darstellung der Richtlinien zur Sportförderung wird Bezug auf die Stadt Kassel genommen. Das Kapitel 6 beschäftigt sich mit der Sportentwicklungsplanung ‒ insbesondere auf kommunaler Ebene. Berücksichtigt wird an dieser Stelle auch das kooperative Planungsverfahren. Wie sich die konkrete Zusammenarbeit der Stadt Kassel mit dem Institut für Kooperative Planung und Sportentwicklung vollzogen hat, wird in Kapitel 7 erläutert. Dieses Kapitel schließt mit den Empfehlungen ab. Kapitel 8 befasst sich mit der Novellierung der Sportförderrichtlinie der Stadt Kassel und ermöglicht einen Einblick in den Ablauf der einzelnen Planungsschritte. Die Arbeit führt in Kapitel 9 die möglichen Auswirkungen der Novellierung der Sportförderrichtlinie auf. Abgeschlossen wird die Arbeit in Kapitel 10 mit einem Fazit der durchgeführten Novellierung der Sportförderrichtlinien.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
Harmonische Funktionen auf dem Bruhat-Tits-Gebäude der PGL(3) über Funktionenkörpern lassen sich als ein Analogon zu den auf der oberen Halbebene definierten klassischen Spitzenformen verstehen. An die Stelle des starken Abklingens der Spitzenformen tritt hier die Endlichkeit des Trägers modulo einer gewissen Untergruppe. Der erste Teil der vorliegenden Arbeit befaßt sich mit der Untersuchung und Charakterisierung dieses Trägers. Im weiteren Verlauf werden gewisse Konzepte der klassischen Theorie auf harmonische Funktionen übertragen. So wird gezeigt, daß diese sich ebenfalls als Fourierreihe darstellen lassen und es werden explizite Formeln für die Fourierkoeffizienten hergeleitet. Es stellt sich heraus, daß sich die Harmonizität in gewissen Relationen zwischen den Fourierkoeffizienten widerspiegelt und sich umgekehrt aus einem Satz passender Koeffizienten eine harmonische Funktion erzeugen läßt. Dies wird zur expliziten Konstruktion zweier quasi-harmonischer Funktionen genutzt, die ein Pendant zu klassischen Poincaré-Reihen darstellen. Abschließend werden Hecke-Operatoren definiert und Formeln für die Fourierkoeffizienten der Hecke-Transformierten einer harmonischen Funktion hergeleitet.
Resumo:
Seleccionado en la convocatoria: Ayudas para proyectos de temática educativa, Gobierno de Aragón 2010-2011
Resumo:
Seleccionado en la convocatoria: Ayudas para proyectos de temática educativa, Gobierno de Aragón 2011-12
Resumo:
Objetivo: Determinar la prevalencia del dolor lumbar y su asociación con cinco variables de condición física en 346 trabajadores del área administrativa de una institución educativa en la ciudad de Bogotá, mediante la revisión y análisis de la base de datos de la empresa Ergosourcing Ltda. Métodos: La población de estudio estuvo conformada por los 346 trabajadores a quienes se les practicó evaluación de la condición física por parte de fisioterapeutas especialistas en prescripción de ejercicio, entre Julio y Septiembre de 2008. La variable dependiente fue el Dolor lumbar evaluando la morbilidad sentida, de acuerdo a una escala descriptiva simple de dolor. Las variables independientes fueron índice de masa corporal, adipometría, alineación postural, flexibilidad de Wells y potencia abdominal. Se practicó análisis bivariante y se ajustó un modelo de regresión logística incondicional para determinar la relación entre las variables. Resultados: La prevalencia de dolor lumbar en la población fue del 20,3%. Tras ajustar por todas las variables independientes, se observó asociación con la edad (p 0,007), el tiempo de servicio en el cargo (p 0,03) y el sobrepeso obesidad, medidos a través de la adipometría (p 0,05). Se halló un riesgo 7 veces mayor entre las personas que tenían sobrepeso y obesidad comparados con los que presentaban peso normal y de 13,4 veces más en personas de 55 años o mayores al tomar como referencia el grupo de menores de 25 años. Conclusiones: se encontró que tienen más riesgo de dolor lumbar los trabajadores del grupo de mayor edad (> 55 años) y con más tiempo de exposición (> 20 años); al determinar sobrepeso y obesidad con la adipometría y no con el IMC, se encontró que si hay asociación significativa con dolor lumbar. Es necesario realizar un estudio en trabajadores con requerimientos físicos mayores y compararlos con los resultados de este estudio. Es de relevancia implementar la búsqueda de pruebas que permitan evaluar la condición física de los trabajadores, establecer su relación con el dolor lumbar y sean predictivas de su aparición.
Resumo:
El presente trabajo de grado busca optimizar el proceso de Picking en la empresa productora de lentes oftálmicos Compulens y Llanes LTDA, para disminuir tiempos y agilizar la operación. Se utilizarán herramientas vistas a lo largo del pregrado de Administración en Logística y Producción, para realizar un análisis profundo del estado actual del proceso y el Layout de la bodega, para después aplicar herramientas propias de la investigación de operaciones, logística interna, entre otras, y proponer soluciones para conseguir los resultados esperados. Se partirá de un análisis de todos los tipos de bases para lentes oftálmicos que se tallan en la empresa, para plantear mejoras y buenas prácticas en los procesos que se llevan a cabo dentro de la bodega de almacenamiento. Dichas mejoras y recomendaciones tienen como finalidad ayudar a la empresa a cumplir la promesa de servicio a los clientes y evitar el atraso en la entrega de pedidos.
Resumo:
Cormatec Ltda., es una empresa colombiana, dedicada a la comercialización de maquinaria, equipos y artículos para la industria del procesamiento de alimentos, hoteles, restaurantes, carnicerías, frigoríficos y empresas similares. En los últimos años, la empresa ha presentado importantes problemas de disminución de ventas, debido en principio a la fuerte competencia que existe en el sector. Por tal motivo, el presente plan de mercadeo y logístico, busca diagnosticar las causas del bajo rendimiento presentado en la organización en los últimos periodos y proponer soluciones que maximicen las utilidades de la empresa.