996 resultados para ddc:620
Resumo:
Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Ultrahochfester Beton besitzt aufgrund seiner Zusammensetzung eine sehr hohe Druckfestigkeit von 150 bis über 200 N/mm² und eine außergewöhnlich hohe Dichtigkeit. Damit werden Anwendungen in stark belasteten Bereichen und mit hohen Anforderungen an die Dauerhaftigkeit des Materials ermöglicht. Gleichzeitig zeigt ultrahochfester Beton bei Erreichen seiner Festigkeit ein sehr sprödes Verhalten. Zur Verhinderung eines explosionsartigen Versagens werden einer UHPC-Mischung Fasern zugegeben oder wird eine Umschnürung mit Stahlrohren ausgebildet. Die Zugabe von Fasern zur Betonmatrix beeinflusst neben der Verformungsfähigkeit auch die Tragfähigkeit des UHPC. Das Versagen der Fasern ist abhängig von Fasergeometrie, Fasergehalt, Verbundverhalten sowie Zugfestigkeit der Faser und gekennzeichnet durch Faserauszug oder Faserreißen. Zur Sicherstellung der Tragfähigkeit kann daher auf konventionelle Bewehrung außer bei sehr dünnen Bauteilen nicht verzichtet werden. Im Rahmen des Schwerpunktprogramms SPP 1182 der Deutschen Forschungsgemeinschaft (DFG) wurden in dem dieser Arbeit zugrunde liegenden Forschungsprojekt die Fragen nach der Beschreibung des Querkrafttragverhaltens von UHPC-Bauteilen mit kombinierter Querkraftbewehrung und der Übertragbarkeit bestehender Querkraftmodelle auf UHPC untersucht. Neben einer umfassenden Darstellung vorhandener Querkraftmodelle für Stahlbetonbauteile ohne Querkraftbewehrung und mit verschiedenen Querkraftbewehrungsarten bilden experimentelle Untersuchungen zum Querkrafttragverhalten an UHPC-Balken mit verschiedener Querkraftbewehrung den Ausgangspunkt der vorliegenden Arbeit. Die experimentellen Untersuchungen beinhalteten zehn Querkraftversuche an UHPC-Balken. Diese Balken waren in Abmessungen und Biegezugbewehrung identisch. Sie unterschieden sich nur in der Art der Querkraftbewehrung. Die Querkraftbewehrungsarten umfassten eine Querkraftbewehrung aus Stahlfasern oder Vertikalstäben, eine kombinierte Querkraftbewehrung aus Stahlfasern und Vertikalstäben und einen Balken ohne Querkraftbewehrung. Obwohl für die in diesem Projekt untersuchten Balken Fasergehalte gewählt wurden, die zu einem entfestigenden Nachrissverhalten des Faserbetons führten, zeigten die Balkenversuche, dass die Zugabe von Stahlfasern die Querkrafttragfähigkeit steigerte. Durch die gewählte Querkraftbewehrungskonfiguration bei ansonsten identischen Balken konnte außerdem eine quantitative Abschätzung der einzelnen Traganteile aus den Versuchen abgeleitet werden. Der profilierte Querschnitt ließ einen großen Einfluss auf das Querkrafttragverhalten im Nachbruchbereich erkennen. Ein relativ stabiles Lastniveau nach Erreichen der Höchstlast konnte einer Vierendeelwirkung zugeordnet werden. Auf Basis dieser Versuchsergebnisse und analytischer Überlegungen zu vorhandenen Querkraftmodellen wurde ein additiver Modellansatz zur Beschreibung des Querkrafttragverhaltens von UHPCBalken mit einer kombinierten Querkraftbewehrung aus Stahlfasern und Vertikalstäben formuliert. Für die Formulierung der Traganteile des Betonquerschnitts und der konventionellen Querkraftbewehrung wurden bekannte Ansätze verwendet. Für die Ermittlung des Fasertraganteils wurde die Faserwirksamkeit zugrunde gelegt. Das Lastniveau im Nachbruchbereich aus Viendeelwirkung ergibt sich aus geometrischen Überlegungen.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
Mesh generation is an important step inmany numerical methods.We present the “HierarchicalGraphMeshing” (HGM)method as a novel approach to mesh generation, based on algebraic graph theory.The HGM method can be used to systematically construct configurations exhibiting multiple hierarchies and complex symmetry characteristics. The hierarchical description of structures provided by the HGM method can be exploited to increase the efficiency of multiscale and multigrid methods. In this paper, the HGMmethod is employed for the systematic construction of super carbon nanotubes of arbitrary order, which present a pertinent example of structurally and geometrically complex, yet highly regular, structures. The HGMalgorithm is computationally efficient and exhibits good scaling characteristics. In particular, it scales linearly for super carbon nanotube structures and is working much faster than geometry-based methods employing neighborhood search algorithms. Its modular character makes it conducive to automatization. For the generation of a mesh, the information about the geometry of the structure in a given configuration is added in a way that relates geometric symmetries to structural symmetries. The intrinsically hierarchic description of the resulting mesh greatly reduces the effort of determining mesh hierarchies for multigrid and multiscale applications and helps to exploit symmetry-related methods in the mechanical analysis of complex structures.
Resumo:
Sensing with electromagnetic waves having frequencies in the Terahertz-range is a very attractive investigative method with applications in fundamental research and industrial settings. Up to now, a lot of sources and detectors are available. However, most of these systems are bulky and have to be used in controllable environments such as laboratories. In 1993 Dyakonov and Shur suggested that plasma waves developing in field-effect-transistors can be used to emit and detect THz-radiation. Later on, it was shown that these plasma waves lead to rectification and allows for building efficient detectors. In contrast to the prediction that these plasma waves lead to new promising solid-state sources, only a few weak sources are known up to now. This work studies THz plasma waves in semiconductor devices using the Monte Carlo method in order to resolve this issue. A fast Monte Carlo solver was developed implementing a nonparabolic bandstructure representation of the used semiconductors. By investigating simplified field-effect-transistors it was found that the plasma frequency follows under equilibrium conditions the analytical predictions. However, no current oscillations were found at room temperature or with a current flowing in the channel. For more complex structures, consisting of ungated and gated regions, it was found that the plasma frequency does not follow the value predicted by the dispersion relation of the gated nor the ungated device.
Resumo:
Dieser Werkstattbericht ist die zweite, verbesserte und um weitere Aufgaben ergänzte Version der Veröffentlichung von 2014. Hier wollen wir den aktuellen Arbeitsstand des Teilprojekts "Mathematik für Maschinenbauer" der AG Ing-Math vorstellen. Es werden eine Reihe von Anwendungsaufgaben und das zugrunde liegende Konzept vorgestellt. Die Aufgaben sind für die Veranstaltungen Mathematik 1 und 2 für Maschinenbauer konzipiert, jedoch lässt sich das Konzept auch auf andere ingenieurwissenschaftliche Studiengänge übertragen. Das Ziel ist es mit diesen Aufgaben die Motivation zu fördern und den Studierenden die Relevanz der Mathematik bereits in den ersten Semestern zu verdeutlichen.
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.
Resumo:
Die vorliegende Arbeit befasst sich mit dem lateralen Auflösungsvermögen in der kurzkohärenten Interferenzmikroskopie. Das 3D-Auflösungsvermögen von Phasenobjekten ist im Gegensatz zu dem von Intensitätsobjekten stark nichtlinear und vom spezifischen Messverfahren abhängig. In diesem Zusammenhang sind systematische Messfehler von entscheidender Bedeutung. Für die kurzkohärente Interferenzmikroskopie ist das Überschwingen an Kanten von besonderem Belang, da sich der Effekt bei der Messung vieler technischer Oberflächen negativ auswirkt. Er entsteht durch die Überlagerung von Interferenzsignalen lateral benachbarter Objektpunkte von unterschiedlichen Höhenniveaus. Es wird an speziell für diesen Zweck entwickelten Messsystemen untersucht in wie weit dieser Effekt physikalisch reduziert werden kann und wie sich dies auf die laterale Auflösung auswirkt. An einem für den Einsatz in einer Nanomessmaschine optimierten Linnik-Interferometer wird die Justage eines solchen Systems erläutert. Der Sensor verfügt über die Option mit NUV-Licht betrieben zu werden, um die laterale Auflösung zu verbessern. Aufgrund des Einsatzzweckes ist der Arbeitsabstand relativ groß, was die laterale Auflösung einschränkt. Mit einem zweiten auf die Untersuchungen in dieser Arbeit optimierten Versuchsaufbau können die physikalischen Grenzen der kurzkohärenten Interferenzmikroskopie praktisch untersucht werden. Zu diesem Zweck ist der Aufbau mit einem Mikrospiegelarray ausgestattet, um hierüber variable konfokale Blenden zu schaffen. Mit diesem System wird erstmalig konfokale Mikroskopie mit Weißlichtinterferometrie kombiniert. Durch die optische Selektion der konfokalen Mikroskopie soll die Ursache für die Überschwinger an Kanten reduziert werden. Eine weitere Möglichkeit der Einflussnahme stellt die optionale Beleuchtung mit polarisiertem Licht dar, wodurch die laterale Auflösung weiter gesteigert werden kann. Zusätzlich kann auch dieser Aufbau mit kurzwelligem blauem Licht betrieben werden, um die laterale Auflösung zu optimieren. Die Messergebnisse, die mit diesen Versuchsaufbauten gemacht wurden, zeigen, dass im Gegensatz zu den in der derzeitigen Normung genutzten Modellen das Übertragungsverhalten in der Weißlichtinterferometrie bei der Messung von Phasenobjekten stark nichtlinear ist. Das laterale Auflösungsvermögen deckt sich je nach Auswerteverfahren recht gut mit dem von klassischen Mikroskopen bei der Wiedergabe von Intensitätsobjekten. Für die Untersuchungen wurde überwiegend ein Auflösungsnormal mit neun unterschiedlichen eindimensionalen Rechteckstrukturen verwendet, die eine Nominalhöhe im kritischen Bereich kleiner der Kohärenzlänge der verwendeten Lichtquelle aufweisen. Die Ergebnisse bestätigen sich aber auch an technischen Messobjekten aus der Praxis wie beispielsweise einer „digital video disc“.
Resumo:
The challenge of reducing carbon emission and achieving emission target until 2050, has become a key development strategy of energy distribution for each country. The automotive industries, as the important portion of implementing energy requirements, are making some related researches to meet energy requirements and customer requirements. For modern energy requirements, it should be clean, green and renewable. For customer requirements, it should be economic, reliable and long life time. Regarding increasing requirements on the market and enlarged customer quantity, EVs and PHEV are more and more important for automotive manufactures. Normally for EVs and PHEV there are two important key parts, which are battery package and power electronics composing of critical components. A rechargeable battery is a quite important element for achieving cost competitiveness, which is mainly used to story energy and provide continue energy to drive an electric motor. In order to recharge battery and drive the electric motor, power electronics group is an essential bridge to convert different energy types for both of them. In modern power electronics there are many different topologies such as non-isolated and isolated power converters which can be used to implement for charging battery. One of most used converter topology is multiphase interleaved power converter, pri- marily due to its prominent advantages, which is frequently employed to obtain optimal dynamic response, high effciency and compact converter size. Concerning its usage, many detailed investigations regarding topology, control strategy and devices have been done. In this thesis, the core research is to investigate some branched contents in term of issues analysis and optimization approaches of building magnetic component. This work starts with an introduction of reasons of developing EVs and PEHV and an overview of different possible topologies regarding specific application requirements. Because of less components, high reliability, high effciency and also no special safety requirement, non-isolated multiphase interleaved converter is selected as the basic research topology of founded W-charge project for investigating its advantages and potential branches on using optimized magnetic components. Following, all those proposed aspects and approaches are investigated and analyzed in details in order to verify constrains and advantages through using integrated coupled inductors. Furthermore, digital controller concept and a novel tapped-inductor topology is proposed for multiphase power converter and electric vehicle application.
Resumo:
Se exponen las ponencias y comunicaciones del Congresos sobre Energ??a y Educaci??n Ambiental, enmarcado en el Proyecto CAM Energ??a (impulsado por CEMACAM Torre Guil) con el objetivo de sensibilizar a la sociedad, tanto a nivel global como individual sobre la importancia de la educaci??n ambiental, tanto en el ??mbito formal como no-formal, para llevar a cabo una adecuada gesti??n de fuentes y recursos energ??ticos, ya que una utilizaci??n racional de los mismos contribuir?? positivamente a la conservaci??n del medio ambiente y a la disminuci??n de los problemas ambientales..
Resumo:
Esta colecci??n de hojas did??cticas ofrece un recorrido por los fondos del museo, presentando de cada uno de los temas seleccionados (la escultura, artes industriales, pintura mitol??gica, pintura religiosa, pintura de la historia, pintura costumbrista, el retrato, la naturaleza muerta, el paisaje y la pintura contempor??nea) una obra como muestra y sobre la que se proponen diversas actividades de observaci??n, creatividad, consulta, descripci??n, manualidades; unas para realizar durante la visita y otras despu??s de la misma. La mayor parte de las actividades, se proponen para realizarlas en el propio museo ante la obra en concreto, sobre la que se ofrece una informaci??n general en cada hoja.
Resumo:
Investigar la relación entre música y creatividad y la relación con el desarrollo intelectual del alumno. Fundamentar teóricamente la importancia de la Educación Musical para el desarrollo del alumno. Identificar los factores e índice motivacional, contextual y cognitivo que influyen en el alumno cuando está en el aula en el momento de la clase de música. Averiguar si la formación y conocimientos musicales que tienen los maestros tutores de Educación Infantil son suficientes para la enseñanza musical en el alumno de 3 a 6 años. Conocer la propuesta didáctica que bajo el punto de vista de la Educación Musical puede realizarse en la escuela para potenciar en los niños el desarrollo de la creatividad. Analizar qué propuesta didáctica realizan los maestros de infantil para trabajar la música en el aula. Fomentar la Creatividad artística mediante una enseñanza musical, teniendo el juego, canciones, etc. como elementos importantes para potenciar la Educación Musical y la creatividad. Se han empleado dos tipos de metodologías, una metodología experimental y una metodología de encuesta, que permite describir de forma sistemática hechos y características de una población y acontecimientos concretos, de forma objetiva y comprobable. La población objeto de estudio está compuesta por: A.- Maestros encuestados, un total de 998.B.- Maestros entrevistados, un total de 56. C.- Alumnos de Infantil, 25 de un aula y 26 de otra aula de Infantil de 3 a 6 años del último curso de Educación Infantil de un colegio público de la ciudad de Málaga. Uno de estos grupos actuó como grupo control o de referencia, y el otro como grupo experimental o de intervención. Se utiliza un diseño longitudinal de tipo cuasiexperimental de comparación de grupos con medición pretest-postest, con un grupo experimental y un grupo control. Los instrumentos utilizados para la recogida de datos, han sido la observación participante, la entrevista, el cuestionario Test QGT (Test de generación de cuestiones). El análisis de datos cuantitativo se realiza a través del programa estadístico SPSS 15.01, mientras que para la entrevista se utiliza un análisis cualitativo a través del programa AQUAD fve. Con el primero se pretende conocer y explicar la realidad de forma numérica, llegando a generalizaciones y explicaciones ajenas a nuestra persona, mientras que con el análisis cualitativo se trata de comprender e interpretar los significados de los fenómenos estudiados. Después de comprobar que se cumplen las hipótesis planteadas, da respuesta a los objetivos propuestos: A. La importancia de la Educación Musical en el desarrollo del alumno viene fundamentada por diversos estudios y autores. B. Trabajar la música en el aula de Infantil de manera creativa puede mejorar la calidad de la enseñanza-aprendizaje del alumno. C. Se contrasta y valora la gran importancia de formar maestros creativos que apliquen su creatividad en la escuela, influyendo éstos en la formación y capacidad inventiva de los niños-as. D. Se propone una asignatura de música creativa para infantil a impartir en la Titulación de Maestro, Especialista en Educación Infantil. E. Gracias a los resultados obtenidos, se analizan y proponen los factores que caracterizan a los alumnos creativos. Así mismo se presenta como propuesta didáctica un programa de asignatura de 'Creatividad a través de la música'. Una propuesta para trabajar fundamentalmente la creatividad, el manejo de instrumentos, la improvisación, el acompañamiento de canciones, una base teórica musical, acompañamiento de canciones y piezas musicales infantiles, y conseguir así, una formación inicial del profesorado más acorde a los alumnos de Educación Infantil donde van a desarrollar su docencia (trabajando conceptos como creatividad, objetivos del aprendizaje creador, ambiente favorecedor, actitudes del educador infantil, condiciones de una metodología creativa, juegos para el desarrollo de la creatividad, técnicas de diagnóstico de la creatividad, y aspectos musicales).
Resumo:
Resumen tomado de la publicaci??n