431 resultados para STL-Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The theoretical and experimental developments in the biomaterials area have been directly applied to different fields of Medicine (odontology, regenerative medicine and radiotherapy). These advances have focused both for diagnosing diseases such as for quantifying degrees of progression. From the perspective of these studies, biomaterials are being designed and manufactured for application in various areas of science, provided advances in diagnostic radiology, radiotherapy dosimetry and calibration of radiotherapy equipment. Develop a phantom from a biomaterial has become a great ally of medicine in the treat patients with oncological diseases, allowing better performance of the equipment in order to reduce damage to healthy tissue due to excessive exposure to radiation. This work used polymers: chitosan and gelatin, for making the polymeric structures and controlled for different types of production and processing, characterizing and evaluating the biopolymer by physical techniques (STL, SEM and DEI) and therefore analyze applicability as phantom mouse lung. It was possible to evaluate the morphology of biomaterials quantitatively by scanning electron microscopy associated with imaging technique. The relevance of this work focuses on developing a phantom from polymeric biomaterials that can act as phantom providing high image contrast when subjected to analysis. Thus, the choice of DEI technique is satisfactory since it is an imaging technique of X-ray high resolution. The images obtained by DEI have shown the details of the internal microstructure of the biomaterial produced which have ≈ 10 μm dimension. The phantoms had made density ranging from 0.08 a 0.13 g/cm3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A multicentennial and absolutely-dated shell-based chronology for the marine environment of the North Icelandic Shelf has been constructed using annual growth increments in the shell of the long-lived bivalve clam Arctica islandica. The region from which the shells were collected is close to the North Atlantic Polar Front and is highly sensitive to the varying influences of Atlantic and Arctic water masses. A strong common environmental signal is apparent in the increment widths, and although the correlations between the growth increment indices and regional sea surface temperatures are significant at the 95% confidence level, they are low (r ~ 0.2), indicating that a more complex combination of environmental forcings is driving growth. Remarkable longevities of individual animals are apparent in the increment-width series used in the chronology, with several animals having lifetimes in excess of 300 years and one, at 507 years, being the longest-lived non-colonial animal so far reported whose age at death can be accurately determined. The sample depth is at least three shells after AD 1175, and the time series has been extended back to AD 649 with a sample depth of one or two by the addition of two further series, thus providing a 1357-year archive of dated shell material. The statistical and spectral characteristics of the chronology are investigated by using two different methods of removing the age-related trend in shell growth. Comparison with other proxy archives from the same region reveals several similarities in variability on multidecadal timescales, particularly during the period surrounding the transition from the Medieval Climate Anomaly to the Little Ice Age.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo analiza cómo Paul Celan, utilizando recursos arreferenciales y antimiméticos propios de la poésie pure y la poesía absoluta, desarrolla un modelo poético en el que la temporalidad y la memoria son determinantes. En el nuevo modelo, el lenguaje no constituye una realidad autónoma e inmanente; antes bien, se concreta en una acción dialógica y remite a una realidad extralingüística. El mismo texto poético configura un espacio del recuerdo, se erige en un lugar de memoria que, a través de las sedimentaciones históricas que arrastra el lenguaje, da testimonio de lo ocurrido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo presenta un análisis de la imagen de España trazada en la novela Cabo de Gata (2013). Con ello se toma en consideración un género que, hasta ahora, ha recibido poca atención en la investigación de la imagen de España en la literatura de viajes alemana. El foco del análisis lo constituyen tanto el motivo del viaje como la percepción y representación de lo ajeno español. Por último, el análisis narratológico de los diversos aspectos seleccionados de la técnica narrativa nos servirá para delimitar la repercusión imagológica de la novela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper draws on some of the preliminary findings of a small pilot study which aimed to discover what evidentiary challenges a range of practitioners with experience of different international trials faced in the cases they were involved in, and what practices were developed to deal with these challenges. The findings in this study are based on the data collected from The Hague-based institutions, the ICC, the ICTY, the ICTY and ICTR Appeals Chamber, and the Special Tribunal for the Lebanon (STL). It is argued that professionals moving from institution to institution are engaged in a process of cross-pollination which itself influences the practices that develop, although a common understanding of certain evidentiary issues in international trials remains fragmented and at times elusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hybrid simulation is a technique that combines experimental and numerical testing and has been used for the last decades in the fields of aerospace, civil and mechanical engineering. During this time, most of the research has focused on developing algorithms and the necessary technology, including but not limited to, error minimisation techniques, phase lag compensation and faster hydraulic cylinders. However, one of the main shortcomings in hybrid simulation that has pre- vented its widespread use is the size of the numerical models and the effect that higher frequencies may have on the stability and accuracy of the simulation. The first chapter in this document provides an overview of the hybrid simulation method and the different hybrid simulation schemes, and the corresponding time integration algorithms, that are more commonly used in this field. The scope of this thesis is presented in more detail in chapter 2: a substructure algorithm, the Substep Force Feedback (Subfeed), is adapted in order to fulfil the necessary requirements in terms of speed. The effects of more complex models on the Subfeed are also studied in detail, and the improvements made are validated experimentally. Chapters 3 and 4 detail the methodologies that have been used in order to accomplish the objectives mentioned in the previous lines, listing the different cases of study and detailing the hardware and software used to experimentally validate them. The third chapter contains a brief introduction to a project, the DFG Subshake, whose data have been used as a starting point for the developments that are shown later in this thesis. The results obtained are presented in chapters 5 and 6, with the first of them focusing on purely numerical simulations while the second of them is more oriented towards a more practical application including experimental real-time hybrid simulation tests with large numerical models. Following the discussion of the developments in this thesis is a list of hardware and software requirements that have to be met in order to apply the methods described in this document, and they can be found in chapter 7. The last chapter, chapter 8, of this thesis focuses on conclusions and achievements extracted from the results, namely: the adaptation of the hybrid simulation algorithm Subfeed to be used in conjunction with large numerical models, the study of the effect of high frequencies on the substructure algorithm and experimental real-time hybrid simulation tests with vibrating subsystems using large numerical models and shake tables. A brief discussion of possible future research activities can be found in the concluding chapter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gesetze müssen verständlich sein, so die Forderung, sie können aber nach der herrschenden Lehre diese Anforderung nicht erfüllen, da ihre Bedeutung nicht in der geforderten Weise bestimmt sein kann, wie die Auslegungstätigkeit in der Anwendung zeigt. Der Aufsatz beschäftigt sich mit der Frage, wie unter diesen Umständen Verständlichkeit bei der Versprachlichung von Gesetzesnormen möglich ist. Voraussetzung für eine Antwort sind präzisierte Vorstellungen über die Prozesse des Verstehens, die Verständlichkeit von Texten und den Zusammenhang zwischen Verstehen, Bedeutung und Auslegung. 1. Die Bedeutung von Texten zeigt sich im Verstehen. Verstehen ist ein konstruktiver, inferenzieller Prozess, in dem anhand des Wortlautes mit Hilfe von prototypischen Annahmen, Sachwissen, Situationswissen und inferenziellen Regeln u. a. ein mentales Modell von Sachverhalten und Bewertungen der Relevanz der Informationen im gegebenen Kontext hergestellt werden. Die sprachliche Bedeutung eines Textes ist selbst kein Abbild eines Sachverhaltes, sondern eine Konstruktionsanweisung, ein solches Abbild in der Form eines mentalen Modells herzustellen. 2. Gesetzesaussagen sind normative generell-abstrakte Aussagen. Generell-abstrakte Aussagen zu verstehen, bedeutet, eine Menge von familienähnlichen mentalen Modellen entsprechend den sprachlichen und sachlichen Vorgaben rekonstruieren zu können. 3. Es gibt nicht ein einziges Verstehen, sondern Abstufungen des Verstehens zwischen relativ vagem und relativ präzisem Verstehen und zwischen punktuellem Verstehen und Erkennen der möglichen Schlussfolgerungen aus einer Aussage. Laienverstehen und professionelles, präzises Verstehen und Begreifen können in Konflikt zueinander stehen, müssen aber nicht, soweit das Laienverstehen in wesentlichen Aspekten kompatibler Teil des professionellen Verstehens ist. 4. Verstehen ist Arbeit mit einem Aufwand. Verständlichkeit entspricht dem Aufwand, der erforderlich ist, um einen Text zu verstehen. Der Aufwand hängt von der Sachkenntnis der Interpretin, von der Abstraktheit und Komplexität der vermittelten Information der Aussage und der sprachlichen Gestaltung ab. 5. Wer einen Inhalt wie eine Gesetzesnorm zu versprachlichen hat, muss vom vorgegebenen Inhalt und den textspezifischen und sachlichen Vorgaben ausgehen und kann diese nur begrenzt beeinflussen. Ein gegebene Information kann vom Inhalt so sachspezifisch und komplex sein, dass sie nicht beliebig leicht (d.h. allgemein-) verständlich formuliert werden kann. Gestaltbar ist dagegen die Textform. Die Aufgabe besteht darin, die Textform so zu gestalten, dass sie allgemeinen pragmatischen und kognitiven Verstehensregeln entspricht und die kognitiven Verstehensprozeduren in der Konstruktion mentaler Modelle unterstützt. Stichwörter sind Transparenz, Ikonizität, Erkennbarkeit der Relevanz der Inhaltselemente, Vermeidung von Konflikten mit der Allgemeinsprache. 6. Der Einwand der Unbestimmtheit (und entsprechend der Unverständlichkeit) von Gesetzestexten betrifft die Aufgabenstellung der Gesetzesredaktion nicht direkt. Das Verstehen eines Gesetzestextes bei seiner Formulierung und die Auslegung sind zwei unterschiedliche Vorgänge in unterschiedlichen Zusammenhängen. Ein Gesetzestext (der Normtext in der Terminologie der Strukturierenden Rechtslehre) setzt eine allgemeine Norm innerhalb eines allgemeinen Erwartungshorizonts. Auch wenn er eine Vielzahl von potenziellen konkreten (fiktiven) Anwendungsfällen als mentalen Modellen zu rekonstruieren erlaubt, sind unter den vorgegebenen Voraussetzungen die Regeln dieser Rekonstruktionen grundsätzlich (bei angemessener Formulierung) bestimmt. Auslegung ist demgegenüber Herstellung einer Rechtsnorm für den konkreten Fall auf der Grundlage von generell-abstrakten Normtexten. Der konkrete Fall ist individuell und hat von seinem Wesen her keinen Zusammenhang mit einer generell-abstrakten Norm. Die individuell-konkrete Rechtsnorm kann durch inferenzielle Ableitung einer Einzelnorm aus dem generellen Normtext hergeleitet und begründet werden; dies entspricht dem Resultat von gewöhnlichen Verstehensprozeduren, ist aber ebenfalls eine inferenziell gesteuerte Konstruktion einer neuen Norm. In vielen Fällen ist die Rechtsnorm aber das Resultat von Inferenzen aus einer Vielzahl von Normtexten und sonstigen Inputdaten wie Relevanzkriterien und nicht eine direkte Konkretisierung einer einzelnen bestimmten generell-abstrakten Norm. Die vielzitierte Unbestimmtheit von Normtexten in der Anwendung ist nicht Reflex der Unbestimmtheit der Bedeutung eines generell-abstrakten Normtextes als solchen, sondern der vielfältigen Vermitteltheit einer konkreten Rechtsnorm aus je nach Situation unterschiedlichen Vorgaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Plan, große Mengen radioaktiver Materialien in Salinar- gesteine von Salzstöcken einzulagern, schließt die Rück- holbarkeit praktisch aus. Bei der Abschätzung des Langzeitverhaltens der Gesteine, der Grubenbaue und des gesamten Diapirs sind - wie auch beim Einlagerungsvorgang selbst - Fehler nicht auszuschließen und nicht korrigierbar. Die Antragsteller behandeln die geowissenschaftlichen Aspekte der Einlagerung (Teilprojekt 6) nicht qualifiziert und widmen den damit verbundenen Problemen eine unangemessen geringe Aufmerksamkeit. Sie lassen die einem solchen Projekt adäquate planerische Sorgfalt vermissen, gehen mit den zur Verfügung stehenden Daten in ihrer Argumentation ungenau oder selektiv um und erwecken den Eindruck, unter der Erdoberfläche nach dem 'trial-and-error'-Prinzip Vorgehen zu wollen. Salzstöcke sind tektonisch grundsätzlich instabile Gesteinskörper. Die an ihrem Aufbau überwiegend beteiligten Gesteine sind die wasserlöslichsten der Erdkruste; sie reagieren am empfindlichsten auf mechanische und thermische Beanspruchung und sind am reaktionsfähigsten bei möglichen Interaktionen zwischen Einlagerungsmaterial und Einlagerungsmedium. Salzstöcke sind die auf bergtechnische Eingriffe am sensibelsten reagierenden Gesteinskörper, insbesondere, wenn der am Salzspiegel herrschende Lösungszustand gestört wird, wenn durch künstliche Hohlräume im Innern Kriechbewegung (Konvergenz) des gesamten Salinars ausgelöst wird und wenn mit der Einlagerung thermische Belastungen einhergehen, welche höher sind als die mit der Gesteinsbildung und -Umbildung verbundenen Temperaturen es jemals waren. Daß trotz dieser Empfindlichkeit Gewinnungsbergbau in Diapiren möglich ist, ist kein Beleg für ihre Eignung als Endlager. Die Geowissenschaften verfügen über Modellvorstellungen zur Deutung der Salinargenese, des Salzaufstiegs und des gebirgsmechanischen Verhaltens. Diese Modelle sind teils als 'Lehrbuchwahrheit1 allgemein akzeptiert, werden z.T. aber auch als Hypothesen kontrovers diskutiert. Langzeitprognosen über das Verhalten von Gesteinen sind nicht verläßlich, wenn sie auf widersprochenen Modellvorstellungen über das Wesen von Gesteinen und Gesteinsverhalten beruhen. Die Salzstockauswahl ging der geowissenschaftlichen Erkundung voraus. Die wenigen publizierten Daten zur regionalen Geologie lassen nicht auf einen bergbautechnisch besonders leicht zu beherrschenden Salzstock schließen. Die Lage des Diapirs im Verbreitungsgebiet wasserreicher quartärzeitlicher Rinnensysteme spricht genauso gegen die Standortwahl wie die zu erwartende komplizierte Interntektonik und die politisch bedingte Unerforschbarkeit der Gesamtstruktur Gorleben-Rambow. Als Fehlentscheidung ist die durch Landkäufe am Standort Gorleben vorweggenommene Auswahl des Fabrikgeländes einschließlich Schachtanlage und Tritiumwasser-Verpressung auf dem Salzstock zu werten. Der nicht auszuschließende "Störfall Wassereinbruch" kann sich über Tage auf die Standsicherheit der riesigen Gebäude und Lagerbecken zerstörerisch auswirken und so Kontamination der Umgebung verursachen. Geowissenschaftliche Gründe, Erfahrungen aus der Bergbaukunde und die Erwartung, daß man fehlerhaftes Handeln nicht ausschließen kann, führen den Verfasser zu der Überzeugung, daß die Endlagerung radioaktiver Abfälle im Salz nicht zu empfehlen und nicht zu verantworten ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am nordwestlichen Harzrand zwischen Hahausen und Osterode wurden 482 Erdfälle systematisch aufgenommen. Als Erdfälle wurden dabei alle oberirdischen Groß-Subrosionsformen ungeachtet ihrer Entstehung aufgefaßt. Die Geländekartierung stützte sich auf Archivunterlagen, alte topographische und geologische Karten sowie auf Luftbilder. Erdfälle im Ausstrich gleicher stratigraphischer Einheiten wurden zusammengefaßt und ihre Basisdaten: Erdfalltyp, -umriß, -fläche und Formfaktor (Durchmesser:Tiefe) miteinander verglichen. Die Dimensionen der Erdfälle werden an der Oberfläche von zwei Faktoren beeinflußt, dem Alter und der Genese. Bei den meist fossilen Erdfällen werden charakteristische genetische Merkmale durch den Alterungsprozeß so stark überprägt, daß sie in der Statistik nicht mehr signifikant hervortreten. Für die einzelnen Schichtabschnitte wurden theoretische Modelle zur Erdfallmechanik am konkreten Beispiel überprüft. Im Oberen Buntsandstein können die Formen als Senkungskessel, Normalerdfälle und Subrosionserdfälle gedeutet werden. Mit den vorliegenden Daten ist es jedoch nicht möglich, einzelnen Erdfällen bestimmte Entstehungsmechanismen zuzuordnen. Die Erdfälle im Unteren Buntsandstein brechen siloartig zur Tagesfläche nach oben. Lockergesteinsbedeckung kann den Durchbruch verzögern, besonders wenn kohäsive Lagen eingeschaltet sind. Normalerdfälle treten im Zechstein 3 und 4 auf. Im nicht verkarsteten Gestein kann sich ein Pseudogewölbe ausbilden, aber auch ein kaminartiger Hohlraum ist denkbar. Im Basalanhydrit, Staßfurtkalk und -dolomit, in der Einsturzbreccie aus Staßfurtkalk und -dolomit sowie im Werra-Anhydrit entwickeln sich die Formen in Abhängigkeit vom Ansatzpunkt der Verkarstung. Wird innerhalb des Sulfatgesteins gelöst, so entstehen Normalerdfälle. Punktuelle Ablaugung an der Oberfläche des Karstgesteins führt zu Senkungskesseln. Mächtige Quartärbedeckung modifiziert ähnlich wie beim Unteren Buntsandstein die Bruch- und Senkungsvorgänge. Die Erdfälle treten vergesellschaftet auf und sind linear angeordnet, wobei sie Kluftmuster, Störungs- und Entspannungszonen nachzeichnen. Prognosen über zukünftige Erdfallbildungen können nicht gestellt werden. Die Geophysik verfügt bis jetzt über keine allgemein gültige Methode, um unterirdische Hohlräume nachzuweisen. Auch in der Bergschadenskunde sind keine Ansätze bekannt, die das Problem rechnerisch erfassen. Erste Versuche zur Bestimmung der ursprünglichen Hohlräume unter bekannten Erdfällen sind nur bedingt brauchbar. Eine Rayonisierung ist für die Bauplanung keine wirkliche Entscheidungshilfe. Zu große Flächen müßten danach als erdfallgefährdet angesehen werden. Nur eine detaillierte Aufnahme der subrosionsbedingten Veränderungen der Erdoberfläche unter Berücksichtigung des geologischen Rahmens liefert ein sicheres Fundament für die Beurteilung des Gefährdungsgrades einer Region.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Beitrag untersucht die Effekte von lernzeitverlängernden Maßnahmen für Grundschülerinnen und Grundschüler in Mecklenburg-Vorpommern mit einer ungünstigen Lernausgangslage zum Zeitpunkt der Einschulung. Dazu wurde über die gesamte Grundschulzeit hinweg die Leistungsentwicklung von 67 Kindern in den Bereichen Lesen und Rechnen erfasst. Bei 19 Kindern wurde eine Lernzeitverlängerung durch Diagnoseförderklassen (DFK) realisiert, bei 18 durch eine Klassenwiederholung (KW) und 30 Kinder lernten in regulären Grundschulklassen (GSK) ohne eine Lernzeitverlängerung. Die Auswertungen der Daten mittels Hierarchisch-linearer Modelle (HLM) weisen auf gleiche Entwicklungsverläufe der drei Untersuchungsgruppen in den Bereichen Lesen und Mathematik hin. Zum Ende der Klasse 4 erreichten die drei Gruppen ähnliche Leistungsniveaus. In allen drei Settings fiel auf, dass die Entwicklung mathematischer Kompetenzen über die Schulzeit hinweg verzögert erfolgte. Ungünstige Lernausgangslagen im Bereich Mathematik konnten den Analysen zufolge durch keine der untersuchten Beschulungsformen ausreichend kompensiert werden. (DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einleitung: Zu den autistischen Syndromen werden der frühkindliche Autismus (Kanner-Syndrom), das Asperger-Syndrom und atypische Autismusformen oder nicht-spezifizierte tiefgreifende Entwicklungsstörungen gezählt. Bei den autistischen Syndromen liegen Beeinträchtigungen (1) der Kommunikation und (2) der sozialen Interaktion vor. Weiterhin weisen (3) die Kinder in unterschiedlichem Maß stereotypes, repetitives Verhalten auf und haben bestimmte Sonderinteressen. Verhaltensbasierte Frühinterventionen bei Kindern mit Autismus basieren auf lerntheoretischen und verhaltenstherapeutischen Konzepten. Sie berücksichtigen die besonderen vorliegenden Beeinträchtigungen in der Wahrnehmung, der emotionalen Reaktionen, der sozialen Interaktionen sowie der Kommunikationsmuster. Die systematische Anwendung und Evaluation solcher Modelle in Deutschland ist aber bisher eher die Ausnahme. Fragestellungen: - Wie sind die gesundheitliche Effektivität und Sicherheit von verhaltens- oder fertigkeitenbasierten Frühinterventionen bei autistischen Syndromen untereinander und verglichen mit einer Standardbehandlung? - Gibt es Hinweise auf besondere Wirkfaktoren für die Effektivität? - Wie ist die Kosten-Effektivität? - Wie hoch sind die Kosten der verschiedenen Interventionen? - Lassen sich aus ethischen und rechtlichen Überlegungen Schlüsse für die Anwendung der betrachteten Interventionen bei Betroffenen mit autistischem Syndrom in der Praxis ziehen? Methoden: Basierend auf einer systematischen Literaturrecherche werden ab 2000 in deutscher oder englischer Sprache veröffentlichte kontrollierte Studien zu verhaltens- oder fertigkeitenbasierten Frühinterventionen bei Kindern mit Autismus im Alter von bis zu zwölf Jahren eingeschlossen und bewertet. Die Mindestzahl an Studienteilnehmern muss zehn pro Interventionsgruppe betragen. Ergebnisse: Insgesamt 15 Veröffentlichungen klinischer Primärstudien, acht systematische Reviews und eine ökonomische Veröffentlichung erfüllen die Einschlusskriterien. Die meisten Studien evaluieren intensive Frühinterventionen, die sich an das Modell von Lovaas (Early intensive behavioural treatment (EIBT), Applied behavioural analysis (ABA)) anlehnen. Einige Studien evaluieren andere Interventionen, die teilweise pragmatisch waren und teilweise einem bestimmten Modell folgen (spezifisches Elterntraining, Responsive education and prelinguistic milieu teaching (RPMT), Joint attention (JA) und symbolisches Spielen (SP), Picture exchange communication system (PECS)). Verhaltensanalytische Interventionen basierend auf dem Lovaas-Modell können weiterhin als die am besten empirisch abgesicherten Frühinterventionen angesehen werden. Vorschulkinder mit Autismus können durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen (expressive Sprache, Sprachverständnis und Kommunikation) erreichen. Es bleibt jedoch unklar, welche Mindestintensität notwendig ist, und welche Wirkkomponenten für die Ergebnisse verantwortlich sind. Für andere umfassende Frühinterventionen bei Kindern mit Autismus liegt keine hochwertige Evidenz vor. Die für den ökonomischen Teilbereich identifizierte und einbezogene Publikation ist methodisch und thematisch nicht dazu geeignet, die Fragen nach der Kosten-Effektivität oder den Kostenwirkungen von Frühinterventionen beim Autismus auch nur ansatzweise zu beantworten. Publikationen zu rechtlichen, ethischen oder sozialen Aspekten werden nicht identifiziert. Die finanzielle Lage der Betroffenen und der Familien wird durch das Pflege-Weiterentwicklungsgesetz (Pf-WG) verbessert. Weitere rechtliche Belange betreffen die Betreuung und die Deliktfähigkeit der Menschen mit Autismus. Auch die gleichheitliche Betreuung und Versorgung sind insbesondere vor dem Hintergrund der Pflege im häuslichen Umfeld eine wichtige Frage. Diskussion: Es gibt nur wenige methodisch angemessene Studien zur Beurteilung der Wirksamkeit von Frühinterventionen bei Kindern mit Autismus. Die meisten Studien sind vergleichsweise kurz und haben teilsweise kein verblindetes Ergebnis-Rating. Der Mangel an hochwertigen vergleichenden Studien lässt keine solide Antwort auf die Frage zu, welche Frühintervention bei welchen Kindern mit Autismus am wirksamsten ist. Programme nach dem Lovaas-Modell scheinen am wirkungsvollsten zu sein. Dies gilt vor allem, wenn sie klinikbasiert durchgeführt werden. Zu einzelnen Wirkfaktoren von Frühinterventionen nach dem ABA-Modell konnte allerdings keine solide Evidenz gefunden werden. Es zeigte sich, dass ein Elterntraining hinsichtlich der Verbesserung der Kommunikation besser ist als eine Routinebehandlung, in der eine Mischung von Theapieelementen angewendet wird. Sowohl für die klinischen als auch die gesundheitsökonomischen Studien besteht das Problem unzureichender Verallgemeinerbarkeit der Studienergebnisse in den deutschen Versorgungskontext. Die ökonomischen Studien sind methodisch und thematisch nicht dazu geeignet die aufgeworfenen Fragestellungen zu beantworten. Schlussfolgerung: Basierend auf der derzeitigen Studienlage liegt für keine der untersuchten verhaltensbasierten Frühinterventionen bei Kindern mit Autismus ausreichende Evidenz vor. Die in diesem Bericht ausgewerteten Studien und Reviews legen nahe, dass Vorschulkinder mit Autismus durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen erreichen können. Es gibt bisher keine Hinweise, dass bei einem substantiellen Anteil der Kinder eine vollständige Normalisierung der Entwicklung erreicht werden kann. Die meiste Evidenz liegt für die ABA vor. Ein Minimum an erforderlicher oder sinnvoller Behandlungsintensität kann jedoch nicht angegeben werden. Eine professionelle Umsetzung eines verhaltensbasierten Frühinterventionsprogrammes in engem und ausführlichem Kontakt mit den Kindern und unter Einbeziehung der Eltern erscheint sinnvoll. Zur Kosten-Effektivität von intensiven Frühinterventionen bei Kindern mit Autismus können keine validen Angaben gemacht werden. Effektive Frühinterventionen könnten jedoch die Gesamtkosten des Autismus langfristig reduzieren, indem die anfallenden hohen Aufwendungen durch eine spätere bessere soziale Anpassung überkompensiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In diesem Beitrag wird das von Thomas Martens und Jürgen Rost entwickelte Integrierte Handlungsmodell reflektiert, auf Lernprozesse übertragen, theoretische erweitert und beispielhaft empirisch überprüft. Zunächst werden die theoretischen Potenziale des Modells aufgezeigt, indem es auf Lernprozesse angewendet wird. Danach werden die typischen Prozesse der drei Handlungsphasen dargestellt, insbesondere die funktionslogische Integration von bewussten und unbewussten sowie kognitiven und affektiven Prozessen. Abschließend wird eine empirische Studie vorgestellt, die das Lernen von Statistik im Hochschulbereich untersucht. Mit Hilfe von Mischverteilungsmodellen werden sieben Lerntypen identifiziert, die den entsprechenden motivationalen, intentionalen und volitionalen Mustern der Lern- und Handlungsgenese entsprechen. (DIPF/Orig.)