601 resultados para Medizinische Modelle
Resumo:
Title varies: 1865/67-1867/70. Verhandlungen der Physicalisch-Medicinischen Societa? zu Erlangen
Resumo:
Mode of access: Internet.
Resumo:
List of members in vol. 63 and thereafter in every other vol.
Resumo:
Der Band diskutiert die Vor- und Nachteile von Teamarbeit und stellt Modelle vor, die Teams und ihre Entwicklung beschreiben. Der Leser findet in dem Band Fragebögen und Leitfäden, mit denen die Stärken und Schwächen der eigenen Organisation bzw. des eigenen Teams auf einfache Art und Weise analysiert werden können. Auf der Analyse von Teamprozessen aufbauend, werden Methoden vorgestellt, die dem Team dabei helfen, eine eigene Identität zu entwickeln, Visionen zu definieren und daraus konkrete Ziele abzuleiten. Mit vielen praxisnahen Hinweisen werden schließlich Themen wie die Entwicklung des Einzelnen im Team, die Gestaltung von Tagesordnungen und Meetings oder der Umgang mit schwierigen Teammitgliedern behandelt.
Resumo:
Im Rahmen der deutschen Reaktorsicherheitsforschung wurden im Vorhaben 1501363 durch das Helmholtz-Zentrum Dresden-Rossendorf theoretische, experi-mentelle und methodische Untersuchungen zum hydrodynamischen und physiko-chemischen Verhalten von freigesetzten Isolationsmaterialfragmenten bzw. Korrosi-onsprodukten in Kühlmittelströmungen kerntechnischer Anlagen nach Kühlmittelverluststörfällen durchgeführt. Das Vorhaben baut auf den Ergebnissen der Forschungsvorhaben 1501270 und 1501307 auf und wurde in enger Kooperation mit der Hochschule Zittau/Görlitz (Vorhaben 1501360) realisiert. Schwerpunkte der Arbeiten bildeten Erweiterungen und Verbesserungen der im Rahmen der o.g. Forschungsvorhaben entwickelten Methoden und Modelle zur dreidimensionalen CFD-Simulation der isolationsmaterialbelasteten Kühlmittelströmung im Containment-Sumpf unter Einbeziehung der Modellierung von Anlagerungs- und Ablösevorgängen von Isoliermaterial-Fasern und Debris an Rückhaltevorrichtungen im Notkühlkreislauf (z.B. Sumpfansaugsiebe). Die Modellentwicklung und –validierung erfolgte auf Basis von an der HS Zittau/Görlitz durchgeführten Experimenten. Weiterhin wurde der Einfluss chemischer Effekte, insbesondere der Korrosion feuerverzinkter Containment-Einbauten, auf die Wasserchemie und das Verblockungsverhalten von mit Isoliermaterial-Fasern belegten Rückhaltevorrichtungen untersucht. Auf Basis der Versuchsergebnisse erfolgte die Identifikation des mechanistischen Korrosionsmodells sowie der Haupt-Einflussfaktoren auf den Korrosions- und den Verblockungsmechanismus. Diese bildeten die Basis für die Ableitung möglicher Maßnahmen zur Minderung des Korrosions- und Verblockungspotenzials.
Resumo:
Die vorliegende Studie untersuchte die im Job-Demand-Control-Support-Modell und Effort-Reward-Imbalance-Modell beschriebenen Tätigkeitsmerkmale in Bezug auf Depressivität in einer Stichprobe von 265 Erwerbstätigen. Anhand konfirmatorischer Faktorenanalysen wurden Gemeinsamkeiten und Unterschiede beider Modelle geprüft. Anschließend wurde die Bedeutung der nachweisbaren Tätigkeitsmerkmale für die Vorhersage von Depressivität getestet und untersucht, inwieweit die Effekte durch Überforderungserleben mediiert werden. Die Analysen zeigten, dass die Modelle sowohl gemeinsame (Arbeitsintensität bzw. berufliche Anforderungen) als auch distinkte Arbeitsmerkmale (Tätigkeitsspielraum, Arbeitsplatzsicherheit, beruflicher Status, soziale Anerkennung) erfassen. Hohe Arbeitsintensität, geringe Arbeitsplatzsicherheit und fehlende soziale Anerkennung standen in signifikantem Zusammenhang mit Depressivität. Anders als erwartet war der berufliche Status positiv mit Depressivität assoziiert, während für den Tätigkeitsspielraum keine signifikanten Effekte nachweisbar waren. Das Pfadmodell bestätigte sowohl direkte als auch durch Überforderungserleben vermittelte Zusammenhänge zwischen den Tätigkeitsmerkmalen und Depressivität (39 % Varianzaufklärung). Die Ergebnisse bieten eine Grundlage für die Identifizierung potenzieller Risikofaktoren für das Auftreten depressiver Symptome am Arbeitsplatz. This study examined the job characteristics in the Job-Demand-Control-Support Model and in the Effort-Reward Imbalance Model with regard to depression in a sample of 265 employees. First, we tested by means of confirmatory factor analysis similarities and differences of the two models. Secondly, job characteristics were introduced as predictors in a path model to test their relation with depression. Furthermore, we examined whether the associations were mediated by the experience of excessive demands. Our analyses showed the demand/effort component to be one common factor, while decision latitude and reward (subdivided into the three facets of job security, social recognition, and status-related reward) remained distinctive components. Employees with high job demands/effort, low job security, low social recognition, but high status-related rewards reported higher depression scores. Unexpectedly, status-related rewards were positively associated with depression, while we found no significant effects for decision latitude. The path models confirmed direct as well as mediation effects (through experienced excessive demands) between job characteristics and depression (39 % explained variance in depression). Our results could be useful to identify possible job-related risk factors for depression.
Resumo:
A multicentennial and absolutely-dated shell-based chronology for the marine environment of the North Icelandic Shelf has been constructed using annual growth increments in the shell of the long-lived bivalve clam Arctica islandica. The region from which the shells were collected is close to the North Atlantic Polar Front and is highly sensitive to the varying influences of Atlantic and Arctic water masses. A strong common environmental signal is apparent in the increment widths, and although the correlations between the growth increment indices and regional sea surface temperatures are significant at the 95% confidence level, they are low (r ~ 0.2), indicating that a more complex combination of environmental forcings is driving growth. Remarkable longevities of individual animals are apparent in the increment-width series used in the chronology, with several animals having lifetimes in excess of 300 years and one, at 507 years, being the longest-lived non-colonial animal so far reported whose age at death can be accurately determined. The sample depth is at least three shells after AD 1175, and the time series has been extended back to AD 649 with a sample depth of one or two by the addition of two further series, thus providing a 1357-year archive of dated shell material. The statistical and spectral characteristics of the chronology are investigated by using two different methods of removing the age-related trend in shell growth. Comparison with other proxy archives from the same region reveals several similarities in variability on multidecadal timescales, particularly during the period surrounding the transition from the Medieval Climate Anomaly to the Little Ice Age.
Resumo:
El artículo analiza cómo Paul Celan, utilizando recursos arreferenciales y antimiméticos propios de la poésie pure y la poesía absoluta, desarrolla un modelo poético en el que la temporalidad y la memoria son determinantes. En el nuevo modelo, el lenguaje no constituye una realidad autónoma e inmanente; antes bien, se concreta en una acción dialógica y remite a una realidad extralingüística. El mismo texto poético configura un espacio del recuerdo, se erige en un lugar de memoria que, a través de las sedimentaciones históricas que arrastra el lenguaje, da testimonio de lo ocurrido.
Resumo:
Este artículo presenta un análisis de la imagen de España trazada en la novela Cabo de Gata (2013). Con ello se toma en consideración un género que, hasta ahora, ha recibido poca atención en la investigación de la imagen de España en la literatura de viajes alemana. El foco del análisis lo constituyen tanto el motivo del viaje como la percepción y representación de lo ajeno español. Por último, el análisis narratológico de los diversos aspectos seleccionados de la técnica narrativa nos servirá para delimitar la repercusión imagológica de la novela.
Resumo:
Die Fähigkeit, geschriebene Texte zu verstehen, d.h. eine kohärente mentale Repräsentation von Textinhalten zu erstellen, ist eine notwendige Voraussetzung für eine erfolgreiche schulische und außerschulische Entwicklung. Es ist daher ein zentrales Anliegen des Bildungssystems Leseschwierigkeiten frühzeitig zu diagnostizieren und mithilfe zielgerichteter Interventionsprogramme zu fördern. Dies erfordert ein umfassendes Wissen über die kognitiven Teilprozesse, die dem Leseverstehen zugrunde liegen, ihre Zusammenhänge und ihre Entwicklung. Die vorliegende Dissertation soll zu einem umfassenden Verständnis über das Leseverstehen beitragen, indem sie eine Auswahl offener Fragestellungen experimentell untersucht. Studie 1 untersucht inwieweit phonologische Rekodier- und orthographische Dekodierfertigkeiten zum Satz- und Textverstehen beitragen und wie sich beide Fertigkeiten bei deutschen Grundschüler(inne)n von der 2. bis zur 4. Klasse entwickeln. Die Ergebnisse legen nahe, dass beide Fertigkeiten signifikante und eigenständige Beiträge zum Leseverstehen leisten und dass sich ihr relativer Beitrag über die Klassenstufen hinweg nicht verändert. Darüber hinaus zeigt sich, dass bereits deutsche Zweitklässler(innen) den Großteil geschriebener Wörter in altersgerechten Texten über orthographische Vergleichsprozesse erkennen. Nichtsdestotrotz nutzen deutsche Grundschulkinder offenbar kontinuierlich phonologische Informationen, um die visuelle Worterkennung zu optimieren. Studie 2 erweitert die bisherige empirische Forschung zu einem der bekanntesten Modelle des Leseverstehens—der Simple View of Reading (SVR, Gough & Tunmer, 1986). Die Studie überprüft die SVR (Reading comprehension = Decoding x Comprehension) mithilfe optimierter und methodisch stringenter Maße der Modellkonstituenten und überprüft ihre Generalisierbarkeit für deutsche Dritt- und Viertklässler(innen). Studie 2 zeigt, dass die SVR einer methodisch stringenten Überprüfung nicht standhält und nicht ohne Weiteres auf deutsche Dritt- und Viertklässler(innen) generalisiert werden kann. Es wurden nur schwache Belege für eine multiplikative Verknüpfung von Dekodier- (D) und Hörverstehensfertigkeiten (C) gefunden. Der Umstand, dass ein beachtlicher Teil der Varianz im Leseverstehen (R) nicht durch D und C aufgeklärt werden konnte, deutet darauf hin, dass das Modell nicht vollständig ist und ggf. durch weitere Komponenten ergänzt werden muss. Studie 3 untersucht die Verarbeitung positiv-kausaler und negativ-kausaler Kohärenzrelationen bei deutschen Erst- bis Viertklässler(inne)n und Erwachsenen im Lese- und Hörverstehen. In Übereinstimmung mit dem Cumulative Cognitive Complexity-Ansatz (Evers-Vermeul & Sanders, 2009; Spooren & Sanders, 2008) zeigt Studie 3, dass die Verarbeitung negativ-kausaler Kohärenzrelationen und Konnektoren kognitiv aufwändiger ist als die Verarbeitung positiv-kausaler Relationen. Darüber hinaus entwickelt sich das Verstehen beider Kohärenzrelationen noch über die Grundschulzeit hinweg und ist für negativ-kausale Relationen am Ende der vierten Klasse noch nicht abgeschlossen. Studie 4 zeigt und diskutiert die Nützlichkeit prozess-orientierter Lesetests wie ProDi- L (Richter et al., in press), die individuelle Unterschiede in den kognitiven Teilfertigkeiten des Leseverstehens selektiv erfassen. Hierzu wird exemplarisch die Konstruktvalidität des ProDi-L-Subtests ‚Syntaktische Integration’ nachgewiesen. Mittels explanatorischer Item- Repsonse-Modelle wird gezeigt, dass der Test Fertigkeiten syntaktischer Integration separat erfasst und Kinder mit defizitären syntaktischen Fertigkeiten identifizieren kann. Die berichteten Befunde tragen zu einem umfassenden Verständnis der kognitiven Teilfertigkeiten des Leseverstehens bei, das für eine optimale Gestaltung des Leseunterrichts, für das Erstellen von Lernmaterialien, Leseinstruktionen und Lehrbüchern unerlässlich ist. Darüber hinaus stellt es die Grundlage für eine sinnvolle Diagnose individueller Leseschwierigkeiten und für die Konzeption adaptiver und zielgerichteter Interventionsprogramme zur Förderung des Leseverstehens bei schwachen Leser(inne)n dar.
Resumo:
Hybrid simulation is a technique that combines experimental and numerical testing and has been used for the last decades in the fields of aerospace, civil and mechanical engineering. During this time, most of the research has focused on developing algorithms and the necessary technology, including but not limited to, error minimisation techniques, phase lag compensation and faster hydraulic cylinders. However, one of the main shortcomings in hybrid simulation that has pre- vented its widespread use is the size of the numerical models and the effect that higher frequencies may have on the stability and accuracy of the simulation. The first chapter in this document provides an overview of the hybrid simulation method and the different hybrid simulation schemes, and the corresponding time integration algorithms, that are more commonly used in this field. The scope of this thesis is presented in more detail in chapter 2: a substructure algorithm, the Substep Force Feedback (Subfeed), is adapted in order to fulfil the necessary requirements in terms of speed. The effects of more complex models on the Subfeed are also studied in detail, and the improvements made are validated experimentally. Chapters 3 and 4 detail the methodologies that have been used in order to accomplish the objectives mentioned in the previous lines, listing the different cases of study and detailing the hardware and software used to experimentally validate them. The third chapter contains a brief introduction to a project, the DFG Subshake, whose data have been used as a starting point for the developments that are shown later in this thesis. The results obtained are presented in chapters 5 and 6, with the first of them focusing on purely numerical simulations while the second of them is more oriented towards a more practical application including experimental real-time hybrid simulation tests with large numerical models. Following the discussion of the developments in this thesis is a list of hardware and software requirements that have to be met in order to apply the methods described in this document, and they can be found in chapter 7. The last chapter, chapter 8, of this thesis focuses on conclusions and achievements extracted from the results, namely: the adaptation of the hybrid simulation algorithm Subfeed to be used in conjunction with large numerical models, the study of the effect of high frequencies on the substructure algorithm and experimental real-time hybrid simulation tests with vibrating subsystems using large numerical models and shake tables. A brief discussion of possible future research activities can be found in the concluding chapter.
Resumo:
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
Resumo:
Gesetze müssen verständlich sein, so die Forderung, sie können aber nach der herrschenden Lehre diese Anforderung nicht erfüllen, da ihre Bedeutung nicht in der geforderten Weise bestimmt sein kann, wie die Auslegungstätigkeit in der Anwendung zeigt. Der Aufsatz beschäftigt sich mit der Frage, wie unter diesen Umständen Verständlichkeit bei der Versprachlichung von Gesetzesnormen möglich ist. Voraussetzung für eine Antwort sind präzisierte Vorstellungen über die Prozesse des Verstehens, die Verständlichkeit von Texten und den Zusammenhang zwischen Verstehen, Bedeutung und Auslegung. 1. Die Bedeutung von Texten zeigt sich im Verstehen. Verstehen ist ein konstruktiver, inferenzieller Prozess, in dem anhand des Wortlautes mit Hilfe von prototypischen Annahmen, Sachwissen, Situationswissen und inferenziellen Regeln u. a. ein mentales Modell von Sachverhalten und Bewertungen der Relevanz der Informationen im gegebenen Kontext hergestellt werden. Die sprachliche Bedeutung eines Textes ist selbst kein Abbild eines Sachverhaltes, sondern eine Konstruktionsanweisung, ein solches Abbild in der Form eines mentalen Modells herzustellen. 2. Gesetzesaussagen sind normative generell-abstrakte Aussagen. Generell-abstrakte Aussagen zu verstehen, bedeutet, eine Menge von familienähnlichen mentalen Modellen entsprechend den sprachlichen und sachlichen Vorgaben rekonstruieren zu können. 3. Es gibt nicht ein einziges Verstehen, sondern Abstufungen des Verstehens zwischen relativ vagem und relativ präzisem Verstehen und zwischen punktuellem Verstehen und Erkennen der möglichen Schlussfolgerungen aus einer Aussage. Laienverstehen und professionelles, präzises Verstehen und Begreifen können in Konflikt zueinander stehen, müssen aber nicht, soweit das Laienverstehen in wesentlichen Aspekten kompatibler Teil des professionellen Verstehens ist. 4. Verstehen ist Arbeit mit einem Aufwand. Verständlichkeit entspricht dem Aufwand, der erforderlich ist, um einen Text zu verstehen. Der Aufwand hängt von der Sachkenntnis der Interpretin, von der Abstraktheit und Komplexität der vermittelten Information der Aussage und der sprachlichen Gestaltung ab. 5. Wer einen Inhalt wie eine Gesetzesnorm zu versprachlichen hat, muss vom vorgegebenen Inhalt und den textspezifischen und sachlichen Vorgaben ausgehen und kann diese nur begrenzt beeinflussen. Ein gegebene Information kann vom Inhalt so sachspezifisch und komplex sein, dass sie nicht beliebig leicht (d.h. allgemein-) verständlich formuliert werden kann. Gestaltbar ist dagegen die Textform. Die Aufgabe besteht darin, die Textform so zu gestalten, dass sie allgemeinen pragmatischen und kognitiven Verstehensregeln entspricht und die kognitiven Verstehensprozeduren in der Konstruktion mentaler Modelle unterstützt. Stichwörter sind Transparenz, Ikonizität, Erkennbarkeit der Relevanz der Inhaltselemente, Vermeidung von Konflikten mit der Allgemeinsprache. 6. Der Einwand der Unbestimmtheit (und entsprechend der Unverständlichkeit) von Gesetzestexten betrifft die Aufgabenstellung der Gesetzesredaktion nicht direkt. Das Verstehen eines Gesetzestextes bei seiner Formulierung und die Auslegung sind zwei unterschiedliche Vorgänge in unterschiedlichen Zusammenhängen. Ein Gesetzestext (der Normtext in der Terminologie der Strukturierenden Rechtslehre) setzt eine allgemeine Norm innerhalb eines allgemeinen Erwartungshorizonts. Auch wenn er eine Vielzahl von potenziellen konkreten (fiktiven) Anwendungsfällen als mentalen Modellen zu rekonstruieren erlaubt, sind unter den vorgegebenen Voraussetzungen die Regeln dieser Rekonstruktionen grundsätzlich (bei angemessener Formulierung) bestimmt. Auslegung ist demgegenüber Herstellung einer Rechtsnorm für den konkreten Fall auf der Grundlage von generell-abstrakten Normtexten. Der konkrete Fall ist individuell und hat von seinem Wesen her keinen Zusammenhang mit einer generell-abstrakten Norm. Die individuell-konkrete Rechtsnorm kann durch inferenzielle Ableitung einer Einzelnorm aus dem generellen Normtext hergeleitet und begründet werden; dies entspricht dem Resultat von gewöhnlichen Verstehensprozeduren, ist aber ebenfalls eine inferenziell gesteuerte Konstruktion einer neuen Norm. In vielen Fällen ist die Rechtsnorm aber das Resultat von Inferenzen aus einer Vielzahl von Normtexten und sonstigen Inputdaten wie Relevanzkriterien und nicht eine direkte Konkretisierung einer einzelnen bestimmten generell-abstrakten Norm. Die vielzitierte Unbestimmtheit von Normtexten in der Anwendung ist nicht Reflex der Unbestimmtheit der Bedeutung eines generell-abstrakten Normtextes als solchen, sondern der vielfältigen Vermitteltheit einer konkreten Rechtsnorm aus je nach Situation unterschiedlichen Vorgaben.
Resumo:
Der Plan, große Mengen radioaktiver Materialien in Salinar- gesteine von Salzstöcken einzulagern, schließt die Rück- holbarkeit praktisch aus. Bei der Abschätzung des Langzeitverhaltens der Gesteine, der Grubenbaue und des gesamten Diapirs sind - wie auch beim Einlagerungsvorgang selbst - Fehler nicht auszuschließen und nicht korrigierbar. Die Antragsteller behandeln die geowissenschaftlichen Aspekte der Einlagerung (Teilprojekt 6) nicht qualifiziert und widmen den damit verbundenen Problemen eine unangemessen geringe Aufmerksamkeit. Sie lassen die einem solchen Projekt adäquate planerische Sorgfalt vermissen, gehen mit den zur Verfügung stehenden Daten in ihrer Argumentation ungenau oder selektiv um und erwecken den Eindruck, unter der Erdoberfläche nach dem 'trial-and-error'-Prinzip Vorgehen zu wollen. Salzstöcke sind tektonisch grundsätzlich instabile Gesteinskörper. Die an ihrem Aufbau überwiegend beteiligten Gesteine sind die wasserlöslichsten der Erdkruste; sie reagieren am empfindlichsten auf mechanische und thermische Beanspruchung und sind am reaktionsfähigsten bei möglichen Interaktionen zwischen Einlagerungsmaterial und Einlagerungsmedium. Salzstöcke sind die auf bergtechnische Eingriffe am sensibelsten reagierenden Gesteinskörper, insbesondere, wenn der am Salzspiegel herrschende Lösungszustand gestört wird, wenn durch künstliche Hohlräume im Innern Kriechbewegung (Konvergenz) des gesamten Salinars ausgelöst wird und wenn mit der Einlagerung thermische Belastungen einhergehen, welche höher sind als die mit der Gesteinsbildung und -Umbildung verbundenen Temperaturen es jemals waren. Daß trotz dieser Empfindlichkeit Gewinnungsbergbau in Diapiren möglich ist, ist kein Beleg für ihre Eignung als Endlager. Die Geowissenschaften verfügen über Modellvorstellungen zur Deutung der Salinargenese, des Salzaufstiegs und des gebirgsmechanischen Verhaltens. Diese Modelle sind teils als 'Lehrbuchwahrheit1 allgemein akzeptiert, werden z.T. aber auch als Hypothesen kontrovers diskutiert. Langzeitprognosen über das Verhalten von Gesteinen sind nicht verläßlich, wenn sie auf widersprochenen Modellvorstellungen über das Wesen von Gesteinen und Gesteinsverhalten beruhen. Die Salzstockauswahl ging der geowissenschaftlichen Erkundung voraus. Die wenigen publizierten Daten zur regionalen Geologie lassen nicht auf einen bergbautechnisch besonders leicht zu beherrschenden Salzstock schließen. Die Lage des Diapirs im Verbreitungsgebiet wasserreicher quartärzeitlicher Rinnensysteme spricht genauso gegen die Standortwahl wie die zu erwartende komplizierte Interntektonik und die politisch bedingte Unerforschbarkeit der Gesamtstruktur Gorleben-Rambow. Als Fehlentscheidung ist die durch Landkäufe am Standort Gorleben vorweggenommene Auswahl des Fabrikgeländes einschließlich Schachtanlage und Tritiumwasser-Verpressung auf dem Salzstock zu werten. Der nicht auszuschließende "Störfall Wassereinbruch" kann sich über Tage auf die Standsicherheit der riesigen Gebäude und Lagerbecken zerstörerisch auswirken und so Kontamination der Umgebung verursachen. Geowissenschaftliche Gründe, Erfahrungen aus der Bergbaukunde und die Erwartung, daß man fehlerhaftes Handeln nicht ausschließen kann, führen den Verfasser zu der Überzeugung, daß die Endlagerung radioaktiver Abfälle im Salz nicht zu empfehlen und nicht zu verantworten ist.