850 resultados para Interne Modelle
Resumo:
Am nordwestlichen Harzrand zwischen Hahausen und Osterode wurden 482 Erdfälle systematisch aufgenommen. Als Erdfälle wurden dabei alle oberirdischen Groß-Subrosionsformen ungeachtet ihrer Entstehung aufgefaßt. Die Geländekartierung stützte sich auf Archivunterlagen, alte topographische und geologische Karten sowie auf Luftbilder. Erdfälle im Ausstrich gleicher stratigraphischer Einheiten wurden zusammengefaßt und ihre Basisdaten: Erdfalltyp, -umriß, -fläche und Formfaktor (Durchmesser:Tiefe) miteinander verglichen. Die Dimensionen der Erdfälle werden an der Oberfläche von zwei Faktoren beeinflußt, dem Alter und der Genese. Bei den meist fossilen Erdfällen werden charakteristische genetische Merkmale durch den Alterungsprozeß so stark überprägt, daß sie in der Statistik nicht mehr signifikant hervortreten. Für die einzelnen Schichtabschnitte wurden theoretische Modelle zur Erdfallmechanik am konkreten Beispiel überprüft. Im Oberen Buntsandstein können die Formen als Senkungskessel, Normalerdfälle und Subrosionserdfälle gedeutet werden. Mit den vorliegenden Daten ist es jedoch nicht möglich, einzelnen Erdfällen bestimmte Entstehungsmechanismen zuzuordnen. Die Erdfälle im Unteren Buntsandstein brechen siloartig zur Tagesfläche nach oben. Lockergesteinsbedeckung kann den Durchbruch verzögern, besonders wenn kohäsive Lagen eingeschaltet sind. Normalerdfälle treten im Zechstein 3 und 4 auf. Im nicht verkarsteten Gestein kann sich ein Pseudogewölbe ausbilden, aber auch ein kaminartiger Hohlraum ist denkbar. Im Basalanhydrit, Staßfurtkalk und -dolomit, in der Einsturzbreccie aus Staßfurtkalk und -dolomit sowie im Werra-Anhydrit entwickeln sich die Formen in Abhängigkeit vom Ansatzpunkt der Verkarstung. Wird innerhalb des Sulfatgesteins gelöst, so entstehen Normalerdfälle. Punktuelle Ablaugung an der Oberfläche des Karstgesteins führt zu Senkungskesseln. Mächtige Quartärbedeckung modifiziert ähnlich wie beim Unteren Buntsandstein die Bruch- und Senkungsvorgänge. Die Erdfälle treten vergesellschaftet auf und sind linear angeordnet, wobei sie Kluftmuster, Störungs- und Entspannungszonen nachzeichnen. Prognosen über zukünftige Erdfallbildungen können nicht gestellt werden. Die Geophysik verfügt bis jetzt über keine allgemein gültige Methode, um unterirdische Hohlräume nachzuweisen. Auch in der Bergschadenskunde sind keine Ansätze bekannt, die das Problem rechnerisch erfassen. Erste Versuche zur Bestimmung der ursprünglichen Hohlräume unter bekannten Erdfällen sind nur bedingt brauchbar. Eine Rayonisierung ist für die Bauplanung keine wirkliche Entscheidungshilfe. Zu große Flächen müßten danach als erdfallgefährdet angesehen werden. Nur eine detaillierte Aufnahme der subrosionsbedingten Veränderungen der Erdoberfläche unter Berücksichtigung des geologischen Rahmens liefert ein sicheres Fundament für die Beurteilung des Gefährdungsgrades einer Region.
Resumo:
Der vorliegende Beitrag untersucht die Effekte von lernzeitverlängernden Maßnahmen für Grundschülerinnen und Grundschüler in Mecklenburg-Vorpommern mit einer ungünstigen Lernausgangslage zum Zeitpunkt der Einschulung. Dazu wurde über die gesamte Grundschulzeit hinweg die Leistungsentwicklung von 67 Kindern in den Bereichen Lesen und Rechnen erfasst. Bei 19 Kindern wurde eine Lernzeitverlängerung durch Diagnoseförderklassen (DFK) realisiert, bei 18 durch eine Klassenwiederholung (KW) und 30 Kinder lernten in regulären Grundschulklassen (GSK) ohne eine Lernzeitverlängerung. Die Auswertungen der Daten mittels Hierarchisch-linearer Modelle (HLM) weisen auf gleiche Entwicklungsverläufe der drei Untersuchungsgruppen in den Bereichen Lesen und Mathematik hin. Zum Ende der Klasse 4 erreichten die drei Gruppen ähnliche Leistungsniveaus. In allen drei Settings fiel auf, dass die Entwicklung mathematischer Kompetenzen über die Schulzeit hinweg verzögert erfolgte. Ungünstige Lernausgangslagen im Bereich Mathematik konnten den Analysen zufolge durch keine der untersuchten Beschulungsformen ausreichend kompensiert werden. (DIPF/Orig.)
Resumo:
La dégradation du béton associée à l’exposition en ambiance hivernale rigoureuse est une problématique connue en Amérique du Nord en raison de la sévérité du climat en période hivernale. Un des types de dégradation, la fissuration interne, se manifeste par l'apparition d'une intense microfissuration du béton en surface, mais aussi à l'intérieur de la masse. Celle-ci peut conduire à une perte de cohésion du matériau, réduisant ses caractéristiques mécaniques et sa perméabilité. Dans un souci de développement durable et de recherche performancielle, des liants ternaires, comprenant des ajouts minéraux autre que la fumée de silice ont été développés. Les études scientifiques portant sur l’influence du facteur d’espacement à ce type de dégradation sont peu nombreuses, voire inexistantes. Il est par conséquent important de vérifier si les spécifications actuelles permettent d’assurer la confection d’un matériau durable au gel. Dans ce mémoire, nous avons étudié l’influence du facteur d’espacement, du paramètre E/L, de l’influence du type de superplastifiant et d’un granulat marginal sur la résistance à la fissuration interne des bétons en utilisant l’essai accéléré normalisé ASTM C666, procédure A lors de l’utilisation de liants ternaires. Une grande partie de cette recherche a porté sur l’étude de la relation entre le facteur d’espacement et la tenue aux cycles gel-dégel des bétons. Le projet s’est divisé en 4 phases, la première a permis de déterminer un intervalle contenant le facteur d’espacement critique pour chacun des liants étudiés. Il est ainsi établi qu’il est nécessaire d’avoir un facteur d’espacement inférieur à 340 µm pour assurer la durabilité des bétons V-S formulés à partir de liants ternaires. La deuxième phase a montré que le type de superplastifiant n’influe pas sur le facteur d’espacement critique, mais change les caractéristiques du réseau d’air à l’état frais. La troisième phase a porté sur l’analyse de l’influence d’une variation du rapport E/L sur la durabilité au gel-dégel. Il en résulte qu’une variation dans les limites permises n’a pas d’incidence sur le facteur d’espacement critique tant que les hypothèses restent dans l’intervalle prescrit par le tome VII de la norme 3101. La dernière et quatrième phase a permis de montrer que le granulat marginal sélectionné n’a pas d’incidence particulière sur la résistance au gel-dégel en fissuration interne.
Resumo:
Einleitung: Zu den autistischen Syndromen werden der frühkindliche Autismus (Kanner-Syndrom), das Asperger-Syndrom und atypische Autismusformen oder nicht-spezifizierte tiefgreifende Entwicklungsstörungen gezählt. Bei den autistischen Syndromen liegen Beeinträchtigungen (1) der Kommunikation und (2) der sozialen Interaktion vor. Weiterhin weisen (3) die Kinder in unterschiedlichem Maß stereotypes, repetitives Verhalten auf und haben bestimmte Sonderinteressen. Verhaltensbasierte Frühinterventionen bei Kindern mit Autismus basieren auf lerntheoretischen und verhaltenstherapeutischen Konzepten. Sie berücksichtigen die besonderen vorliegenden Beeinträchtigungen in der Wahrnehmung, der emotionalen Reaktionen, der sozialen Interaktionen sowie der Kommunikationsmuster. Die systematische Anwendung und Evaluation solcher Modelle in Deutschland ist aber bisher eher die Ausnahme. Fragestellungen: - Wie sind die gesundheitliche Effektivität und Sicherheit von verhaltens- oder fertigkeitenbasierten Frühinterventionen bei autistischen Syndromen untereinander und verglichen mit einer Standardbehandlung? - Gibt es Hinweise auf besondere Wirkfaktoren für die Effektivität? - Wie ist die Kosten-Effektivität? - Wie hoch sind die Kosten der verschiedenen Interventionen? - Lassen sich aus ethischen und rechtlichen Überlegungen Schlüsse für die Anwendung der betrachteten Interventionen bei Betroffenen mit autistischem Syndrom in der Praxis ziehen? Methoden: Basierend auf einer systematischen Literaturrecherche werden ab 2000 in deutscher oder englischer Sprache veröffentlichte kontrollierte Studien zu verhaltens- oder fertigkeitenbasierten Frühinterventionen bei Kindern mit Autismus im Alter von bis zu zwölf Jahren eingeschlossen und bewertet. Die Mindestzahl an Studienteilnehmern muss zehn pro Interventionsgruppe betragen. Ergebnisse: Insgesamt 15 Veröffentlichungen klinischer Primärstudien, acht systematische Reviews und eine ökonomische Veröffentlichung erfüllen die Einschlusskriterien. Die meisten Studien evaluieren intensive Frühinterventionen, die sich an das Modell von Lovaas (Early intensive behavioural treatment (EIBT), Applied behavioural analysis (ABA)) anlehnen. Einige Studien evaluieren andere Interventionen, die teilweise pragmatisch waren und teilweise einem bestimmten Modell folgen (spezifisches Elterntraining, Responsive education and prelinguistic milieu teaching (RPMT), Joint attention (JA) und symbolisches Spielen (SP), Picture exchange communication system (PECS)). Verhaltensanalytische Interventionen basierend auf dem Lovaas-Modell können weiterhin als die am besten empirisch abgesicherten Frühinterventionen angesehen werden. Vorschulkinder mit Autismus können durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen (expressive Sprache, Sprachverständnis und Kommunikation) erreichen. Es bleibt jedoch unklar, welche Mindestintensität notwendig ist, und welche Wirkkomponenten für die Ergebnisse verantwortlich sind. Für andere umfassende Frühinterventionen bei Kindern mit Autismus liegt keine hochwertige Evidenz vor. Die für den ökonomischen Teilbereich identifizierte und einbezogene Publikation ist methodisch und thematisch nicht dazu geeignet, die Fragen nach der Kosten-Effektivität oder den Kostenwirkungen von Frühinterventionen beim Autismus auch nur ansatzweise zu beantworten. Publikationen zu rechtlichen, ethischen oder sozialen Aspekten werden nicht identifiziert. Die finanzielle Lage der Betroffenen und der Familien wird durch das Pflege-Weiterentwicklungsgesetz (Pf-WG) verbessert. Weitere rechtliche Belange betreffen die Betreuung und die Deliktfähigkeit der Menschen mit Autismus. Auch die gleichheitliche Betreuung und Versorgung sind insbesondere vor dem Hintergrund der Pflege im häuslichen Umfeld eine wichtige Frage. Diskussion: Es gibt nur wenige methodisch angemessene Studien zur Beurteilung der Wirksamkeit von Frühinterventionen bei Kindern mit Autismus. Die meisten Studien sind vergleichsweise kurz und haben teilsweise kein verblindetes Ergebnis-Rating. Der Mangel an hochwertigen vergleichenden Studien lässt keine solide Antwort auf die Frage zu, welche Frühintervention bei welchen Kindern mit Autismus am wirksamsten ist. Programme nach dem Lovaas-Modell scheinen am wirkungsvollsten zu sein. Dies gilt vor allem, wenn sie klinikbasiert durchgeführt werden. Zu einzelnen Wirkfaktoren von Frühinterventionen nach dem ABA-Modell konnte allerdings keine solide Evidenz gefunden werden. Es zeigte sich, dass ein Elterntraining hinsichtlich der Verbesserung der Kommunikation besser ist als eine Routinebehandlung, in der eine Mischung von Theapieelementen angewendet wird. Sowohl für die klinischen als auch die gesundheitsökonomischen Studien besteht das Problem unzureichender Verallgemeinerbarkeit der Studienergebnisse in den deutschen Versorgungskontext. Die ökonomischen Studien sind methodisch und thematisch nicht dazu geeignet die aufgeworfenen Fragestellungen zu beantworten. Schlussfolgerung: Basierend auf der derzeitigen Studienlage liegt für keine der untersuchten verhaltensbasierten Frühinterventionen bei Kindern mit Autismus ausreichende Evidenz vor. Die in diesem Bericht ausgewerteten Studien und Reviews legen nahe, dass Vorschulkinder mit Autismus durch verhaltensbasierte Interventionen mit einer Mindestintensität von 20 Stunden pro Woche Verbesserungen in kognitiven und funktionalen Bereichen erreichen können. Es gibt bisher keine Hinweise, dass bei einem substantiellen Anteil der Kinder eine vollständige Normalisierung der Entwicklung erreicht werden kann. Die meiste Evidenz liegt für die ABA vor. Ein Minimum an erforderlicher oder sinnvoller Behandlungsintensität kann jedoch nicht angegeben werden. Eine professionelle Umsetzung eines verhaltensbasierten Frühinterventionsprogrammes in engem und ausführlichem Kontakt mit den Kindern und unter Einbeziehung der Eltern erscheint sinnvoll. Zur Kosten-Effektivität von intensiven Frühinterventionen bei Kindern mit Autismus können keine validen Angaben gemacht werden. Effektive Frühinterventionen könnten jedoch die Gesamtkosten des Autismus langfristig reduzieren, indem die anfallenden hohen Aufwendungen durch eine spätere bessere soziale Anpassung überkompensiert werden.
Resumo:
In diesem Beitrag wird das von Thomas Martens und Jürgen Rost entwickelte Integrierte Handlungsmodell reflektiert, auf Lernprozesse übertragen, theoretische erweitert und beispielhaft empirisch überprüft. Zunächst werden die theoretischen Potenziale des Modells aufgezeigt, indem es auf Lernprozesse angewendet wird. Danach werden die typischen Prozesse der drei Handlungsphasen dargestellt, insbesondere die funktionslogische Integration von bewussten und unbewussten sowie kognitiven und affektiven Prozessen. Abschließend wird eine empirische Studie vorgestellt, die das Lernen von Statistik im Hochschulbereich untersucht. Mit Hilfe von Mischverteilungsmodellen werden sieben Lerntypen identifiziert, die den entsprechenden motivationalen, intentionalen und volitionalen Mustern der Lern- und Handlungsgenese entsprechen. (DIPF/Orig.)
Resumo:
Hintergrund: Helicobacter pylori (H. pylori) zählt trotz abnehmender Inzidenz zu den häufigsten bakteriellen Infektionskrankheiten des Menschen. Die Infektion mit H. pylori ist ein Risikofaktor für Krankheiten wie gastroduodenale Geschwüre, Magenkarzinomen und MALT (Mucosa Associated Lymphoid Tissue)-Lymphomen. Zur Diagnostik von H. pylori stehen verschiedene invasive und nichtinvasive Verfahren zur Verfügung. Der 13C-Harnstoff-Atemtest wird zur Kontrolle einer Eradikationstherapie empfohlen, kommt in der Primärdiagnostik von H. pylori derzeit jedoch nicht standardmäßig in Deutschland zum Einsatz. Fragestellung: Welchen medizinischen und gesundheitsökonomischen Nutzen hat die Untersuchung auf H. pylori-Besiedlung mittels 13C-Harnstoff-Atemtest in der Primärdiagnostik im Vergleich zu invasiven und nichtinvasiven diagnostischen Verfahren? Methodik: Basierend auf einer systematischen Literaturrecherche in Verbindung mit einer Handsuche werden Studien zur Testgüte und Kosten-Effektivität des 13C-Harnstoff-Atemtests im Vergleich zu anderen diagnostischen Verfahren zum primären Nachweis von H. pylori identifiziert. Es werden nur medizinische Studien eingeschlossen, die den 13C-Harnstoff-Atemtest direkt mit anderen H. pylori-Testverfahren vergleichen. Goldstandard ist eines oder eine Kombination der biopsiebasierten Testverfahren. Für die gesundheitsökonomische Beurteilung werden nur vollständige gesundheitsökonomische Evaluationsstudien einbezogen, bei denen die Kosten-Effektivität des 13C Harnstoff-Atemtests direkt mit anderen H. pylori-Testverfahren verglichen wird. Ergebnisse: Es werden 30 medizinische Studien für den vorliegenden Bericht eingeschlossen. Im Vergleich zum Immunglobulin G (IgG)-Test ist die Sensitivität des 13C-Harnstoff-Atemtests zwölfmal höher, sechsmal niedriger und einmal gleich, und die Spezifität 13-mal höher, dreimal niedriger und zweimal gleich. Im Vergleich zum Stuhl-Antigen-Test ist die Sensitivität des 13C-Harnstoff-Atemtests neunmal höher, dreimal niedriger und einmal gleich, und die Spezifität neunmal höher, zweimal niedriger und zweimal gleich. Im Vergleich zum Urease-Schnelltest sind die Sensitivität des 13C-Harnstoff-Atemtests viermal höher, dreimal niedriger und viermal gleich und die Spezifität fünfmal höher, fünfmal niedriger und einmal gleich. Im Vergleich mit der Histologie ist die Sensitivität des 13C-Harnstoff-Atemtests einmal höher und zweimal niedriger und die Spezifität zweimal höher und einmal niedriger. In je einem Vergleich zeigt sich kein Unterschied zwischen 13C-Harnstoff-Atemtest und 14C-Harnstoff-Atemtest, sowie eine niedrigere Sensitivität und höhere Spezifität im Vergleich zur Polymerase-Kettenreaktion (PCR). Inwieweit die beschriebenen Unterschiede statistisch signifikant sind, wird in sechs der 30 Studien angegeben. Es werden neun gesundheitsökonomische Evaluationen in dem vorliegenden Bericht berücksichtigt. Die Test-and-Treat-Strategie mittels 13C-Harnstoff-Atemtest wird in sechs Studien mit einem Test-and-Treat-Verfahren auf Basis der Serologie sowie in drei Studien mit einem Test-and-Treat-Verfahren auf Basis des Stuhl-Antigen-Tests verglichen. Dabei ist das Atemtestverfahren dreimal kosteneffektiv gegenüber der serologischen Methode und wird von der Stuhl-Antigen-Test-Strategie einmal dominiert. Vier Studien beinhalten einen Vergleich der Test-and -Treat-Strategie auf Basis des 13C-Harnstoff-Atemtests mit einer empirischen antisekretorischen Therapie, wobei sich das Atemtesverfahren zweimal als kosteneffektive Prozedur erweist und zwei Studien einen Vergleich mit einer empirischen Eradikationstherapie. In fünf Studien wird das Test-and-Treat-Verfahren mittels 13C-Harnstoff-Atemtest einer endoskopiebasierten Strategie gegenübergestellt. Zweimal dominiert die Atemteststrategie die endoskopische Prozedur und einmal wird sie von dieser Strategie dominiert. Diskussion:Sowohl die medizinischen als auch die ökonomischen Studien weisen mehr oder minder gravierende Mängel auf und liefern heterogene Ergebnisse. So werden in der Mehrzahl der medizinischen Studien keine Angaben zur statistischen Signifikanz der berichteten Unterschiede zwischen den jeweiligen Testverfahren gemacht. Im direkten Vergleich weist der 13C-Harnstoff-Atemtest überwiegend eine höhere Testgüte als der IgG und der Stuhl-Antigen-Test auf. Aus den Vergleichen mit dem Urease-Schnelltest lassen sich keine Tendenzen bezüglich der Sensitivität ableiten, wohingegen die Spezifität des 13C-Harnstoff-Atemtests höher einzuschätzen ist. Für die Vergleiche des 13C-Harnstoff-Atemtest mit der Histologie, dem 14C-Harnstoff-Atemtest und der PCR liegen zu wenige Ergebnisse vor. In der eingeschlossenen ökonomischen Literatur deuten einige Studienergebnisse auf eine Kosten-Effektivität der Test-and-Treat-Strategie mittels 13C-Harnstoff-Atemtest gegenüber dem Test-and-Treat-Verfahren auf Basis der Serologie und der empirischen antiskretorischen Therapie hin. Um Tendenzen bezüglich der Kosten-Effektivität der Atemteststrategie gegenüber der Test-and-Treat-Strategie mittels Stuhl-Antigen-Test sowie der empirischen Eradikationstherapie abzuleiten, mangelt es an validen Ergebnissen bzw. ökonomischer Evidenz. Die Untersuchungsresultate hinsichtlich eines Vergleichs mit endoskopiebasierten Verfahren fallen diesbezüglich zu heterogen aus. Insgesamt kann keines der ökonomischen Modelle der Komplexität des Managements von Patienten mit dyspeptischen Beschwerden gänzlich gerecht werden. Schlussfolgerungen/Empfehlungen: Zusammenfassend ist festzuhalten, dass die Studienlage zur medizinischen und ökonomischen Beurteilung des 13C-Harnstoff-Atemtests im Vergleich zu anderen diagnostischen Methoden nicht ausreichend ist, um den Atemtest als primärdiagnostisches Standardverfahren im Rahmen einer Test-and-Treat-Strategie beim Management von Patienten mit dyspeptischen Beschwerden für die deutsche Versorgungslandschaft insbesondere vor dem Hintergrund der Leitlinien der Deutschen Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS) anstelle einer endoskopiebasierten Methode zu empfehlen.
Resumo:
L’incendio raramente è un fatto naturale, nasce pertanto dalla volontà o dalla negligenza dell’uomo: opera di mani quasi sempre sconosciute, per cui le comunicazioni di reato restano spesso correlate contro ignoti. Questo fa si che la diagnosi sulle cause, dolose e colpose, relative al singolo evento fornisca indicazioni utili sull’origine dell’incendio, tuttavia questo non incide sui comportamenti futuri, se non in termini di repressione e dissuasione, e soprattutto non mette a ‘fuoco’ le cause sociali interne ai sistemi locali e di contesto. Chiunque appicchi un fuoco può essere definibile come incendiario. I maggiori studi, nonché i più completi, nel campo del crimine collegato al fuoco sono stati svolti negli Stati Uniti, da unità speciali dell’FBI appositamente predisposte. Le osservazioni effettuate sulle attività criminali degli incendiari hanno evidenziato che quanto più è organizzata la scena dell’incendio e studiata la tecnica dell’innesco del fuoco, tanto più l’autore è razionale e finalizzato da propri interessi materiali.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.
Resumo:
Dans cette thèse, nous abordons le contrôle moteur du mouvement du coude à travers deux approches expérimentales : une première étude psychophysique a été effectuée chez les sujets humains, et une seconde implique des enregistrements neurophysiologiques chez le singe. Nous avons recensé plusieurs aspects non résolus jusqu’à présent dans l’apprentissage moteur, particulièrement concernant l’interférence survenant lors de l’adaptation à deux ou plusieurs champs de force anti-corrélés. Nous avons conçu un paradigme où des stimuli de couleur aident les sujets à prédire la nature du champ de force externe actuel avant qu’ils ne l’expérimentent physiquement durant des mouvements d’atteinte. Ces connaissances contextuelles faciliteraient l’adaptation à des champs de forces en diminuant l’interférence. Selon le modèle computationnel de l’apprentissage moteur MOSAIC (MOdular Selection And Identification model for Control), les stimuli de couleur aident les sujets à former « un modèle interne » de chaque champ de forces, à s’en rappeler et à faire la transition entre deux champs de force différents, sans interférence. Dans l’expérience psychophysique, quatre groupes de sujets humains ont exécuté des mouvements de flexion/extension du coude contre deux champs de forces. Chaque force visqueuse était associée à une couleur de l’écran de l’ordinateur et les deux forces étaient anti-corrélées : une force résistante (Vr) a été associée à la couleur rouge de l’écran et l’autre, assistante (Va), à la couleur verte de l’écran. Les deux premiers groupes de sujets étaient des groupes témoins : la couleur de l’écran changeait à chaque bloc de 4 essais, tandis que le champ de force ne changeait pas. Les sujets du groupe témoin Va ne rencontraient que la force assistante Va et les sujets du groupe témoin Vr performaient leurs mouvements uniquement contre une force résistante Vr. Ainsi, dans ces deux groupes témoins, les stimuli de couleur n’étaient pas pertinents pour adapter le mouvement et les sujets ne s’adaptaient qu’à une seule force (Va ou Vr). Dans les deux groupes expérimentaux, cependant, les sujets expérimentaient deux champs de forces différents dans les différents blocs d’essais (4 par bloc), associés à ces couleurs. Dans le premier groupe expérimental (groupe « indice certain », IC), la relation entre le champ de force et le stimulus (couleur de l’écran) était constante. La couleur rouge signalait toujours la force Vr tandis que la force Va était signalée par la couleur verte. L’adaptation aux deux forces anti-corrélées pour le groupe IC s’est avérée significative au cours des 10 jours d’entraînement et leurs mouvements étaient presque aussi bien ajustés que ceux des deux groupes témoins qui n’avaient expérimenté qu’une seule des deux forces. De plus, les sujets du groupe IC ont rapidement démontré des changements adaptatifs prédictifs dans leurs sorties motrices à chaque changement de couleur de l’écran, et ceci même durant leur première journée d’entraînement. Ceci démontre qu’ils pouvaient utiliser les stimuli de couleur afin de se rappeler de la commande motrice adéquate. Dans le deuxième groupe expérimental, la couleur de l’écran changeait régulièrement de vert à rouge à chaque transition de blocs d’essais, mais le changement des champs de forces était randomisé par rapport aux changements de couleur (groupe « indice-incertain », II). Ces sujets ont pris plus de temps à s’adapter aux champs de forces que les 3 autres groupes et ne pouvaient pas utiliser les stimuli de couleurs, qui n’étaient pas fiables puisque non systématiquement reliés aux champs de forces, pour faire des changements prédictifs dans leurs sorties motrices. Toutefois, tous les sujets de ce groupe ont développé une stratégie ingénieuse leur permettant d’émettre une réponse motrice « par défaut » afin de palper ou de sentir le type de la force qu’ils allaient rencontrer dans le premier essai de chaque bloc, à chaque changement de couleur. En effet, ils utilisaient la rétroaction proprioceptive liée à la nature du champ de force afin de prédire la sortie motrice appropriée pour les essais qui suivent, jusqu’au prochain changement de couleur d’écran qui signifiait la possibilité de changement de force. Cette stratégie était efficace puisque la force demeurait la même dans chaque bloc, pendant lequel la couleur de l’écran restait inchangée. Cette étude a démontré que les sujets du groupe II étaient capables d’utiliser les stimuli de couleur pour extraire des informations implicites et explicites nécessaires à la réalisation des mouvements, et qu’ils pouvaient utiliser ces informations pour diminuer l’interférence lors de l’adaptation aux forces anti-corrélées. Les résultats de cette première étude nous ont encouragés à étudier les mécanismes permettant aux sujets de se rappeler d’habiletés motrices multiples jumelées à des stimuli contextuels de couleur. Dans le cadre de notre deuxième étude, nos expériences ont été effectuées au niveau neuronal chez le singe. Notre but était alors d’élucider à quel point les neurones du cortex moteur primaire (M1) peuvent contribuer à la compensation d’un large éventail de différentes forces externes durant un mouvement de flexion/extension du coude. Par cette étude, nous avons testé l’hypothèse liée au modèle MOSAIC, selon laquelle il existe plusieurs modules contrôleurs dans le cervelet qui peuvent prédire chaque contexte et produire un signal de sortie motrice approprié pour un nombre restreint de conditions. Selon ce modèle, les neurones de M1 recevraient des entrées de la part de plusieurs contrôleurs cérébelleux spécialisés et montreraient ensuite une modulation appropriée de la réponse pour une large variété de conditions. Nous avons entraîné deux singes à adapter leurs mouvements de flexion/extension du coude dans le cadre de 5 champs de force différents : un champ nul ne présentant aucune perturbation, deux forces visqueuses anti-corrélées (assistante et résistante) qui dépendaient de la vitesse du mouvement et qui ressemblaient à celles utilisées dans notre étude psychophysique chez l’homme, une force élastique résistante qui dépendait de la position de l’articulation du coude et, finalement, un champ viscoélastique comportant une sommation linéaire de la force élastique et de la force visqueuse. Chaque champ de force était couplé à une couleur d’écran de l’ordinateur, donc nous avions un total de 5 couleurs différentes associées chacune à un champ de force (relation fixe). Les singes étaient bien adaptés aux 5 conditions de champs de forces et utilisaient les stimuli contextuels de couleur pour se rappeler de la sortie motrice appropriée au contexte de forces associé à chaque couleur, prédisant ainsi leur sortie motrice avant de sentir les effets du champ de force. Les enregistrements d’EMG ont permis d’éliminer la possibilité de co-contractions sous-tendant ces adaptations, étant donné que le patron des EMG était approprié pour compenser chaque condition de champ de force. En parallèle, les neurones de M1 ont montré des changements systématiques dans leurs activités, sur le plan unitaire et populationnel, dans chaque condition de champ de force, signalant les changements requis dans la direction, l’amplitude et le décours temporel de la sortie de force musculaire nécessaire pour compenser les 5 conditions de champs de force. Les changements dans le patron de réponse pour chaque champ de force étaient assez cohérents entre les divers neurones de M1, ce qui suggère que la plupart des neurones de M1 contribuent à la compensation de toutes les conditions de champs de force, conformément aux prédictions du modèle MOSAIC. Aussi, cette modulation de l’activité neuronale ne supporte pas l’hypothèse d’une organisation fortement modulaire de M1.
Resumo:
Gestiegene Erwartungen an die pädagogische und organisationsbezogene Qualität elementarpädagogischer Einrichtungen stellen neue Anforderungen an Personal und Organisationen in diesem Bildungssegment. Im Rahmen einer durch die Robert Bosch Stiftung Stuttgart geförderten Expertentagung wurden auf der Grundlage eines Diskussionspapiers verschiedene Modelle einer Organisationsentwicklung im Elementarbereich vorgestellt und diskutiert. Hierbei wurde deutlich, dass bislang keine unabhängigen und etablierten Modelle existieren. Die Expertinnen konnten sich in Form von Impulsreferaten oder nachträglich eingereichten Statements in den Prozess einbringen. Die Publikation dokumentiert sowohl die Recherche als auch den Diskussionsprozess. Zudem sind die Statements der Expertinnen und Experten einbezogen. Ziel ist es, das Thema schrittweise weiter zu bearbeiten und zunächst Best Practice Beispiele auszumachen und gemeinsam mit der Praxis ein passendes Modell der Organisationsentwicklung zu erarbeiten. Die Ergebnisse sollen didaktisch so aufbereitet werden, dass Sie in Form von Fallstudien in die Aus- und Weiterbildung einfließen können. (DIPF/Autorinnen)
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
Cette thèse examine l’interprétation et l’application, par l’Haute Cour d'Israël (HCJ), de principes du droit international de l’occupation et du droit international des droits de la personne dans le traitement de requêtes judiciaires formulées par des justiciables palestiniens. Elle s’intéresse plus particulièrement aux jugements rendus depuis le déclenchement de la deuxième Intifada (2000) suite à des requêtes mettant en cause la légalité des mesures adoptées par les autorités israéliennes au nom d’un besoin prétendu d’accroitre la sécurité des colonies et des colons israéliens dans le territoire occupé de la Cisjordanie. La première question sous étude concerne la mesure dans laquelle la Cour offre un recours effectif aux demandeurs palestiniens face aux violations alléguées de leurs droits internationaux par l’occupant. La recherche fait sienne la position de la HJC selon laquelle le droit de l’occupation est guidé par une logique interne tenant compte de la balance des intérêts en cause, en l’occurrence le besoin de sécurité de l’occupant, d’une part, et les droits fondamentaux de l’occupé, d’autre part. Elle considère, en outre, que cette logique se voit reflétée dans les principes normatifs constituant la base de ce corpus juridique, soit que l’occupation est par sa nature temporaire, que de l’occupation découle un rapport de fiduciaire et, finalement, que l’occupant n’acquiert point de souveraineté sur le territoire. Ainsi, la deuxième question qui est posée est de savoir si l’interprétation du droit par la Cour (HCJ) a eu pour effet de promouvoir ces principes normatifs ou, au contraire, de leur porter préjudice. La réunion de plusieurs facteurs, à savoir la durée prolongée de l’occupation de la Cisjordanie par Israël, la menace accrue à la sécurité depuis 2000 ainsi qu’une politique de colonisation israélienne active, soutenue par l’État, présentent un cas de figure unique pour vérifier l’hypothèse selon laquelle les tribunaux nationaux des États démocratiques, généralement, et ceux jouant le rôle de la plus haute instance judiciaire d’une puissance occupante, spécifiquement, parviennent à assurer la protection des droits et libertés fondamentaux et de la primauté du droit au niveau international. Le premier chapitre présente une étude, à la lumière du premier principe normatif énoncé ci-haut, des jugements rendus par la HCJ dans les dossiers contestant la légalité de la construction du mur à l’intérieur de la Cisjordanie et de la zone dite fermée (Seam Zone), ainsi que des zones de sécurité spéciales entourant les colonies. Le deuxième chapitre analyse, cette fois à la lumière du deuxième principe normatif, des jugements dans les dossiers mettant en cause des restrictions sur les déplacements imposées aux Palestiniens dans le but allégué de protéger la sécurité des colonies et/ou des colons. Le troisième chapitre jette un regard sur les jugements rendus dans les dossiers mettant en cause la légalité du tracé du mur à l’intérieur et sur le pourtour du territoire annexé de Jérusalem-Est. Les conclusions découlant de cette recherche se fondent sur des données tirées d’entrevues menées auprès d’avocats israéliens qui s’adressent régulièrement à la HCJ pour le compte de justiciables palestiniens.
Resumo:
[Es] wurden folgende Forschungsfragen entwickelt: (1) Welche Modelle aus den Bezugsdisziplinen der Umweltökonomie und Ökologischen Ökonomie haben hohe Bedeutung in den Fachwissenschaften und sind zugleich anschlussfähig an relevante erziehungswissenschaftliche Forschung sowie curriculare Vorgaben? Was sind Bestandteile dieser fachwissenschaftlichen Schlüsselmodelle, die für eine ökonomische Allgemeinbildung bedeutsam sind? (2) Welche unterschiedlichen Präkonzepte nutzen Studierende der ökonomischen Bildung, wenn sie mit typischen, allgemein verständlich formulierten Problemen aus der Fachwissenschaft konfrontiert werden? (3) Wie können die Erkenntnisse über die fachlichen Modelle und Präkonzepte zur Planung von Seminaren genutzt werden? … Der erste Teil der Arbeit beschäftigt sich mit der Auswahl und Aufarbeitung bedeutsamer Modelle aus den Wirtschaftswissenschaften … Dafür wird einleitend das der Arbeit zugrunde liegende Verständnis ökonomischer Bildung entwickelt … Anschließend werden erziehungswissenschaftliche Forschung sowie curriculare Vorgaben aufgearbeitet und zentrale Forschungsgebiete der Ökologischen Ökonomie und Umweltökonomie identifiziert. Auf dieser Grundlage werden zwei Schlüsselmodelle der relevanten Bezugsdisziplinen bestimmt, nämlich die ökonomische Bewertung und das Management von Ökosystemdienstleistungen (ÖSD) und umweltpolitische Instrumente. … In den Kapiteln 3 und 4 werden die beiden identifizierten Modelle inhaltlich entsprechend der Anforderungen des Literacy-Ansatzes detailliert aufgearbeitet. … Im zweiten Teil der Arbeit werden Präkonzepte, d. h. Vorstellungen, die bei Lernenden vor einem Bildungsprozess bestehen, zu Phänomenen erforscht, die anhand der beiden ausgewählten fachlichen Modelle (ökonomische Bewertung von ÖSD und umweltpolitische Instrumente) bearbeitet werden können. … Nach einer Beschreibung des phänomenographischen Forschungsansatzes werden die Untersuchungsgruppe, die Datenerhebung und -analyse beschrieben. … In den beiden anschließenden Kapiteln werden Lernendenvorstellungen analysiert, die in Beziehung zu den fachlichen Modellen stehen. In Kapitel 6 werden Vorstellungen der Lernenden zum Phänomen des Umgangs mit Ökosystemen, die auf unterschiedliche Weise genutzt werden können, beschrieben. Im Kapitel 7 geht es um das Phänomen der umweltpolitischen Maßnahmen und ihrer Bewertung. … Im Kapitel 8 werden Ergebnisse aus den vorherigen Kapiteln zusammengeführt und Vorschläge für die Gestaltung von Seminaren mit Studierenden der ökonomischen Bildung gemacht. Schließlich wird ein kurzer Ausblick auf weitere Forschungsmöglichkeiten gegeben. (DIPF/Orig.)
Resumo:
Otoliths are calcified structures located in Osteichthyes’ inner ear that are involved in audition and balance. Their morphology is used as an indicator of various ecological processes or properties. This application requires identifying the endogenous and exogenous factors that act simultaneously as sources of shape variation. This thesis aims at detecting and quantifying the relative contributions of directional asymmetry and diet to otolith shape variation at the intra-population level. Directional asymmetry between left and right otoliths was found in flat-fishes, the blind-side otolith being always longer and larger, whereas it was negligible in round-fishes. However, asymmetry amplitude never exceeded 18 %, which suggests evolutionary canalization of otolith shape symmetry. A correlation between global diet and otolith was detected in 4 species studied in situ. Diet composition contributed more than food amount to morphological variation and affected otolith shape both globally and locally. An experimental study on sea bass (Dicentrarchus larbrax) showed that diet composition in terms of essential polyunsaturated fatty acids at larval stage affects otolith morphogenesis during juvenile stage without impacting on individuals’ somatic growth. This result suggests a direct effect of diet on otolith shape and not an indirect one through the somatic-otolith growth relationship. This effect disappeared at later stages, morphogenetic trajectories converging back to a similar shape, which suggests ontogenetic canalization of otolith shape.
Resumo:
Il est bien connu que littérature et musique entretiennent des liens étroits. Cependant, leur étude n'est pas chose aisée, notamment en raison de l'absence d'un consensus théorique. Notre but est d'étudier l'un des aspects de ces liens, à savoir les mises en musique de poèmes. Ce mémoire comprend deux volets. Le premier, à visée encyclopédique, tente de fournir un catalogue le plus exhaustif possible des mises en musique de « L'Invitation au voyage », avec toutes les informations philologiques nécessaires à de futures utilisations. Le second volet, à visée analytique, cherche à mettre en évidence les caractéristiques d'une œuvre poético-musicale, tant dans son élaboration que dans sa réception ou sa structure interne. Pour ce faire, nous faisons appel à des théories issues de plusieurs disciplines, telles que l'histoire littéraire et musicale, la linguistique, la sémiologie, la poétique, l'analyse musicale et les sciences cognitives. Parmi nos constatations, il ressort que les œuvres poético-musicales, si elles possèdent des points communs non négligeables avec les œuvres poétiques et les œuvres musicales pures, ne sauraient néanmoins être amalgamées avec celles-ci, et nécessitent dès lors un traitement tout à fait particulier.