1000 resultados para Intégration sensori-motrice
Resumo:
Les techniques utilisant la chaise vide ou le dialogue sur deux chaises sont des moyens qui permettent le déploiement de techniques expérientielles dans différentes formes de psychothérapie. Cet article vise à retracer l'origine de ces techniques dans les courants Gestalt et centré sur la personne, pour ensuite présenter quelques développements actuels au sein des thérapies expérientielles au sens large. Les techniques présentées sont classées selon leur finalité primordiale, à savoir : leur utilisation dans le but de clarifier et de construire du sens et leur utilisation dans le but de modifier des déterminants internes du problème. Les techniques suivantes sont brièvement présentées, illustrées par des vignettes cliniques et discutées : élaboration du conflit interne ; élaboration de l'auto-interruption ; élaboration d'un conflit avec une personne significative ; dialogue d'apaisement ; éléments cognitifs du jeu de rôle avec une seule personne ; éléments affectifs du jeu de rôle avec une seule personne. Nous discutons les travaux de recherche mettant en évidence l'efficacité et l'effectivité de ces techniques et terminons par des réflexions au sujet de l'indication différentielle de ces techniques, avec une réflexion au sujet des perspectives cliniques et de recherche. © 2013 Publié par Elsevier Masson SAS pour la Société française de psychologie.
Resumo:
Introduction : Le syndrome de Brugada, décrit en 1992 par Pedro et Josep Brugada, est un syndrome cardiaque caractérisé par un sus-décalage particulier du segment ST associé à un bloc de branche droit atypique au niveau des dérivations ECG V1 à V3. Les altérations ECG du syndrome de Brugada sont classifiées en 3 types dont seul le type 1 est diagnostique. Les mécanismes physiopathologiques exacts de ce syndrome sont pour le moment encore controversés. Plusieurs hypothèses sont proposées dans la littérature dont deux principales retiennent l'attention : 1) le modèle du trouble de repolarisation stipule des potentiels d'action réduits en durée et en amplitude liés à un changement de répartition de canaux potassiques 2) le modèle du trouble de dépolarisation spécifie un retard de conduction se traduisant par une dépolarisation retardée. Dans le STEMI, un sus-décalage ST ressemblant à celui du syndrome de Brugada est expliqué par deux théories : 1) le courant de lésion diastolique suggère une élévation du potentiel diastolique transformé artificiellement en sus-décalage ST par les filtres utilisés dans tous les appareils ECG.¦Objectif : Recréer les manifestations ECG du syndrome de Brugada en appliquant les modifications du potentiel d'action des cardiomyocytes rapportées dans la littérature.¦Méthode : Pour ce travail, nous avons utilisé "ECGsim", un simulateur informatique réaliste d'ECG disponible gratuitement sur www.ecgsim.org. Ce programme est basé sur une reconstruction de l'ECG de surface à l'aide de 1500 noeuds représentant chacun les potentiels d'action des ventricules droit et gauche, épicardiques et endocardiques. L'ECG simulé peut être donc vu comme l'intégration de l'ensemble de ces potentiels d'action en tenant compte des propriétés de conductivité des tissus s'interposant entre les électrodes de surface et le coeur. Dans ce programme, nous avons définit trois zones, de taille différente, comprenant la chambre de chasse du ventricule droit. Pour chaque zone, nous avons reproduit les modifications des potentiels d'action citées dans les modèles du trouble de repolarisation et de dépolarisation et des théories de courant de lésion systolique et diastolique. Nous avons utilisé, en plus des douze dérivations habituelles, une électrode positionnée en V2IC3 (i.e. 3ème espace intercostal) sur le thorax virtuel du programme ECGsim.¦Résultats : Pour des raisons techniques, le modèle du trouble de repolarisation n'a pas pu être entièrement réalisée dans ce travail. Le modèle du trouble de dépolarisation ne reproduit pas d'altération de type Brugada mais un bloc de branche droit plus ou moins complet. Le courant de lésion diastolique permet d'obtenir un sus-décalage ST en augmentant le potentiel diastolique épicardique des cardiomyocytes de la chambre de chasse du ventricule droit. Une inversion de l'onde T apparaît lorsque la durée du potentiel d'action est prolongée. L'amplitude du sus-décalage ST dépend de la valeur du potentiel diastolique, de la taille de la lésion et de sa localisation épicardique ou transmurale. Le courant de lésion systolique n'entraîne pas de sus-décalage ST mais accentue l'amplitude de l'onde T.¦Discussion et conclusion : Dans ce travail, l'élévation du potentiel diastolique avec un prolongement de la durée du potentiel d'action est la combinaison qui reproduit le mieux les altérations ECG du Brugada. Une persistance de cellules de type nodal au niveau de la chambre de chasse du ventricule droit pourrait être une explication à ces modifications particulières du potentiel d'action. Le risque d'arythmie dans la Brugada pourrait également être expliqué par une automaticité anormale des cellules de type nodal. Ainsi, des altérations des mécanismes cellulaires impliqués dans le maintien du potentiel diastolique pourraient être présentes dans le syndrome de Brugada, ce qui, à notre connaissance, n'a jamais été rapporté dans la littérature.
Resumo:
Rapport de synthèse : DEVENIR NEURO-DEVELOPPEMENTAL DE NOUVEAU-NES TRAITES PAR DU SULFATE DE MAGNESIUM POUR UNE HYPERTENSION PULMONAIRE PERSISTANTE L'hypertension pulmonaire persistante du nouveau-né (HTPP) est un trouble de l'adaptation post-natale de la circulation pulmonaire caractérisé par une défaillance de la diminution normale des résistances vasculaires pulmonaires, accompagné d'un shunt droite-gauche, résultant en une hypoxémie profonde. C'est une pathologie sévère nécessitant des soins intensifs avec un risque augmenté de handicaps neurologiques chez les survivants. Le traitement de l'HTPP du nouveau-né inclut une ventilation mécanique ainsi que différents agents pharmacologiques pour dilater les vaisseaux pulmonaires, dont le sulfate de magnésium (MgSO4) à hautes doses par voie intraveineuse et le monoxyde d'azote par voie inhalée (iN0). Le MgSO4 est une alternative thérapeutique de l'HTPP du nouveau-né avec peu d'effets secondaires et une mortalité basse. Il a aussi été démontré que le MgSO4 est un traitement de l'HTPP du nouveau-né autant efficace que le iN0 et moins coüteux. Des études sur le suivi neuro-développemental de nouveau-nés avec HTPP traités selon différentes méthodes ont été publiées reportant des taux élevés de handicaps majeurs et mineurs. Plus récemment, des études de suivi après traitement par iN0 ont montré des taux plus bas qu'avec des traitements antérieurs. Le devenir neuro-développemental àlong terme d'enfants traités avec du MgSO4 n'a pas été documenté. Le but de cette étude est de décrire le développement des enfants qui ont présenté une HTPP traitée seulement avec du MgS04, de reporter l'incidence de handicaps majeurs et mineurs, et de les comparer à un groupe contrôle d'enfants sains du même âge ainsi qu'aux données de la littérature. La population consiste en 33 nouveau-nés traités pour une HTPP avec seulement du MgSO4 (groupe étude) et 32 nouveau-nés à terme sains (groupe contrôle). Un suivi neurodéveloppemental standardisé et approfondi a été effectué aux âges clés de 18 mois et 5 ans. Les taux de handicaps majeurs à 18 mois et 5 ans dans le groupe étude étaient de 6% et 11,4% respectivement, et de 0% aux deux âges dans le groupe contrôle. Les taux de handicaps mineurs aux mêmes âges étaient de 3% et 26,9% pour le groupe étude, et de 0% et 26,1% pour le groupe contrôle. Les quotients développementaux moyens à 18 mois étaient de 106,6 (DS 1,6) dans le groupe étude et de 118,3 (DS 1,0) dans le groupe contrôle (P < 0,001). L'index général intellectuel en âge préscolaire était de 112.6 (DS 3.7), respectivement de 119.3 (DS 3.1 ), sans différence significative entre les deux groupes. A 18 mois, les taux de handicaps majeurs et mineurs dans les groupes études et contrôle étaient de 6% et 3%. Dans la littérature, des taux entre 0% et 33% ont été décrits. A cet âge, il y avait une différence significative pour tous les scores du test de Griffiths, mëme en tenant compte du status socio-économique de la famille. Ceci suggère un léger retard du développement global et non une altération spécifique. Ces différences n'étaient plus significatives en âge préscolaire, suggérant un rattrapage développemental. Le taux de handicaps majeurs en âge préscolaire pour le groupe étude était de 11.5%, sans aucune infirmité motrice cérébrale. Ces résultats correspondent à ceux d'études de suivi après d'autres traitements jusqu'à l'âge de 24 mois avec des taux variant de 0% à 15%. Le taux de handicaps mineurs était de 26.9% dans le groupe étude et de 26.1% dans le groupe contrôle, sans différence significative entre les deux groupes. L'incidence de handicaps mineurs dans le groupe étude était plutôt élevée en comparaison aux données de la littérature (6 à 22% à 6 ans). Une explication possible est que nous avons considéré des problèmes de langage et de comportement comme handicaps mineurs. Ceci suggère une différence méthodologique et non une plus mauvaise issue dans nos deux groupes. Les évaluations cognitives des enfants des deux groupes se trouvaient dans la norme, ce qui est aussi le cas dans la littérature. En conclusion, cette étude longitudinale non randomisée d'enfants traités avec du MgSO4 seul pour une HTPP sévère ne montre pas de conséquences sur le devenir neuro-développemental à long terme. Cette étude le démontre pour la première fois. Malgré le fait que iN0 soit le traitement actuellement recommandé pour l'HTPP du nopuveau-né, le MgSO4 reste largement utilisé, en particulier dans des pays en voie de développement. L'absence de complications neuro-développementales majeures à long terme permet de considérer l'administration du MgSO4 pour le traitement de l'HTPP du nouveau-né en cas de non réponse ou d'inaccessibilité au iNO.
Resumo:
Recently, the introduction of second generation sequencing and further advance-ments in confocal microscopy have enabled system-level studies for the functional characterization of genes. The degree of complexity intrinsic to these approaches needs the development of bioinformatics methodologies and computational models for extracting meaningful biological knowledge from the enormous amount of experi¬mental data which is continuously generated. This PhD thesis presents several novel bioinformatics methods and computational models to address specific biological questions in Plant Biology by using the plant Arabidopsis thaliana as a model system. First, a spatio-temporal qualitative analysis of quantitative transcript and protein profiles is applied to show the role of the BREVIS RADIX (BRX) protein in the auxin- cytokinin crosstalk for root meristem growth. Core of this PhD work is the functional characterization of the interplay between the BRX protein and the plant hormone auxin in the root meristem by using a computational model based on experimental evidence. Hyphotesis generated by the modelled to the discovery of a differential endocytosis pattern in the root meristem that splits the auxin transcriptional response via the plasma membrane to nucleus partitioning of BRX. This positional information system creates an auxin transcriptional pattern that deviates from the canonical auxin response and is necessary to sustain the expression of a subset of BRX-dependent auxin-responsive genes to drive root meristem growth. In the second part of this PhD thesis, we characterized the genome-wide impact of large scale deletions on four divergent Arabidopsis natural strains, through the integration of Ultra-High Throughput Sequencing data with data from genomic hybridizations on tiling arrays. Analysis of the identified deletions revealed a considerable portion of protein coding genes affected and supported a history of genomic rearrangements shaped by evolution. In the last part of the thesis, we showed that VIP3 gene in Arabidopsis has an evo-lutionary conserved role in the 3' to 5' mRNA degradation machinery, by applying a novel approach for the analysis of mRNA-Seq data from random-primed mRNA. Altogether, this PhD research contains major advancements in the study of natural genomic variation in plants and in the application of computational morphodynamics models for the functional characterization of biological pathways essential for the plant. - Récemment, l'introduction du séquençage de seconde génération et les avancées dans la microscopie confocale ont permis des études à l'échelle des différents systèmes cellulaires pour la caractérisation fonctionnelle de gènes. Le degrés de complexité intrinsèque à ces approches ont requis le développement de méthodologies bioinformatiques et de modèles mathématiques afin d'extraire de la masse de données expérimentale générée, des information biologiques significatives. Ce doctorat présente à la fois des méthodes bioinformatiques originales et des modèles mathématiques pour répondre à certaines questions spécifiques de Biologie Végétale en utilisant la plante Arabidopsis thaliana comme modèle. Premièrement, une analyse qualitative spatio-temporelle de profiles quantitatifs de transcripts et de protéines est utilisée pour montrer le rôle de la protéine BREVIS RADIX (BRX) dans le dialogue entre l'auxine et les cytokinines, des phytohormones, dans la croissance du méristème racinaire. Le noyau de ce travail de thèse est la caractérisation fonctionnelle de l'interaction entre la protéine BRX et la phytohormone auxine dans le méristème de la racine en utilisant des modèles informatiques basés sur des preuves expérimentales. Les hypothèses produites par le modèle ont mené à la découverte d'un schéma différentiel d'endocytose dans le méristème racinaire qui divise la réponse transcriptionnelle à l'auxine par le partitionnement de BRX de la membrane plasmique au noyau de la cellule. Cette information positionnelle crée une réponse transcriptionnelle à l'auxine qui dévie de la réponse canonique à l'auxine et est nécessaire pour soutenir l'expression d'un sous ensemble de gènes répondant à l'auxine et dépendant de BRX pour conduire la croissance du méristème. Dans la seconde partie de cette thèse de doctorat, nous avons caractérisé l'impact sur l'ensemble du génome des délétions à grande échelle sur quatre souches divergentes naturelles d'Arabidopsis, à travers l'intégration du séquençage à ultra-haut-débit avec l'hybridation génomique sur puces ADN. L'analyse des délétions identifiées a révélé qu'une proportion considérable de gènes codant était affectée, supportant l'idée d'un historique de réarrangement génomique modelé durant l'évolution. Dans la dernière partie de cette thèse, nous avons montré que le gène VÏP3 dans Arabidopsis a conservé un rôle évolutif dans la machinerie de dégradation des ARNm dans le sens 3' à 5', en appliquant une nouvelle approche pour l'analyse des données de séquençage d'ARNm issue de transcripts amplifiés aléatoirement. Dans son ensemble, cette recherche de doctorat contient des avancées majeures dans l'étude des variations génomiques naturelles des plantes et dans l'application de modèles morphodynamiques informatiques pour la caractérisation de réseaux biologiques essentiels à la plante. - Le développement des plantes est écrit dans leurs codes génétiques. Pour comprendre comment les plantes sont capables de s'adapter aux changements environnementaux, il est essentiel d'étudier comment leurs gènes gouvernent leur formation. Plus nous essayons de comprendre le fonctionnement d'une plante, plus nous réalisons la complexité des mécanismes biologiques, à tel point que l'utilisation d'outils et de modèles mathématiques devient indispensable. Dans ce travail, avec l'utilisation de la plante modèle Arabidopsis thalicinci nous avons résolu des problèmes biologiques spécifiques à travers le développement et l'application de méthodes informatiques concrètes. Dans un premier temps, nous avons investigué comment le gène BREVIS RADIX (BRX) régule le développement de la racine en contrôlant la réponse à deux hormones : l'auxine et la cytokinine. Nous avons employé une analyse statistique sur des mesures quantitatives de transcripts et de produits de gènes afin de démontrer que BRX joue un rôle antagonisant dans le dialogue entre ces deux hormones. Lorsque ce-dialogue moléculaire est perturbé, la racine primaire voit sa longueur dramatiquement réduite. Pour comprendre comment BRX répond à l'auxine, nous avons développé un modèle informatique basé sur des résultats expérimentaux. Les simulations successives ont mené à la découverte d'un signal positionnel qui contrôle la réponse de la racine à l'auxine par la régulation du mouvement intracellulaire de BRX. Dans la seconde partie de cette thèse, nous avons analysé le génome entier de quatre souches naturelles d'Arabidopsis et nous avons trouvé qu'une grande partie de leurs gènes étaient manquant par rapport à la souche de référence. Ce résultat indique que l'historique des modifications génomiques conduites par l'évolution détermine une disponibilité différentielle des gènes fonctionnels dans ces plantes. Dans la dernière partie de ce travail, nous avons analysé les données du transcriptome de la plante où le gène VIP3 était non fonctionnel. Ceci nous a permis de découvrir le rôle double de VIP3 dans la régulation de l'initiation de la transcription et dans la dégradation des transcripts. Ce rôle double n'avait jusqu'alors été démontrée que chez l'homme. Ce travail de doctorat supporte le développement et l'application de méthodologies informatiques comme outils inestimables pour résoudre la complexité des problèmes biologiques dans la recherche végétale. L'intégration de la biologie végétale et l'informatique est devenue de plus en plus importante pour l'avancée de nos connaissances sur le fonctionnement et le développement des plantes.
Resumo:
Rapport de synthèse Introduction : Le Glasgow coma score (GCS) est un outil reconnu permettant l'évaluation des patients après avoir subi un traumatisme crânien. Il est réputé pour sa simplicité et sa reproductibilité permettant ainsi aux soignants une évaluation appropriée et continue du status neurologique des patients. Le GCS est composé de trois catégories évaluant la réponse oculaire, verbale et motrice. En Suisse, les soins préhospitaliers aux patients victimes d'un trauma crânien sévère sont effectués par des médecins, essdntiellement à bord des hélicoptères médicalisés. Avant une anesthésie générale nécessaire à ces patients, une évaluation du GCS est essentielle indiquant au personnel hospitalier la gravité des lésions cérébrales. Afin d'évaluer la connaissance du GCS par les médecins à bord des hélicoptères médicalisés en Suisse, nous avons élaboré un questionnaire, contenant dans une première partie des questions sur les connaissances générales du GCS suivi d'un cas clinique. Objectif : Evaluation des connaissances pratiques et théoriques du GCS par les médecins travaillant à bord des hélicoptères médicalisés en Suisse. Méthode : Etude observationnelle prospective et anonymisée à l'aide d'un questionnaire. Evaluation des connaissances générales du GCS et de son utilisation clinique lors de la présentation d'un cas. Résultats : 16 des 18 bases d'hélicoptères médicalisés suisses ont participé à notre étude. 130 questionnaires ont été envoyés et le taux de réponse a été de 79.2%. Les connaissances théoriques du GCS étaient comparables pour tous les médecins indépendamment de leur niveau de formation. Des erreurs dans l'appréciation du cas clinique étaient présentes chez 36.9% des participants. 27.2% ont commis des erreurs dans le score moteur et 18.5% dans le score verbal. Les erreurs ont été répertoriées le plus fréquemment chez les médecins assistants (47.5%, p=0.09), suivi par les chefs de clinique (31.6%, p=0.67) et les médecins installés en cabinet (18.4%, p=1.00). Les médecins cadres ont fait significativement moins d'erreurs que les autres participants (0%, p<0.05). Aucune différence significative n'à été observée entre les différentes spécialités (anesthésie, médecine interne, médecine général et «autres »). Conclusion Même si les connaissances théoriques du GCS sont adéquates parmi les médecins travaillant à bord des hélicoptères médicalisés, des erreurs dans son application clinique sont présentes dans plus d'un tiers des cas. Les médecins avec le moins d'expériences professionnelle font le plus d'erreurs. Au vu de l'importance de l'évaluation correcte du score de Glasgow initial, une amélioration des connaissances est indispensable.
Resumo:
Parmi les personnages de la Bible hébraïque, Abraham occupe une place privilégiée. Avec Moïse il est en quelque sorte le fondateur du judaïsme. Contrairement à Moïse, Abraham est devenu l'ancêtre commun des trois religions monothéistes : judaïsme, christianisme, islam. Ce patriarche semble jouir d'un incontestable pouvoir d'intégration, puisque des courants théologiques différents peuvent se reconnaître en lui. Il existe donc plusieurs lectures possibles de la figure de cet ancêtre. Le fondement de toutes ces lectures, à savoir le cycle d'Abraham, qui se trouve dans le livre de la Genèse (Gn 11,27-25,18), contient lui-même déjà une diversité de vues et de représentations du patriarche.
Resumo:
Dernière étape avant le monde professionnel, un cursus de spécialisation est un lieu de discussion, au carrefour des savoirs et des savoir-faire, permettant aux étudiants d'envisager sous un angle nouveau les contenus enseignés à l'université. Il ne s'agit plus seulement d'acquérir des connaissances mais aussi de développer des compétences transférables à d'autres types d'activité. L'équipe en charge de la spécialisation en Analyse du discours et de la communication publics proposée par la Faculté des Lettres de l'Université de Lausanne a oeuvré à l'intégration d'un nouvel outil informatique, le e-Portfolio, destiné à faciliter l'expression et la documentation des compétences individuelles développées par l'étudiant lors de son parcours de formation.
Resumo:
La détection des traces pertinentes, pas toujours visibles, est le défi auquel le scientifique qui examine un champ d'investigation est systématiquement confronté : il cherche parfois des quantités infimes de matière qui dessinent des crêtes papillaires ou qui lui permettront d'extraire un profil d'ADN. Il cible ses recherches lorsque sur le lieu d'un incendie, l'odeur peut le diriger vers les restes d'un produit inflammable, lorsqu'il extrait des traces numériques pertinentes de gigantesques quantités d'informations ou lorsqu'il teste spécifiquement si une personne a consommé un produit. Le projet d'augmenter simultanément la capacité de détecter la présence de traces latentes et de reconnaître ce qui peut le mieux expliquer une présence ou une action combine nécessairement à la fois le développement de nouvelles techniques et leur intégration dans une approche globale du champ d'investigation dont les fondements sont encore à consolider.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Cette thèse de doctorat propose une analyse comparative détaillée du phénomène de l'enchâssement narratif dans deux textes antiques du IIe s. apr. J.-C. : Leucippé et Clitophon d'Achille Tatius, écrit en grec ancien, et les Métamorphoses d'Apulée, en latin. Ces deux oeuvres sont rattachées par la critique moderne à un genre désigné comme le roman antique.Si le corpus est abordé de façon minutieuse, ce travail n'a pas la forme du commentaire philologique traditionnel, mais d'une nouvelle forme de commentaire, inspirée du Narratological Commentary de VOdyssée par Irene de Jong. L'analyse est sous-tendue par divers mouvements de synthèse et de comparaison ; cela est fait en recourant à diverses méthodes provenant de différents domaines de recherche : philologie grecque et latine, rhétorique antique, narratologie moderne et comparaison différentielle, telle que proposée par Ute Heidmann, qui défend une approche des textes non-hiérarchisante, focalisée autant sur les ressemblances que les dissemblances et les différences entre les textes étudiés.A la croisée de ces différents domaines de recherche, la thèse tente d'offrir de nouveaux apports. Sur le plan philologique, cette étude comparative de l'enchâssement dans deux textes antiques porte l'attention sur des voix et des récits qui étaient encore restés « in-ouïs » par la critique ; en ce sens qu'ils n'avaient pas encore été tous étudiés. Appliquant une comparaison non-hiérarchisante et différentielle, cette thèse va à l'encontre de deux opinions communes en philologie classique. Elle nuance l'idée générale d'une séparation étanche entre roman grec et roman latin, ainsi que l'idée reçue selon laquelle le dialogue entre la culture grecque et latine serait unilatéral, allant seulement du grec au latin et non pas aussi vice-versa. En ce qui concerne la critique sur l'enchâssement en philologie classique et plus concrètement dans les travaux sur le roman antique, l'apport de cette thèse peut être résumé par les termes « contextualisant » et « englobant ». Le contexte culturel de la Seconde Sophistique, mouvement fortement marqyé par la performance, l'oralité et la rhétorique, est pris en compte en prenant appui, en particulier, sur les traités d'art oratoire et les exercices de rhétorique. Si l'importance de ces derniers a été récemment reconnue et leur intérêt renouvelé par la critique, un rapprochement explicite avec le phénomène de l'enchâssement n'avait pas encore été effectué. Par ailleurs, l'étude du récit enchâssé dans deux romans antiques est ici, pour la première fois, effectuée dans son intégralité, en vue de mieux comprendre le procédé de l'enchâssement au sein des oeuvres étudiées, mais aussi en tant que phénomène à part entière.Sur le plan narratologique, la prise en considération de tous les récits enchâssés a permis de proposer l'ébauche d'une « grammaire de l'enchâssement narratif », applicable aussi à d'autres textes. Pour ce faire, le dispositif conceptuel proposé, entre autres, par Genette a été étendu et affiné. Les notions de récit et d'histoire ont également été élargies. Considérant l'histoire comme tout contenu comportant des séquences logico-temporelles, la narrativité a été étendue à tout discours portant sur cette histoire, ce qui a permis d'intégrer dans l'étude des rêves, oracles, plans, lamentations aussi bien que des actes comme les menaces, promesses, reproches, et même les énumérations et descriptions.Soulignant le dialogue entre la culture grecque et latine, la comparaison menée dans ce travail peut être qualifiée d'interculturelle et d'interdisciplinaire, en raison de l'intégration dialogique des philologies grecque et latine, de la narratologie et de la rhétorique.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Pendant ma thèse de doctorat, j'ai utilisé des espèces modèles, comme la souris et le poisson-zèbre, pour étudier les facteurs qui affectent l'évolution des gènes et leur expression. Plus précisément, j'ai montré que l'anatomie et le développement sont des facteurs clés à prendre en compte, car ils influencent la vitesse d'évolution de la séquence des gènes, l'impact sur eux de mutations (i.e. la délétion du gène est-elle létale ?), et leur tendance à se dupliquer. Où et quand il est exprimé impose à un gène certaines contraintes ou au contraire lui donne des opportunités d'évoluer. J'ai pu comparer ces tendances aux modèles classiques d'évolution de la morphologie, que l'on pensait auparavant refléter directement les contraintes s'appliquant sur le génome. Nous avons montré que les contraintes entre ces deux niveaux d'organisation ne peuvent pas être transférées simplement : il n'y a pas de lien direct entre la conservation du génotype et celle de phénotypes comme la morphologie. Ce travail a été possible grâce au développement d'outils bioinformatiques. Notamment, j'ai travaillé sur le développement de la base de données Bgee, qui a pour but de comparer l'expression des gènes entre différentes espèces de manière automatique et à large échelle. Cela implique une formalisation de l'anatomie, du développement et de concepts liés à l'homologie grâce à l'utilisation d'ontologies. Une intégration cohérente de données d'expression hétérogènes (puces à ADN, marqueurs de séquence exprimée, hybridations in situ) a aussi été nécessaire. Cette base de données est mise à jour régulièrement et disponible librement. Elle devrait contribuer à étendre les possibilités de comparaison de l'expression des gènes entre espèces pour des études d'évo-devo (évolution du développement) et de génomique. During my PhD, I used model species of vertebrates, such as mouse and zebrafish, to study factors affecting the evolution of genes and their expression. More precisely I have shown that anatomy and development are key factors to take into account, influencing the rate of gene sequence evolution, the impact of mutations (i.e. is the deletion of a gene lethal?), and the propensity of a gene to duplicate. Where and when genes are expressed imposes constraints, or on the contrary leaves them some opportunity to evolve. We analyzed these patterns in relation to classical models of morphological evolution in vertebrates, which were previously thought to directly reflect constraints on the genomes. We showed that the patterns of evolution at these two levels of organization do not translate smoothly: there is no direct link between the conservation of genotype and phenotypes such as morphology. This work was made possible by the development of bioinformatics tools. Notably, I worked on the development of the database Bgee, which aims at comparing gene expression between different species in an automated and large-scale way. This involves the formalization of anatomy, development, and concepts related to homology, through the use of ontologies. A coherent integration of heterogeneous expression data (microarray, expressed sequence tags, in situ hybridizations) is also required. This database is regularly updated and freely available. It should contribute to extend the possibilities for comparison of gene expression between species in evo-devo and genomics studies.
Resumo:
Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.