995 resultados para Géométrie--Étude et enseignement (Primaire)--Méthodes actives
Resumo:
Question de recherche : Est-ce que la limite de taille de 7 mm d'un anévrisme intracrânien non rompu¦proposée par les études internationales est un critère valable de sélection entre un traitement¦conservateur (observation périodique) ou une intervention curative sur la population du CHUV ?¦Contexte : On estime actuellement la fréquence des anévrismes intracrâniens à 0.2-9% dans la¦population générale. Le taux d'hémorragie sous-arachnoïdienne due à une rupture d'anévrisme est¦estimé à 6-16 pour 100'000 personnes.¦Selon les investigateurs de l'International Study of Unruptured Intracranial Aneurysms (ISUIA, 2003),¦le taux cumulé de rupture à 5 ans pour les anévrismes de moins de 7 mm de diamètre est de 0.05% ou¦2.5% selon que l'anévrisme se situe sur une artère de la circulation cérébrale antérieure ou postérieure,¦respectivement.¦Ces chiffres sont fortement controversés. En effet, d'autres études montrent que le risque de rupture des¦anévrismes inférieurs à 7 mm de diamètre est bien plus important que ne le laisse supposer l'étude¦ISUIA.¦Objectifs : L'objectif de ce travail de maîtrise vise à déterminer si la limite de taille de 7 mm d'un¦anévrisme cérébral non rompu proposé par certaines études internationales (et notamment l'étude¦ISUIA) est un critère valable pour sélectionner entre une observation périodique ou une intervention¦curative (chirurgicale ou endovasculaire) des patients.¦Un corollaire qui découle de cette question est de savoir s'il est justifié de traiter d'emblée un¦anévrisme cérébral non rompu mesurant moins de 7 mm.¦Matériel et Méthodes : Etude rétrospective observationnelle basée sur des données provenant des¦dossiers médicaux des patients admis aux urgences du CHUV avec une hémorragie sousarachnoïdienne¦due à la rupture d'un anévrisme intracrânien pendant une période allant de juin 2005 à¦avril 2011.¦Différents paramètres sont pris en considération : l'âge et le sexe du patient, la taille, la localisation et le¦nombre d'anévrismes, les facteurs de risque de rupture comme le tabac, l'hypertension artérielle et la¦consommation d'alcool, ainsi que les antécédents et l'histoire familiale de rupture d'anévrisme.¦Le critère de jugement principal est la taille de l'anévrisme, suivi par sa localisation.¦Les critères d'exclusion des patients sont les suivants : anévrismes mycotique, fusiforme ou¦traumatique, tumeur cérébrale maligne.¦Résultats escomptés : Avec ce travail, une nouvelle limite de diamètre anévrismal pourrait être¦proposée, en tenant compte des différents paramètres analysés sur un échantillon de la population¦locale. Les résultats pourraient apporter plus de précisions dans le bilan du risque d'une rupture¦anévrismale. Ainsi, la décision d'une intervention bénéficierait d'une base de réflexion nouvelle pour¦les anévrismes non rompus de petite taille.¦Plus-value escomptée : Cette étude pourrait contribuer à améliorer le pronostic des patients porteurs¦d'anévrisme(s) intracrânien(s). Elle permettrait en effet d'intervenir en cas d'anévrismes intracrâniens¦non rompus de taille inférieure à 7 mm, avant que ceux-ci ne se rompent et provoquent une hémorragie¦sous-arachnoïdienne.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Summary: Victims of crime are not only physical persons. Firms also experience some different forms of victimization either from outsiders or front employees. Crimes committed inside the firm are various: theft, embezzlement, fraud, fraudulent management, money laundering, vandalism etc. Assessed damage could be considerable. But in general, most of the criminological studies relating to victimization have been interested in individuals as victims. In Switzerland, to date, research on firms'victimization is simply rare and traditional research methods such as victimization survey, self-reported delinquency or controlled experiments are not very much utilized in Swiss white-collar crime studies. Thus, in order to improve the situation, we have decided to start a victimization study on white-collar crime committed in firms of the canton of Geneva. To narrow the field of research, our project seeks to apprehend white-collar crime as a series of offences committed by employees inside the firm, by fraud or deceit, aiming at an illegitimate enrichment. The phenomenon of white-collar crime perpetrated has been evaluated by examining the presence of risk factors and prevention strategies. Furthermore, the correlation between the victimization rate and some aspects of vulnerability has also been investigated. Using data collected from the victimization survey carried out in 2005, some of the key research questions are the following: - which are the types of offences committed? - Which types of measure of prevention are the most efficient to prevent such offences ? - Which type of business is more vulnerable? - Which are the risk factors? - Which is the profile of the authors? - Which are the motivations?, etc. Findings show that companies which valorize their employees and pursue a transparent management style suffer a lower victimization rate. Further, the retail sector seems to be more affected than the financial sector and big firms are more vulnerable.
Resumo:
PURPOSE: to evaluate the efficacy and the safety of low dose intraocular tissue plasminogen activator (rt-PA) in the treatment of traumatic hyphema and postoperative fibrinous membrane. METHODS: Six microg to 10 microg of rt-PA was injected into the anterior chamber to treat severe fibrinous postoperative membranes and total traumatic hyphemae. RESULTS: Thirteen eyes of 13 patients were treated. Four cases of traumatic hyphema and 9 cases of fibrinous membranes were included. Complete fibrinolysis within 24 hours was observed in 4 cases (30.8%). A partial success was noted in 7 eyes (53.8%). No beneficial effect was observed in two cases of traumatic hyphema associated with intravitreal hemorrhage after penetrating trauma. No side effect attributable to rt-PA occurred. CONCLUSION: Low dose intraocular rt-PA appears to be safe and effective in the treatment of postoperative fibrinous membrane and endocular hemorrhage limited to the anterior chamber.
Resumo:
Le décalage entre la sacralisation du principe du développement durable et la subsistance de pratiques néfastes pour l'environnement et les ressources naturelles ne va pas sans poser un certain nombre de questions sur les raisons qui expliquent cette situation; cela soulève en particulier la question de la définition exacte de ce qui peut et doit être considéré comme une exploitation durable des ressources. Dans ce contexte, ce travail se propose d'évaluer un mode de gestion dont il a été affirmé à plusieurs reprises qu'il s'agissait d'un «modèle de gestion durable»: les modes d'organisation communautaires liés à l'irrigation par les bisses, ces canaux à ciel ouvert très répandus en Valais. Notre approche, qui se situe dans la continuité des travaux sur les Régimes Institutionnels de Ressources (RIR) et repose sur une conception indéniablement forte de la durabilité, propose une grille d'analyse novatrice à travers l'assimilation des réseaux d'irrigation à des complexes multiressourciels composés des ressources eau, infrastructures (bisse) et sol. L'application rigoureuse de cette grille au cas de Savièse permet - en mettant en évidence les lacunes et les incohérences des modes de gestion qui, en 2010, sont mis en place autour du réseau encore partiellement composé de bisses - de démontrer que leur caractère durable ne va pas de soi et nécessite sans aucun doute une analyse au cas par cas.
Resumo:
In vascular plants, the best-known feature of a differentiated endodermal cell is the "Casparian Strip" (CS). This structure refers to a highly localized cell wall impregnation in the transversal and anticlinal walls of the cell, which surrounds the cell like a belt/ring and is tightly coordinated with respect to neighboring cells. Analogous to tight junctions in animal epithelia, CS in plants act as a diffusion barrier that controls the movement of water and ions from soil into the stele. Since its first description by Robert Caspary in 1865 there have been many attempts to identify the chemical nature of the cell wall deposition in CS. Suberin, lignin, or both have been claimed to be the important components of CS in a series of different species. However, the exact chemical composition of CS has remained enigmatic. This controversy was due to the confusion and lack of knowledge regarding the precise measurement of three developmental stages of the endodermis. The CS represent only the primary stage of endodermal differentiation, which is followed by the deposition of suberin lamellae all around the cellular surface of endodermal cells (secondary developmental stage). Therefore, chemical analysis of whole roots, or even of isolated endodermal tissues, will always find both of the polymers present. It was crucial to clarify this point because this will guide our efforts to understand which cell wall biosynthetic component becomes localized in order to form the CS. The main aim of my work was to find out the major components of (early) CS, as well as their spatial and temporal development, physiological roles and relationship to barrier formation. Employing the knowledge and tools that have been accumulated over the last few years in the model plant Arabidopsis thaliana, various histological and chemical assays were used in this study. A particular feature of my work was to completely degrade, or inhibit formation of lignin and suberin biopolymers by biochemical, classical genetic and molecular approaches and to investigate its effect on CS formation and the establishment of a functional diffusion barrier. Strikingly, interference with monolignol biosynthesis abrogates CS formation and delays the formation of function diffusion barrier. In contrast, transgenic plants devoid of any detectable suberin still develop a functional CS. The combination of all these assays clearly demonstrates that the early CS polymer is made from monolignol (lignin monomers) and is composed of lignin. By contrast, suberin is formed much later as a secondary wall during development of endodermis. These early CS are functionally sufficient to block extracellular diffusion and suberin does not play important role in the establishment of early endodermal diffusion barrier. Moreover, suberin biosynthetic machinery is not present at the time of CS formation. Our study finally concludes the long-standing debate about the chemical nature of CS and opens the door to a new approach in lignin research, specifically for the identification of the components of the CS biosynthetic pathway that mediates the localized deposition of cell walls. I also made some efforts to understand the patterning and differentiation of endodermal passage cells in young roots. In the literature, passage cells are defined as a non- suberized xylem pole associated endodermal cells. Since these cells only contain the CS but not the suberin lamellae, it has been assumed that these cells may offer a continued low-resistance pathway for water and minerals into the stele. Thus far, no genes have been found to be expressed specifically in passage cells. In order to understand the patterning, differentiation, and physiological role of passage it would be crucial to identify some genes that are exclusively expressed in these cells. In order to identify such genes, I first generated fluorescent marker lines of stele-expressed transporters that have been reported to be expressed in the passage cells. My aim was to first highlight the passage cells in a non-specific way. In order to find passage cell specific genes I then adapted a two-component system based on previously published methods for gene expression profiling of individual cell types. This approach will allow us to target only the passage cells and then to study gene expression specifically in this cell type. Taken together, this preparatory work will provide an entry point to understand the formation and role of endodermal passage cells. - Chez les plantes vasculaires, la caractéristique la plus commune des cellules différentiées de l'endoderme est la présence de cadres de Caspary. Cette structure correspond à une imprégnation localisée des parties transversales et anticlinales de la paroi cellulaire. Cela donne naissance, autour de la cellule, à un anneau/cadre qui est coordonné par rapport aux cellules voisines. De manière analogue aux jonctions serrées des épithéliums chez les animaux, les cadres de Caspary agissent chez les plantes comme barrière de diffusion, contrôlant le mouvement de l'eau et des ions à travers la racine entre le sol et la stèle. Depuis leur première description par Robert Caspary en 1865, beaucoup de tentatives ont eu pour but de définir la nature chimique de ces cadres de Caspary. Après l'étude de différentes espèces végétales, à la fois la subérine, la lignine ou les deux ont été revendiquées comme étant des composants importants de ces cadres. Malgré tout, leur nature chimique exacte est restée longtemps énigmatique. Cette controverse provient de la confusion et du manque de connaissance concernant la détermination précise des trois stades de développement de l'endoderme. Les cadres de Caspary représentent uniquement le stade primaire de différentiation de l'endoderme. Celui-ci est suivi par le second stade de différentiation, la déposition de lamelles de subérine tout autour de la cellule endodermal. De ce fait, l'analyse chimique de racines entières ou de cellules d'endoderme isolées ne permet pas de séparer les stades de différentiation primaire et secondaire et aboutit donc à la présence des deux polymères. Il est également crucial de clarifier ce point dans le but de connaître quelle machinerie cellulaire localisée à la paroi cellulaire permet l'élaboration des cadres de Caspary. En utilisant les connaissances et les outils accumulés récemment grâce à la plante modèle Arabidopsis thaliana, divers techniques histologiques et chimiques ont été utilisées dans cette étude. Un point particulier de mon travail a été de dégrader ou d'inhiber complètement la formation de lignine ou de subérine en utilisant des approches de génétique classique ou moléculaire. Le but étant d'observer l'effet de l'absence d'un de ces deux polymères sur la formation des cadres de Caspary et l'établissement d'une barrière de diffusion fonctionnelle. De manière frappante, le fait d'interférer avec la voie de biosynthèse de monolignol (monomères de lignine) abolit la formation des cadres de Caspary et retarde l'élaboration d'une barrière de diffusion fonctionnelle. Par contre, des plantes transgéniques dépourvues d'une quantité détectable de subérine sont quant à elles toujours capables de développer des cadres de Caspary fonctionnels. Mises en commun, ces expériences démontrent que le polymère formant les cadres de Caspary dans la partie jeune de la racine est fait de monolignol, et que de ce fait il s'agit de lignine. La subérine, quant à elle, est formée bien plus tard durant le développement de l'endoderme, de plus il s'agit d'une modification de la paroi secondaire. Ces cadres de Caspary précoces faits de lignine suffisent donc à bloquer la diffusion extracellulaire, contrairement à la subérine. De plus, la machinerie de biosynthèse de la subérine n'est pas encore présente au moment de la formation des cadres de Caspary. Notre étude permet donc de mettre un terme au long débat concernant la nature chimique des cadres de Caspary. De plus, elle ouvre la porte à de nouvelles approches dans la recherche sur la lignine, plus particulièrement pour identifier des composants permettant la déposition localisée de ce polymère dans la paroi cellulaire. J'ai aussi fais des efforts pour mettre en évidence la formation ainsi que le rôle des cellules de passage dans les jeunes racines. Dans la littérature, les cellules de passage sont définies comme de la cellule endodermal faisant face aux pôles xylèmes et dont la paroi n'est pas subérisée. Du fait que ces cellules contiennent uniquement des cadres de Caspary et pas de lamelle de subérine, il a été supposé qu'elles ne devraient offrir que peu de résistance au passage de l'eau et des nutriments entre le sol et la stèle. Le rôle de ces cellules de passage est toujours loin d'être clair, de plus aucun gène s'exprimant spécifiquement dans ces cellules n'a été découvert à ce jour. De manière à identifier de tels gènes, j'ai tout d'abord généré des marqueurs fluorescents pour des transporteurs exprimés dans la stèle mais dont l'expression avait également été signalée dans l'endoderme, uniquement dans les cellules de passage. J'ai ensuite développé un système à deux composants basé sur des méthodes déjà publiées, visant principalement à étudier le profil d'expression génique dans un type cellulaire donné. En recoupant les gènes exprimés spécifiquement dans l'endoderme à ceux exprimés dans la stèle et les cellules de passage, il nous sera possible d'identifier le transriptome spécifique de ces cellules. Pris dans leur ensemble, ces résultats devraient donner un bon point d'entrée dans la définition et la compréhension des cellules de passage.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.
Resumo:
En lien avec la prise de conscience de l'importance du patrimoine géologique et géomorphologique, les géomorphosites ont obtenu une attention croissante de la part de la communauté scientifique. Des méthodes d'évaluation, de classification et des stratégies de conservation ont été développées afin de sauvegarder le géopatrimoine pour les générations présentes et futures. Parallèlement, des programmes éducatifs et de loisirs ainsi que divers projets de développement local ont été créés ces dernières années afin de promouvoir et sauvegarder le géopatrimoine. Que ce soit pour l'évaluation, la conservation ou la promotion, la cartographie des géomorphosites est utile à plusieurs égards. Les cartes peuvent fournir des données fondamentales pour la description détaillée des géomorphosites, servir d'aide à la décision, par exemple dans la définition des priorités de protection, ou soutenir la valorisation et la médiation du géopatrimoine. Cette étude fait l'état de l'avancement et des objectifs encore à atteindre dans le domaine de la cartographie des géomorphosites et propose un cadre général prenant en compte les différents objectifs et publics. L'objectif principal de cette étude est la cartographie des géomorphosites pour un public de non - spécialistes dans le domaine de la valorisation du géopatrimoine ( géotourisme ). Dans ce contexte, les cartes sont souvent utilisées pour montrer les itinéraires ou les points d'intérêt. Elles peuvent cependant également servir à représenter des données géoscientifiques afin de visualiser les processus qui ont contribué à la formation d'un géomorphosite ou d'un paysage géomorphologique et qui ne sont plus ou pas toujours clairement visibles dans le paysage. Dans ce cas, les cartes deviennent des outils de visualisation, comme un schéma ou un diagramme. L'enjeu de la cartographie pour non - spécialistes réside dans un transfert efficace des informations entre le cartographe et l'utilisateur. Par conséquent, nous focalisons l'attention à la fois sur la réalisation de la carte par le cartographe (quelle information? Quel mode de visualisation?) et sur l 'interprétation de la carte par l'utilisateur (efficacité de la transmission). Notre recherche est basée sur des études empiriques, menées dans la vallée de Maderan (canton d'Uri) et dans des classes des cantons d'Uri et du Tessin, visant à acquérir des connaissances sur la familiarité et les intérêts des non - spécialistes par rapport au géopatrimoine, ainsi que sur leurs compétences en matière de lecture de carte. L'objectif final est de formuler des propositions méthodologiques pour la cartographie des géomorphosites à des fins de valorisation.