1000 resultados para Problème de comportement
Resumo:
Compte tenu des relations étroites existant entre le pouvoir politique et l'histoire - et plus particulièrement l'enseignement de l'histoire à l'école - , les manuels constituent un objet d'étude privilégié de l'évolution des relations pouvoir/enseignement. Ils fournissent un lieu de médiation privilégié entre les savoirs savants et les savoirs scolaires institutionnels ; ils permettent d'observer les conceptions didactiques préconisées par l'institution scolaire. Si, sous l'égide de l'Etat-nation au 19e siècle, les savoirs savants historiques et les savoirs scolaires étaient entremêlés, les rapports se sont complexifiés durant le 20e siècle en raison notamment de la prise de distance progressive de l'histoire savante à l'égard du pouvoir. Petit à petit, à partir des années 1930, le concept d'histoire- problème, initié par l'école historique des Annales, dépasse l'histoire-récit de l'école historique positiviste (méthodique) du 19e siècle et sa traduction du récit- national au coeur de la leçon d'histoire. Cependant, si après 1945, l'école des Annales, puis la Nouvelle histoire, tendent à s'imposer dans le champ de l'histoire savante francophone, elles se heurtent à une tradition scolaire bien établie et modifient peu et tardivement les curricula, les manuels et les pratiques enseignantes. Progressivement donc, une fracture apparaît entre l'histoire savante et l'histoire scolaire. Dans cette étude, notre travail envisage l'analyse du manuel d'histoire en tant qu'objet hybride. Il est à la fois porteur d'un texte historien, ouvrage de vulgarisation et de référence, ainsi qu'outil pédagogico-didactique. Par ailleurs, le manuel d'histoire a la charge de transmettre des valeurs, car les finalités attribuées par l'autorité politique, via les autorités scolaires, à l'histoire scolaire comportent toujours une dimension forte de formation du futur citoyen. Au texte de départ sont associés des documents textuels ou iconiques, des résumés, des questions regroupées par chapitre, un glossaire ou une chronologie générale. De plus, ce texte est encadré d'un dispositif didactique plus ou moins explicite : préface, numérotation par paragraphe correspondant à la leçon du jour, dates mises en évidence, aide-mémoire et questions. Par ailleurs, les découpages en livres ou en parties peuvent correspondre à des années (ou parties d'années) de programme. Il sera donc également étudié pour les spécificités d'un sous-genre de discours à définir : les manuels - d'histoire - produits (et utilisés) dans le canton de Vaud au 20e siècle. En conséquence, notre travail se propose d'observer et d'analyser les manuels d'histoire vaudois sous deux modalités préférentielles. Premièrement, celle des formes constitutives et évolutives prises par le manuel pour se construire comme un discours légitimé (deuxième partie : écriture et mise en scène de l'histoire). Deuxièmement, celle de la mise en scène d'une histoire à visée pseudo- pédagogique masquant l'intégration du discours de l'autorité politique (troisième partie : comment l'autorité vient au discours). Site internet : http://manuelshistoire.ch
Resumo:
RésuméEn agriculture d'énormes pertes sont causées par des champignons telluriques pathogènes tels que Thielaviopsis, Fusarium, Gaeumannomyces et Rhizoctonia ou encore l'oomycète Pythium. Certaines bactéries dites bénéfiques, comme Pseudomonas fluorescens, ont la capacité de protéger les plantes de ces pathogènes par la colonisation de leur racines, par la production de métabolites secondaires possédants des propriétés antifongiques et par l'induction des mécanismes de défenses de la plante colonisée. P. fluorescens CHAO, une bactérie biocontrôle isolée d'un champ de tabac à Payerne, a la faculté de produire un large spectre de métabolites antifongiques, en particulier le 2,4- diacétylphloroglucinol (DAPG), la pyolutéorine (PLT), le cyanure d'hydrogène (HCN), la pyrrolnitrine (PRN) ainsi que des chélateurs de fer.La plante, par sécrétion racinaire, produit des rhizodéposites, source de carbone et d'azote, qui profitent aux populations bactériennes vivant dans la rhizosphere. De plus, certains stresses biotiques et abiotiques modifient cette sécrétion racinaire, en terme quantitatif et qualitatif. De leur côté, les bactéries bénéfiques, améliorent, de façon direct et/ou indirect, la croissance de la plante hôte. De nombreux facteurs biotiques et abiotiques sont connus pour réguler la production de métabolites secondaires chez les bactéries. Des études récentes ont démontré l'importance de la communication entre la plante et les bactéries bénéfiques afin que s'établisse une interaction profitant à chacun des deux partis. Il est ainsi vraisemblable que les populations bactériennes associées aux racines soient capables d'intégrer ces signaux et d'adapter spécifiquement leur comportement en conséquence.La première partie de ce travail de thèse a été la mise au point d'outils basés sur la cytométrie permettant de mesurer l'activité antifongique de cellules bactériennes individuelles dans un environnent naturel, les racines des plantes. Nous avons démontré, grâce à un double marquage aux protéines autofluorescentes GFP et mCherry, que les niveaux d'expression des gènes impliqués dans la biosynthèse des substances antifongiques DAPG, PLT, PRN et HCN ne sont pas les mêmes dans des milieux de cultures liquides que sur les racines de céréales. Par exemple, l'expression de pltA (impliqué dans la biosynthèse du PLT) est quasiment abolie sur les racines de blé mais atteint un niveau relativement haut in vitro. De plus cette étude a mis en avant l'influence du génotype céréalien sur l'expression du gène phlA qui est impliqué dans la biosynthèse du DAPG.Une seconde étude a révélé la communication existant entre une céréale (orge) infectée par le pathogène tellurique Pythium ultimum et P. fluorescens CHAO. Un système de partage des racines nous a permis de séparer physiquement le pathogène et la bactérie bénéfique sur la plante. Cette méthode a donné la possibilité d'évaluer l'effet systémique, causé par l'attaque du pathogène, de la plante sur la bactérie biocontrôle. En effet, l'infection par le phytopathogène modifie la concentration de certains composés phénoliques dans les exsudats racinaires stimulant ainsi l'expression de phi A chez P.fluorescens CHAO.Une troisième partie de ce travail focalise sur l'effet des amibes qui sont des micro-prédateurs présents dans la rhizosphere. Leur présence diminue l'expression des gènes impliqués dans la biosynthèse du DAPG, PLT, PRN et HCN chez P.fluorescens CHAO, ceci en culture liquide et sur des racines d'orge. De plus, des molécules provenant du surnageant d'amibes, influencent l'expression des gènes requis pour la biosynthèse de ces antifongiques. Ces résultats illustrent que les amibes et les bactéries de la rhizosphere ont développé des stratégies pour se reconnaître et adapter leur comportement.La dernière section de ce travail est consacrée à l'acide indole-acétique (LA.A), une phytohormone connue pour son effet stimulateur sur phlA. Une étude moléculaire détaillée nous a démontré que cet effet de l'IAA est notamment modulé par une pompe à efflux (FusPl) et de son régulateur transcriptionnel (MarRl). De plus, les gènes fusPl et marRl sont régulés par d'autres composés phénoliques tels que le salicylate (un signal végétal) et l'acide fusarique (une phytotoxine du pathogène Fusarium).En résumé, ce travail de thèse illustre la complexité des interactions entre les eucaryotes et procaryotes de la rhizosphère. La reconnaissance mutuelle et l'instauration d'un dialogue moléculaire entre une plante hôte et ses bactéries bénéfiques associées? sont indispensables à la survie des deux protagonistes et semblent être hautement spécifiques.SummaryIn agriculture important crop losses result from the attack of soil-borne phytopathogenic fungi, including Thielaviopsis, Fusarium, Gaeumannomyces and Rhizoctonia, as well as from the oomycete Pythium. Certain beneficial microorganisms of the rhizosphere, in particular Pseudomonas fluorescens, have the ability to protect plants against phytopathogens by the intense colonisation of roots, by the production of antifungal exoproducts, and by induction of plant host defences. P. fluorescens strain CHAO, isolated from a tobacco field near Payerne, produces a large array of antifungal exoproducts, including 2,4-diacetylphloroglucinol (DAPG), pyoluteorin (PLT), hydrogen cyanide (HCN), pyrrolnitrin (PRN) and iron chelators. Plants produce rhizodeposites via root secretion and these represent a relevant source of carbon and nitrogen for rhizosphere microorganisms. Various biotic and abiotic stresses influence the quantity and the quality of released exudates. One the other hand, beneficial bacteria directly or indirectly promote plant growth. Biotic and abiotic factors regulate exoproduct production in biocontrol microorganisms. Recent studies have highlighted the importance of communication in establishing a fine-tuned mutualist interaction between plants and their associated beneficial bacteria. Bacteria may be able to integrate rhizosphere signals and adapt subsequently their behaviour.In a first part of the thesis, we developed a new method to monitor directly antifungal activity of individual bacterial cells in a natural environment, i.e. on roots of crop plants. We were able to demonstrate, via a dual-labelling system involving green and red fluorescent proteins (GFP, mCherry) and FACS-based flow cytometry, that expression levels of biosynthetic genes for the antifungal compounds DAPG, PLT, PRN, and HCN are highly different in liquid culture and on roots of cereals. For instance, expression of pltA (involved in PLT biosynthesis) was nearly abolished on wheat roots whereas it attained a relatively high level under in vitro conditions. In addition, we established the importance of the cereal genotype in the expression of phi A (involved in DAPG biosynthesis) in P. fluorescens CHAO.A second part of this work highlighted the systemic communication that exists between biocontrol pseudomonads and plants following attack by a root pathogen. A split-root system, allowing physical separation between the soil-borne oomycete pathogen Phytium ultimum and P. fluorescens CHAO on barley roots, was set up. Root infection by the pathogen triggered a modification of the concentration of certain phenolic root exudates in the healthy root part, resulting in an induction ofphlA expression in P. fluorescens CHAO.Amoebas are micro-predators of the rhizosphere that feed notably on bacteria. In the third part of the thesis, co-habitation of Acanthamoeba castellanii with P. fluorescens CHAO in culture media and on barley roots was found to significantly reduce bacterial expression of genes involved in the biosynthesis of DAPG, PLT, HCN and PRN. Interestingly, molecular cues present in supernatant of A. castelanii induced the expression of these antifungal genes. These findings illustrate the strategies of mutual recognition developed by amoeba and rhizosphere bacteria triggering responses that allow specific adaptations of their behaviour.The last section of the work focuses on indole-3-acetic acid (IAA), a phytohormone that stimulates the expression of phi A. A detailed molecular study revealed that the IAA-mediated effect on phi A is notably modulated by an efflux pump (FusPl) and its transcriptional regulator (MarRl). Remarkably, transcription of fusPl and marRl was strongly upregulated in presence of other phenolic compounds such as salicylate (a plant signal) and fusaric acid (a phytotoxin of the pathogenic fungus Fusarium).To sum up, this work illustrates the great complexity of interactions between eukaryotes and prokaryotes taking place in the rhizosphere niche. The mutual recognition and the establishment of a molecular cross-talk between the host plant and its associated beneficial bacteria are essential for the survival of the two partners and these interactions appear to be highly specific.
Resumo:
RÉSUMÉ GRAND PUBLIC La complexité des sociétés d'insectes (telles que les abeilles, les termites ou les fourmis) a depuis longtemps fasciné l'Homme. Depuis le débfit du XIXème siècle, de nombreux travaux observationnels, comportementaux et théoriques leur on été consacrés afin de mieux les décrire et comprendre. L'avènement de la biologie moléculaire à la fin du XXèrne siècle a offert de nouveaux outils scientifiques pour identifier et étudier les gènes et molécules impliqués dans le développement et le comportement des êtres vivants. Alors que la majorité de ces études s'est focalisée sur des organismes de laboratoire tel que la mouche ou les nématodes, l'utilisation de ces outils est restée marginale jusqu'à présent dans l'étude des sociétés d'insectes. Lors de ma thèse, j'ai développé des outils moléculaires permettant de déterminer le niveau d'activité de zo,ooo gènes chez la fourmi de feu, Solenopsis invicta, ainsi qu'une base de données et un portail en ligne regroupant les informations relatives à l'étude génétique des fourmis: Fourmidable. J'ai ensuite utilisé ces outils dans le cadre d'une étude comportementale chez la fourmis S. invicta. Dans les sociétés d'insectes, une hiérarchie peut déterminer le statut reproducteur des individus. Suite à la mort d'un dominant, les subordonnés entrent en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies de S. invicta contenant une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. A la mort de la reine mère, un grand nombre de reines vierges tentent de la remplacer en arrachant leurs ailes et en activant leurs organes reproducteurs plutôt que de partir en vol nuptial. Ces tentatives sont le plus souvent arrêtées par les ouvrières qui exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, j'ai étudié l'activité de gènes au sein des reines au début de ce processus. J'ai ainsi déterminé que des gènes impliqués dans communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile sont activês à ce moment là. La vitesse à laquelle les reines perdent leurs ailes ainsi que les niveaux d'expression de gènes sont ensuite liés à leur probabilité de survie. ABSTRACT : Honeybees, termites and ants occupy the "pinnacle of social evolution" with societies of a complexity that rivals our own. Humans have long been fascinated by social insects, but studying them has been mostly limited to observational and behavioral experiments. The advent of molecular biology first made it possible to investigate the molecular-genetic basis of development in model systems such as the fruit fly Drosophila melarcogaster or the roundworm Caenorhabditis elegans and subsequently their behavior. Molecular and genomic tools are now becoming available for the study of social insects as well. To permit genomic research on the fire ant, Solenopsis invicta, we developed a cDNA microarray that can simultaneously determine the expression levels of approximately 1oooo genes. These genes were assembled and bioinformatically annotated using custom pipelines. The obtained data formed the cornerstones for Fourmidable, a web portal centralizing sequence, gene annotation and gene expression data as well as laboratory protocols for research on ants. In many animals living in groups the reproductive status of individuals is determined by their social status. In species with social hierarchies, the death of dominant individuals typically upheaves the social hierarchy and provides an opportunity for subordinate individuals to improve their social status. Such a phenomenon occurs in the monogyne form of S. invicta, where colonies typically contain a single wingless reproductive queen, thousands of workers and hundreds of winged non-reproductive virgin queens. Upon the death of the mother queen, many virgin queens shed their wings and initiate reproductive development instead of departing on a mating flight. Workers progressively execute almost all of them over the following weeks. The workers base their collective decision on pheromonal cues associated with the onset of reproductive development of the virgin queens which occurs after orphaning. We used the aforementioned tools to determine that genes putatively involved in processes including olfactory signaling, reproductive development and Juvenile Hormone metabolism are differentially expressed at the onset of competition. Additionally, we found that queens that initiate reproductive development faster and, to a certain extent, shed their wings faster after orphaning are more likely to become replacement queens. These results provide candidate genes that are putatively linked to competition outcome. To determine the extent to which specific genes affect different aspects of life in ant colonies, functional tests such as gene activation and silencing will still be required. We conclude by discussing some of the challenges and opportunities for molecular-genetic research on ants. RÉSUMÉ Les sociétés d'abeilles, de termites et de fourmis sont d'une complexité proche de celle de la nôtre et ont depuis longtemps fasciné l'Homme. Cependant, leur étude était jusqu'à présent limitée aux observations et expériences comportementales. L'avènement de la biologie moléculaire a d'abord rendu possible l'étude moléculaire et génétique du développement d'organismes modèles tels que la mouche Drosophila melanogaster ou le nématode Caenorhabditis elegans, puis dans un second temps de leur comportement. De telles études deviennent désormais possibles pour les insectes sociaux. Nous avons développé une puce à ADN permettant de déterminer simultanément les niveaux d'expression de 1oooo gènes de la fourmi de feu, Solenopsís invicta. Ces gènes ont été séquencés puis assemblés et annotés à l'aide de pipelines que nous avons développés. En se basant sur les informations obtenues, nous avons créé un portail web, Fourmidable. Ce portail vise à centraliser toutes les informations de séquence, d'annotation et d'expression de gènes, ainsi que les protocoles de laboratoire utilisés pour la recherche sur les fourmis. Par la suite, nous avons utilisé les outils développés pour étudier un aspect particulier de S. invicta. Chez les animaux grégaires, une hiérarchie sociale peut déterminer le statut reproducteur des individus. Suite à la mort d'un individu dominant, les individus subordonnés peuvent entrer en compétition en vue d'améliorer leur statut. Un tel phénomène se produit au sein des colonies monogynes de S. invicta, qui contiennent habituellement une unique reine mère, des milliers d'ouvrières et des centaines de reines vierges ailées. Suite à la mort de la reine mère, dominante, un grand nombre de reines vierges, subordonnées, perdent leurs ailes et activent leurs organes reproducteurs au lieu de partir en vol nuptial. Au cours des semaines suivantes, les ouvrières exécutent la plupart de ces reines sur la base de signaux olfactifs produits lors de l'activation des organes reproducteurs. Afin de mieux comprendre les mécanismes moléculaires impliqués, nous avons étudié l'expression de gènes au début de cette compétition. Nous avons identifié 297 gènes différemment exprimés, dont l'annotation indique qu'ils seraient impliqués dans des processus biologiques dont la communication olfactive, le développement des organes reproducteurs et la métabolisation de l'hormone juvénile. Par la suite, nous avons déterminé que la vitesse à laquelle les reines perdent leurs ailes en début de compétition ainsi que les niveaux d'expression de gènes sont corrélés à la probabilité de survie des reines. Nous concluons en discutant des opportunités offertes par la recherche génétique sur les fourmis ainsi que les défis qu'elle devra surmonter.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.
Resumo:
Se basant sur leurs thèses de doctorat respectifs, les auteurs mènent une réflexion commune autour de la production de règles sociales informelles suite à la réduction et à la flexibilisation du temps de travail dans différents contextes. Ils montrent que ces règles conventionnelles, qui réaffirment des comportement collectifs là où une forte individualisation serait possible, ont autant une fonction de performance (faciliter l'organisation et la coordination des actes, réduire les efforts réflexifs) qu'une fonction intégratrice (permettre aux employés d'exister en tant qu'individus dans l'entreprise).
Resumo:
La littératie en santé est un concept prenant en compte les compétences et les ressources que chacun doit posséder pour gérer l'information nécessaire au maintien d'un bon état de santé. Néanmoins, il n'y pas de consensus sur une définition unique, ce qui complique une intégration adéquate de cette thématique dans le domaine de la santé. Un faible niveau de littératie en santé est un problème fréquent et concernerait près de 50% de la population Suisse (OCDE 2005). Cette problématique est d'une importance majeure car les individus avec un niveau de littératie insuffisant sont plus à risque d'un mauvais état de santé (AMA 1999) et ce phénomène représenterait 3 à 6% des coûts de la santé en Suisse selon une estimation basée sur les chiffres d'études américaines. (Spycher 2006). Les médecins de famille, considérés comme l'une des principales sources d'information en santé pour la population en Suisse, jouent un rôle central dans la promotion d'un bon niveau de santé. L'idée de ce travail vient à la suite des résultats du travail de Maîtrise de de Lara Van Leckwyck qui s'est intéressée à la perception que les médecins de famille de la région lausannoise ont du niveau de littératie de leurs patients. Ces derniers considèrent posséder les ressources nécessaires pour prendre en charge leurs patients avec un faible niveau de littératie mais ils sont ouverts à de nouveaux outils. Nous avons alors voulu tenter l'expérience et créer un outil sous la forme d'une brochure A6 contenant quatre faces dans le but d'aider ces médecins. Les objectifs sont les suivants : 1) sensibiliser et informer les médecins de famille à la problématique de la littératie en santé ; 2) offrir une aide au dépistage du niveau de littératie en santé de leurs patients ; 3) proposer une aide à la prise en charge des patients avec un faible niveau de littératie en fournissant une liste de moyens pratiques basés sur une revue de la littérature pour aider les médecins généralistes internistes dans leur prise en charge et 4) proposer une sélection d'adresses internet utiles en lien avec la problématique de la littératie en santé. Cet outil a été présenté à 15 assistants et chefs de clinique de la Policlinique médicale universitaire (PMU) de Lausanne ainsi qu'à 30 médecins internistes généralistes installés dans la région de Lausanne qui évalueront son utilité dans le cadre d'un prochain travail de Maîtrise. Les limites principales concernant un tel projet sont le format choisi pour l'outil et le fait de récolter et de transcrire des informations sur un sujet principalement étudié dans les pays anglo-saxons. Nous pouvons déjà prévoir que des adaptations sur la traduction de certains éléments de l'outil (notamment les questions de dépistage) seront certainement relevées par les médecins qui auront testé l'outil. Un travail supplémentaire mené de manière différente pourra également faire l'objet d'un futur travail.
Resumo:
Contexte¦Le PET/CT au 18Fluor (FDG) fait aujourd'hui partie intégrante des moyens diagnostiques¦à disposition pour la stadification des cancers suspectés ou connus. Il n'est pas rare de¦découvrir des lésions fortuites.¦Objectifs¦Notre but était de déterminer la fréquence des lésions tumorales ou non, cliniquement¦silencieuses (incidentalomes), chez des patients consécutifs non sélectionnés examinés¦par PET/CT au FDG pour un cancer connu ou supposé au sein du bassin populationnel¦du CHUV.¦Méthode¦Nous avons rétrospectivement lu les 1226 des rapports d'examens faits d'août 2009 à¦juillet 2010 pour toute indication oncologique et relevé les lésions de découverte¦fortuite et leur localisation, avant de rechercher leur investigation et leur prise en¦charge.¦Résultats¦Nous avons retenu 309 lésions fortuites chez 260 patients (25,2% des rapports lus),¦dont 141 chez 127 patients investiguées. Ont été relevés 31 patients présentant 32¦incidentalomes (2,6%), dont 6 étaient malins, 6 pré-malins et 20 bénins, soit un taux de¦1% pour les malins et pré-malins. Les sites les plus fréquents étaient les mêmes que¦dans la littérature, à savoir la thyroïde, le poumon, la sphère colorectale (lésions prémalignes¦uniquement) et les lymphomes. Pour ces trois derniers, les lésions étaient¦moins fréquentes que ce qui est rapporté. Tous ces foyers sont à investiguer¦soigneusement, afin de différencier une nouvelle atteinte d'une métastase.¦Conclusion¦En tant que première étude suisse sur le sujet, nous obtenons 1% d'incidentalomes¦(pré)malins, soit l'équivalent de la limite inférieure de la littérature, dans des sites¦similaires. Une amélioration serait possible en augmentant l'attention portée aux lésions¦jugées peu significatives. A l'instar de nombreuses autres études, nous sommes aussi¦confrontés au problème lié à l'interprétation des foyers de captation et à la nonspécificité¦du FDG.
Resumo:
1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.