406 resultados para Normes internationales à contenu éthique
Resumo:
[Résumé (extrait)] Lancé en octobre 1999, le Programme valaisan de dépistage du cancer du sein a pour mission de promouvoir, d'organiser et de mener une action de dépistage auprès de la population féminine valaisanne âgée de 50 à 70 ans. Ce programme est régulièrement évalué, de manière indépendante, afin de s'assurer que sa qualité et son efficacité répondent à des normes internationalement admises tout en minimisant ses effets adverses. Ces évaluations ont mis en évidence un niveau de performances globalement satisfaisant et suggéré un potentiel d'amélioration, notamment de la qualité des lectures radiologiques. Dans un souci d'optimiser les performances, la direction du Programme a mené ces dernières années plusieurs actions auprès de ses radiologues et pris quelques mesures. Ce rapport thématique traite de l'évolution des performances du programme, principalement au cours de la dernière décennie (2002-11), c'est-à-dire après sa phase de démarrage (1999-2001). Les tendances des principaux indicateurs de performance et leurs associations avec les actions et mesures réalisées, qui ont été répertoriées et classées selon leur types et objectifs, sont analysées. Les facteurs les plus influents sur la qualité des lectures radiologiques sont quantifiés de manière à faciliter toute décision interventionnelle. Les cancers d'intervalle (1999-2010) du Programme sont étudiés afin d'en apprécier la fréquence, d'en établir le profil pronostique et de déterminer les caractéristiques clinicoépidémiologiques qui les distinguent des cancers dépistés dans le cadre du Programme.
Resumo:
Les élevages intensifs d'animaux de rente, en particulier ceux de bovins et de porcins sont nombreux en France et sont concentrés dans certaines régions (Bretagne, Normandie, Massif central, Alpes, Pyrénées). Au total, on dénombre environ 20 millions de bovins répartis dans 280 000 exploitations et 25 millions de porcs répartis dans 30 000 exploitations. Ceci représente en moyenne 70 vaches/exploitation et 830 porcs/exploitation. De telles densités d'animaux réunis sur des surfaces de taille minimale, génèrent d'énormes quantités de déchets organiques, notamment de matières fécales qui contiennent une grande diversité de bactéries, pouvant parfois être pathogènes pour l'humain. Une partie de ces bactéries sont des bactéries gram négatif (entérobactéries) dont les parois contiennent des endotoxines (1). Ces endotoxines sont connues pour causer des problèmes respiratoires ou des problèmes toxiques (ODTS) (2), lorsqu'elles sont inhalées (Cole, Todd, Wing ; 2000). Jusqu'à présent, plusieurs études se sont attachées à évaluer l'exposition à ces bioaérosols (3) à l'intérieur des élevages d'animaux (vaches, chevaux, porcs, poules) et ont démontré la présence d'importantes concentrations de bactéries et d'endotoxines aéroportées. Cependant, très peu d'études ont estimé la dispersion de ces bioaérosols à l'extérieur des installations d'élevages. En 2008, une étude américaine avait caractérisé les bactéries aéroportées retrouvées dans,et autour, d'une douzaine d'exploitations porcines. Cette étude avait été discutée dans le cadre d'une note d'actualité scientifique précédente (BVS 9). Aujourd'hui, ces mêmes auteurs nous livrent des résultats concernant l'exposition aux endotoxines dans et autour de ces mêmes élevages de porcs (Ko et al., 2010). Une autre équipe de recherche chinoise a estimé la dispersion d'Escherichia coli dans l'environnement immédiat d'exploitations porcines (Yuan, Chai, Miao ; 2010). Cette bactérie, appelée aussi coliforme, fait partie de la flore intestinale normale de tous les animaux à sang chaud (mammifères et oiseaux). Sa mise en évidence dans certains milieux,notamment l'eau, est utilisée comme indicateur de contamination fécale. Finalement, une autre étude vient de paraître concernant les concentrations en endotoxines au cours de l'année, à proximité de stabulations ouvertes de vaches laitières (Dungan, Leytem, Bjorneberg ; 2010). Ce sont ces trois articles qui sont analysés ci-dessous. [Auteure]
Resumo:
TEXTABLE est un nouvel outil open source de programmation visuelle pour l'analyse de données textuelles. Les implications de la conception de ce logiciel du point de vue de l'interopérabilité et de la flexibilité sont abordées, ainsi que la question que son adéquation pour un usage pédagogique. Une brève introduction aux principes de la programmation visuelle pour l'analyse de données textuelles est également proposée.
Resumo:
Suite à la découverte du génome, les patients peuvent bénéficier aujourd'hui, d'une approche préventive, prédictive, voire personnalisée de leur prise en charge. Si la médecine personnalisée devient courante, la « généralisation» de l'information génétique nous amènera probablement à établir de nouveaux standards sociaux et éthiques, car si celle-ci permet une plus grande efficacité dans les soins en aidant à la prise de décision, elle apporte une connaissance inédite de l'homme en terme de risque et de susceptibilité face à la maladie, mais aussi des informations propres à l'individu pouvant mener à la discrimination. Sommes- nous prêts à gérer cette information ? Dans ce travail, nous allons nous intéresser au traitement de l'information lors des tests génétiques en recherche. L'hypothèse de travail étant que l'information génétique est une nouvelle donnée biologique individuelle dont il faut tenir compte dans la prise en charge des participants à la recherche. Pour entamer la réflexion, une revue de la littérature a permis de mettre en évidence les spécificités de la recherche en génétique. Dans un deuxième temps, nous avons effectué une analyse comparative des feuilles d'information et des formulaires de consentement destinés aux participants à dix-sept protocoles de recherches impliquant des tests génétiques au CHUV à Lausanne en Suisse. Cette analyse a permis de faire un état des lieux des pratiques actuelles dans la région et elle est le point de départ d'une mise en perspective des enjeux éthiques liés la question. Les résultats montrent des inégalités entre les différentes feuilles d'information et formulaires de consentement de notre échantillon lausannois en ce qui concerne la restitution des résultats, la confidentialité des données ou encore la possibilité de participer à de futures recherches. Nous en concluons qu'il serait intéressant de travailler à une standardisation de ces documents et une éducation plus large à ce sujet.
Resumo:
Children with elevated blood pressure are at risk of being hypertensive in adulthood and of developing complications such as ventricular hypertrophy. Obesity is a cause of hypertension. Because the prevalence of obesity is increasing, some authors argue that the systematic screening for hypertension in children and adolescents is justified for early prevention and treatment. Sex, age and height all influence children's blood pressure. When elevated blood pressure is identified, complementary investigations and treatment might be necessary. However, due to the difficulties of obtaining a valid estimate of blood pressure, to the moderate tracking of blood pressure from childhood to adulthood, and the rarity of hypertension cases in childhood, the usefulness of systematic screening of hypertension during childhood is still controversial. Un enfant dont la pression artérielle est élevée a un risque accru d'être hypertendu à l'âge adulte et de présenter des complications telles que l'hypertrophie ventriculaire gauche. L'augmentation de la prévalence de l'obésité justifierait selon certains auteurs le dépistage systématique de l'hypertension dès le plus jeune âge afin d'instaurer des mesures préventives ou curatives précoces. Les normes de pression dépendent du sexe, de l'âge et de la taille de l'enfant. En cas de pression élevée, des investigations complémentaires, voire un traitement, peuvent être indiqués. Au vu des difficultés pour obtenir une mesure fiable, des incertitudes entachant la valeur pronostique d'une pression artérielle élevée et de la rareté des cas d'hypertension, il n'y a pas de consensus sur l'utilité du dépistage systématique de l'hypertension durant l'enfance.
Resumo:
Théologien protestant, pionnier de l'oecuménisme, résistant au nazisme, conspirateur, témoin et martyr, Dietrich Bonhoeffer (1906-1945) fait partie des acteurs et des penseurs essentiels du XXe siècle. Dans « Le Prix de la grâce » (1937), il trace devant ses étudiants de l'Église confessante la voie d'une suivance (« Nachfolge ») qui fait du disciple du Christ, dans le texte biblique et dans la vie, un être d'écoute et d'obéissance critique. L'« Éthique » (1940-1945), inachevée, rend compte des raisons théologiques d'une action responsable dans le monde. L'avant-dernier, s'il n'est jamais ultime, est toujours crucial, face aux réalités dernières. La foi et l'éthique peuvent conduire à la désobéissance politique, par-delà les compromis frileux et les radicalismes exaltés. « Résistance et soumission » (lettres de prison posthumes), enfin, dit l'engagement et la lucidité du penseur devant les limites d'un langage religieux inadapté au monde moderne. Quel sera le rôle de la pensée et de la croyance dans un monde devenu majeur, mais dont les cataclysmes ne cessent de questionner l'autonomie, la responsabilité et l'accueil d'une vraie transcendance, au coeur même de la vie ? Par ses points forts et par ses failles, Dietrich Bonhoeffer nous ouvre des pistes surprenantes pour des lendemains de grâce et de gravité.
Resumo:
Fragilisé dans son statut et dans son savoir, constamment exposé à une redéfinition de son travail, l'individu contemporain est de moins en moins en mesure de s'assurer de son identité sociale par une identité professionnelle, alors même que les exigences d'implication de soi dans son emploi sont de plus en plus élevées. Comment, en tant que société, ferons-nous face à ce cocktail explosif : d'une part, une extériorité croissante de l'individu à la mission qu'il remplit en tant qu'elle lui est de plus en plus étrangère; et d'autre part, l'exigence, déterminée par l'impératif de rentabilité, de son engagement total dans la réalisation de son travail dont il sait par ailleurs qu'il peut disparaître du jour au lendemain à la faveur d'une restructuration des processus de travail ou de licenciements économiques? Enorme question dans laquelle se joue, sans doute, une part décisive de notre avenir en tant que société : car si, demain, le travail cesse déjouer le rôle intégrateur qu'il a joué depuis la naissance de l'économie industrielle, qu'est-ce qui fera tenir ensemble les individus-travailleurs que nous sommes devenus ?Au travers d'une pluralité de regards disciplinaires allant de la psychologie du travail aux transformations de l'organisation du travail induites par la ©-entreprise en passant par la médecine du travail, la pédagogie, la sociologie des métiers, les contributions réunies ici explorent les mutations récentes advenues dans le travail - en tant qu'il constitue, aujourd'hui encore, le "fait social total ". Le souci commun en est d'interroger la place que le processus organisationnel le plus récent "ménage" à l'individu. Il en est aussi de sonder les stratégies élaborées par celui-ci pour s'y construire et s'y préserver malgré tout, malgré les casses. Sont ainsi offerts différents regards sur la difficulté de l'individu à se forger une place; à conquérir l'estime de soi et de ses semblables par son apport au procès de la production sociale, aussi incontournable qu'impossible. Le présent volume rassemble la majeure partie des contributions présentées dans le cadre d'un cycle de conférences mis sur pied par le Département interfacultaire d'éthique de l'Université de Lausanne et la Haute école de gestion de Neuchâtel au cours des années académiques 2000-2002.
Resumo:
D'après S. Bulgakov, c'est chez W. Humboldt qu'il trouve les idées implicites les plus fondamentales aur le genèse de la parole et du langage, le lien entre la forme et le contenu. Dans son livre "La Philosophie du nom"(Filosofija imeni) il lui consacre un chapitre "Le Langage d'après Humboldt". La question essentielle qui intéresse Bulgakov est de savoir comment se passe le preocessus du lien entre le nom et la chose. De l'autre côté, Bulgakov intervient en tant que continuateur des idées des Pères de l'Eglise orientale: Denys l'Aréopagite, Saint Grégoire de Nysse. Bulgakov, comme ses précurseurs néoplatoniciens, insiste sur la nécessité de comprendre la capacité humaine de parler comme expression divine.
Resumo:
Popularizing science without the support of scholars. Jean Lanteires and the Journal de Lausanne (1786-1792). - Founded in 1786 by Jean Lanteires, the Journal de Lausanne is a widespread, weekly journal with the express aim of disseminating scientific knowledge among the lower and middle classes. Its articles are easily comprehensible and cover a wide range of topics from literature to agriculture, from natural sciences to charity. Considerable space is given to reader's questions and comments. The journal can be situated somewhere between an almanac and a scientific journal. Lanteires' attempt to solicit contributions from scholars of medicine and natural sciences received a dismissive response. Of the few articles written by specialists, the majority deal with agriculture and charity. Lanteires' difficult relationship with the scholarly community is reflected in the journal's content. This makes the Journal de Lausanne a privileged observatory for studying the social context of the vulgarization process in late-eighteenth-century Switzerland and Europe.
Resumo:
Summary Inorganic phosphate (Pi) is a main limiting nutrient to the growth and production yield of plants in many agro-ecosystems. Plants have evolved a series of metabolic and developmental adaptations to cope with low Pi availability. PH01 has been identified as a protein involved in the loading of Pi into the xylem of roots in Arabidopsis. In this study, the PHO1 gene family in both higher plant Arabidopsis and lower plant Physcomitrella was characterized. Additional ten PHO1 homologues in Arabidopsis and three homologues in Physcomitrella were identified. All proteins harbor a SPX tripartite domain in the N-terminal hydrophilic portion and an EXS domain in the highly conserved C-terminal hydrophobic portion. RT-PCR analysis of the Arabidopsis PHO1 genes revealed a broad pattern of expression in leaves, roots, stems, and flowers for most genes, although two genes are expressed exclusively in flowers, indicating their potential roles not only in Pi transport but also in Pi homeostasis within the Arabidopsis plant. The regulation of gene expression by different nutrient-starvations showed that some genes are strongly up-regulated by elements other than Pi, e.g. by NO3, Mg, and Zn starvation. Northern blot and RT-PCR analysis showed distinct expression patterns of the three Physcomitrella PHO1 genes. The investigation of Pi starvation effects on some Pi-deprivation responsive genes demonstrates that Physcomitrella has evolved a similar mechanism as higher plants to respond to Pi deficiency. Promoter activity analysis for the Physcomitrella PHO1 family genes using promoter-GUS fusions revealed their expression in protonemata and gametophores but at different levels and with different patterns, suggesting these genes may play distinct roles in Pi transport and/or Pi homeostasis in the moss plant. Single knockout mutants of the three genes were generated by gene targeting and one of them displayed a reduced Pi content in the protonemata under Pi starvation. The evolution of the PHO1 family in land plants was also discussed. Together, these findings indicate that the PHO1 family genes, present in a broad range of plant species from lower plants to flowering plants, play important roles in Pi transport and homeostasis. Résumé Le phosphate inorganique (Pi) est un nutriment essentiel à la croissance des plantes et au rendement de la production végétale. Dans beaucoup d'agro-écosystèmes, ce nutriment est limitant. Les plantes ont développé des adaptations métaboliques et développementales pour palier à la faible disponibilité du Pi. Il a été démontré que la protéine PHOI est indispensable au transfert du Pi dans le xylème des racines d' Arabidopsis. Cette étude porte sur la famille de gènes définie par PHO1 ; ceci, dans deux organismes modèles : la plante Arabidopsis pour les végétaux supérieurs, et la mousse Physcomitrella pour les végétaux inférieurs. Dix homologues à PHOI dans Arabidopsis et trois homologues dans Physcomitrella ont été identifiés. Toutes les protéines encodées présentent un domaine tripartite SPX dans leur partie N terminale hydrophile et un domaine EXS dans la partie C terminale hydrophobe hautement conservée d'entre eux. L'analyse par RT-PCR de l'expression des gènes PHO1 dans Arabidopsis révèle une expression ectopique pour la plupart, à l'exception de deux gènes dont l'expression est uniquement florale ; ceci suggère l'implication de cette famille non seulement dans le transport mais aussi dans l'homéostasie du Pi dans Arabidopsis. L'observation de l'expression de ces gènes en fonction de l'absence de différents nutriments montre que certains gènes sont fortement régulés lors de carences en NO3, Mg et Zn. L'analyse par northern blot et RT-PCR met en évidence des profils d'expression distincts pour les trois gènes de Physcomitrella. Les effets de la carence en Pi sur Physcomitrella ont été étudiés par le biais de gènes dépendants connus pour Arabidopsis, les résultats suggèrent un mode de réponse à cette carence conservé entre les végétaux inférieurs et supérieurs. La localisation tissulaire de l'expression de la famille PHO1 dans la mousse a été étudiée au moyen du gène rapporteur GUS fusionné aux différents promoteurs. Ceci a révélé leur expression dans les protonemata et les gametophores, mais à des intensités et avec des profils différents, ce qui suggère des implications distinctes dans le transport et/ou l'homéostasie du Pi dans la mousse. Des simples mutants knockout ont été générés pour chaque gène de mousse ; l'un d'eux présente une diminution du contenu protonemal en Pi lorsque soumis à une carence en Pi. L'évolution de la famille PHO1 dans les plantes terrestres est également discutée. Ensemble, ces résultats indiquent que les gènes de la famille PHO1 sont présents dans une large gamme de plantes allant des végétaux inférieurs aux supérieurs, et cette étude démontre que leur conservation se justifie potentiellement par le fait qu'ils sont probablement impliqués dans des mécanismes conservés de transport et d'homéostasie du Pi.
Resumo:
Les deux notions, migrations d'une part et développement d'autre part, sont en elles-mêmes complexes, les mettre en relation amplifie cette complexité. Il n'est pas dans notre intention d'introduire un débat sur leur histoire, l'évolution de leur approche et les multiples définitionss possibles, mais simplement de préciser un cadrage scientifique privilégiant une nouvelle catégorie d'acteurs. La formulation du titre du livre, émigrés/immigrés, n'avait pas pour seul objectif de rappeler le double regard porté sur les migrations internationales, celui du pays de départ ou celui du pays d'arrivée, mais d'énoncer une construction signifiant les évolutions récentes dans le champ des pratiques migratoires. Pays d'origine, d'arrivée ou d'installation, de transits et de rebond, font partie d'un même espace migratoire qu'il s'avère nécessaire d'appréhender dans sa globalité si l'on souhaite comprendre les mutations en cours. Ce livre s'est donc intéressé à l'ensemble de la réalité migratoire, le migrant étant à la fois émigré et immigré, ce qui signifie la prise en compte des effets de cette présence pour les pays d'acceuil et d'installation et les pays d'origine. Quant au développement, nous sommes dans le registre des "concepts valise" chacun le définissant à sa manière. Notion polysémique par excellence, une multitude de qualificatifs lui ont été accolés : il peut être rural ou urbain, endogène ou exogène, local ou global, durable ou soutenable. Il s'agirait d'un "concept magique", permettant pour des personnes et des espaces, de passer de moins de production à plus de production, de moins de souffrance à plus de confort, du "moins être"à un bien-être social, économique et politique...
Resumo:
Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
(Résumé de l'ouvrage) Les textes recueillis dans ce premier tome sont des apocryphes, ce qui signifie qu'en dépit d'un contenu comparable à celui des Écritures ils n'appartiennent pas au canon. En effet, soit ils s'écartent de la doctrine officielle de l'Église en véhiculant des idées hétérodoxes, soit ils font trop appel au merveilleux, aspect dont l'Église s'est toujours méfiée. Les textes de ce volume relèvent de l'Antiquité chrétienne et recoupent différents genres bibliques : évangiles, épîtres, Actes des apôtres, apocalypses.
Resumo:
Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.