66 resultados para semi-empirical modeling
Resumo:
This paper presents general problems and approaches for the spatial data analysis using machine learning algorithms. Machine learning is a very powerful approach to adaptive data analysis, modelling and visualisation. The key feature of the machine learning algorithms is that they learn from empirical data and can be used in cases when the modelled environmental phenomena are hidden, nonlinear, noisy and highly variable in space and in time. Most of the machines learning algorithms are universal and adaptive modelling tools developed to solve basic problems of learning from data: classification/pattern recognition, regression/mapping and probability density modelling. In the present report some of the widely used machine learning algorithms, namely artificial neural networks (ANN) of different architectures and Support Vector Machines (SVM), are adapted to the problems of the analysis and modelling of geo-spatial data. Machine learning algorithms have an important advantage over traditional models of spatial statistics when problems are considered in a high dimensional geo-feature spaces, when the dimension of space exceeds 5. Such features are usually generated, for example, from digital elevation models, remote sensing images, etc. An important extension of models concerns considering of real space constrains like geomorphology, networks, and other natural structures. Recent developments in semi-supervised learning can improve modelling of environmental phenomena taking into account on geo-manifolds. An important part of the study deals with the analysis of relevant variables and models' inputs. This problem is approached by using different feature selection/feature extraction nonlinear tools. To demonstrate the application of machine learning algorithms several interesting case studies are considered: digital soil mapping using SVM, automatic mapping of soil and water system pollution using ANN; natural hazards risk analysis (avalanches, landslides), assessments of renewable resources (wind fields) with SVM and ANN models, etc. The dimensionality of spaces considered varies from 2 to more than 30. Figures 1, 2, 3 demonstrate some results of the studies and their outputs. Finally, the results of environmental mapping are discussed and compared with traditional models of geostatistics.
Resumo:
Summary: Detailed knowledge on tumor antigen expression and specific immune cells is required for a rational design of immunotherapy for patients with tumor invaded liver. In this study, we confirmed that Cancer/Testis (CT) tumor-associated antigens are frequently expressed in hepatocellular carcinoma (HCC) and searched for the presence of CD8+ T cells specific for these antigens. In 2/10 HLA-A2+ patients with HCC, we found that MAGE-A10 and/or SSX-2 specific CD8+ T cells naturally responded to the disease, since they were enriched in tumor lesions but not in non-tumoral liver. Isolated T cells specifically and strongly killed tumor cells in vitro, suggesting that these CTL were selected in vivo for high avidity antigen recognition, providing the rational for specific immunotherapy of HCC, based on immunization with CT antigens such as MAGE-Al 0 and SSX-2. Type 1 NKT cells express an invariant TCR α chain (Vα24.1α18, paired with Vβ11 in human) and share a specific reactivity to αGalactosylceramide (αGC) presented by CD1d. These cells can display paradoxical immuno-regulatory properties including strong anti-tumor effects upon αGC administration in murine models. To understand why NKT cells were not sufficiently protective against tumor development in patients with tumor invaded liver, we characterized the diversity of Vα24/Vβ11 NKT cells in healthy donors (HD) and cancer patients: NKT cells from HD and patients were generally diverse in terms of TCR β chain (Vβ11) variability and NKT cells from HD showed a variable recognition of αGC loaded CD 1 d multimers. Vα24/ Vβ11 NKT cells can be divided in 3 populations, the CD4, DN (CD4-/CD8-) and CD8 NKT cell subsets that show distinct ability of cytokine production. In addition, our functional analysis revealed that DN and CD8 subsets displayed a higher cytolytic potential and a weaker IFNγ release than the CD4 NKT cell subset. NKT cell subsets were variably represented in the blood of HD and cancer patients. However, HD with high NKT cell frequencies displayed an enrichment of the DN and CD8 subsets, and few of them were suggestive of an oligoclonal expansion in vivo. Comparable NKT cell frequencies were found between blood, non-tumoral liver and tumor of patients. In contrast, we identified a gradual enrichment of CD4 NKT cells from blood to the liver and to the tumor, together with a decrease of DN and CD8 NKT cell subsets. Most patient derived NKT cells were unresponsive upon αGalactosylceramide stimulation ex vivo; NKT cells from few patients displayed a weak responsiveness with different cytokine polarization. The NKT cell repertoire was thus different in tumor tissue, suggesting that CD4 NKT cells infiltrating tumors may be detrimental for protection against tumors and instead may favour the tumor growth/recurrence as recently reported in mice. Résumé en français scientifique : Afin de développer le traitement des patients porteurs d'une tumeur dans le foie par immunothérapie, de nouvelles connaissances sont requises concernant l'expression d'antigènes par les tumeurs et les cellules immunitaires spécifiques de ces antigènes. Nous avons vérifié que des antigènes associés aux tumeurs, tels que les antigènes « Cancer-Testis » (CT), sont fréquemment exprimés par le carcinome hepatocéllulaire (CHC). La recherche de lymphocytes T CD8+ spécifiques (CTL) de ces antigènes a révélé que des CTL spécifiques de MAGE-A10 et/ou SSX-2 ont répondu naturellement à la tumeur chez 2/10 patients étudiés. Ces cellules étaient présentes dans les lésions tumorales mais pas dans le foie adjacent. De plus, ces CTL ont démontré une activité cytolytique forte et spécifique contre les cellules tumorales in vitro, ce qui suggère que ces CTL ont été sélectionnés pour une haute avidité de reconnaissance de l'antigène in vivo. Ces données fournissent une base pour l'immunothérapie spécifique du CHC, en proposant de cibler les antigènes CT tels que MAGE-A10 ou SSX-2. Les cellules NKT de type 1 ont une chaîne α de TCR qui est invariante (chez l'homme, Vα24Jα18, apparié avec Vβ11) et reconnaissent spécifiquement l'αGalactosylceramide (αGC) présenté par CD1d. Ces cellules ont des propriétés immuno¬régulatrices qui peuvent être parfois contradictoires et leur activation par l'αGC induit une forte protection anti-tumorale chez la souris: Afin de comprendre pourquoi ces cellules ne sont pas assez protectrices contre le développement des tumeurs dans le foie chez l'homme, nous avons étudié la diversité des cellules NKT Vα24/Vβ11 d'individus sains (IS) et de patients cancéreux. Les cellules NKT peuvent être sous-divisées en 3 populations : Les CD4, DN (CD4- /CD8-) ou CDS, qui ont la capacité de produire des cytokines différentes. Nos analyses fonctionnelles ont aussi révélé que les sous-populations DN et CD8 ont un potentiel cytolytique plus élevé et une production d'IFNγ plus faible que la sous-population CD4. Ces sous-populations sont représentées de manière variable dans le sang des IS ou des patients. Cependant, les IS avec un taux élevé de cellules NKT ont un enrichissement des sous- populations DN ou CDS, et certains suggèrent qu'il s'agit d'une expansion oligo-clonale in vivo. Les patients avaient des fréquences comparables de cellules NKT entre le sang, le foie et la tumeur. Par contre, la sous-population CD4 était progressivement enrichie du sang vers le foie et la tumeur, tandis que les sous-populations DN ou CD8 était perdues. La plupart des cellules NKT des patients ne réagissaient pas lors de stimulation avec l'αGC ex vivo et les cellules NKT de quelques patients répondaient faiblement et avec des polarisations de cytokines différentes. Ces données suggèrent que les cellules NKT CD4, prédominantes dans les tumeurs, sont inefficaces pour la lutte anti-tumorale et pourraient même favoriser la croissance ou la récurrence tumorale. Donc, une mobilisation spécifique des cellules NKT CD4 négatives par immunothérapie pourrait favoriser l'immunité contre des tumeurs chez l'homme. Résumé en français pour un large public Au sein des globules blancs, les lymphocytes T expriment un récepteur (le TCR), qui est propre à chacun d'entre eux et leur permet d'accrocher de manière très spécifique une molécule appelée antigène. Ce TCR est employé par les lymphocytes pour inspecter les antigènes associés avec des molécules présentatrices à la surface des autres cellules. Les lymphocytes T CD8 reconnaissent un fragment de protéine (ou peptide), qui est présenté par une des molécules du Complexe Majeur d'Histocompatibilité de classe I et tuent la cellule qui présente ce peptide. Ils sont ainsi bien adaptés pour éliminer les cellules qui présentent un peptide issu d'un virus quand la cellule est infectée. D'autres cellules T CD8 reconnaissent des peptides comme les antigènes CT, qui sont produits anormalement par les cellules cancéreuses. Nous avons confirmé que les antigènes CT sont fréquemment exprimés par le cancer du foie. Nous avons également identifié des cellules T CD8 spécifiques d'antigènes CT dans la tumeur, mais pas dans le foie normal de 2 patients sur 10. Cela signifie que ces lymphocytes peuvent être naturellement activés contre la tumeur et sont capables de la trouver. De plus les lymphocytes issus d'un patient ont démontré une forte sensibilité pour reconnaître l'antigène et tuent spécifiquement les cellules tumorales. Les antigènes CT représentent donc des cibles intéressantes qui pourront être intégrés dans des vaccins thérapeutiques du cancer du foie. De cette manière, les cellules T CD8 du patient lui-même pourront être induites à détruire de manière spécifique les cellules cancéreuses. Un nouveau type de lymphocytes T a été récemment découvert: les lymphocytes NKT. Quand ils reconnaissent un glycolipide présenté par la molécule CD1d, ils sont capables, de manière encore incomprise, d'initier, d'augmenter, ou à l'inverse d'inhiber la défense immunitaire. Ces cellules NKT ont démontré qu'elles jouent un rôle important dans la défense contre les tumeurs et particulièrement dans le foie des souris. Nous avons étudié les cellules NKT de patients atteints d'une tumeur dans le foie, afin de comprendre pourquoi elles ne sont pas assez protectrice chez l'homme. Les lymphocytes NKT peuvent être sous-divisés en 3 populations: Les CD4, les DN (CD4-/CD8-) et les CD8. Ces 3 classes de NKT peuvent produire différents signaux chimiques appelés cytokines. Contrairement aux cellules NKT DN ou CDS, seules les cellules NKT CD4 sont capables de produire des cytokines qui sont défavorables pour la défense anti-tumorale. Par ailleurs nous avons trouvé que les cellules NKT CD4 tuent moins bien les cellules cancéreuses que les cellules NKT DN ou CD8. L'analyse des cellules NKT, fraîchement extraites du sang, du foie et de la tumeur de patients a révélé que les cellules NKT CD4 sont progressivement enrichies du sang vers le foie et la tumeur. La large prédominance des NKT CD4 à l'intérieur des tumeurs suggère que, chez l'homme, ces cellules sont inappropriées pour la lutte anti-tumorale. Par ailleurs, la plupart des cellules NKT de patients n'étaient pas capables de produire des cytokines après stimulation avec un antigène. Cela explique également pourquoi ces cellules ne protègent pas contre les tumeurs dans le foie.
Resumo:
L'utilisation de l'Internet comme medium pour faire ses courses et achats a vu une croissance exponentielle. Cependant, 99% des nouveaux business en ligne échouent. La plupart des acheteurs en ligne ne reviennent pas pour un ré-achat et 60% abandonnent leur chariot avant de conclure l'achat. En effet, après le premier achat, la rétention du consommateur en ligne devient critique au succès du vendeur de commerce électronique. Retenir des consommateurs peut sauver des coûts, accroître les profits, et permet de gagner un avantage compétitif.Les recherches précédentes ont identifié la loyauté comme étant le facteur le plus important dans la rétention du consommateur, et l'engagement ("commitment") comme étant un des facteurs les plus importants en marketing relationnel, offrant une réflexion sur la loyauté. Pourtant, nous n'avons pu trouver d'étude en commerce électronique examinant l'impact de la loyauté en ligne et de l'engagement en ligne ("online commitment") sur le ré-achat en ligne. Un des avantages de l'achat en ligne c'est la capacité à chercher le meilleur prix avec un clic. Pourtant, nous n'avons pu trouver de recherche empirique en commerce électronique qui examinait l'impact de la perception post-achat du prix sur le ré-achat en ligne.L'objectif de cette recherche est de développer un modèle théorique visant à comprendre le ré-achat en ligne, ou la continuité d'achat ("purchase continuance") du même magasin en ligne.Notre modèle de recherche a été testé dans un contexte de commerce électronique réel, sur un échantillon total de 1,866 vrais acheteurs d'un même magasin en ligne. L'étude est centrée sur le ré-achat. Par conséquent, les répondants sélectionnés aléatoirement devaient avoir acheté au moins une fois de ce magasin en ligne avant le début de l'enquête. Cinq mois plus tard, nous avons suivi les répondants pour voir s'ils étaient effectivement revenus pour un ré-achat.Notre analyse démontre que l'intention de ré-achat en ligne n'a pas d'impact significatif sur le ré-achat en ligne. La perception post-achat du prix en ligne ("post-purchase Price perception") et l'engagement normatif en ligne ("Normative Commitment") n'ont pas d'impact significatif sur l'intention de ré-achat en ligne. L'engagement affectif en ligne ("Affective Commitment"), l'attitude loyale en ligne ("Attitudinal Loyalty"), le comportement loyal en ligne ("Behavioral Loyalty"), l'engagement calculé en ligne ("Calculative Commitment") ont un impact positif sur l'intention de ré-achat en ligne. De plus, l'attitude loyale en ligne a un effet de médiation partielle entre l'engagement affectif en ligne et l'intention de ré-achat en ligne. Le comportement loyal en ligne a un effet de mediation partielle entre l'attitude loyale en ligne et l'intention de ré-achat en ligne.Nous avons réalisé deux analyses complémentaires : 1) Sur un échantillon de premiers acheteurs, nous trouvons que la perception post-achat du prix en ligne a un impact positif sur l'intention de ré-achat en ligne. 2) Nous avons divisé l'échantillon de l'étude principale entre des acheteurs répétitifs Suisse-Romands et Suisse-Allemands. Les résultats démontrent que les Suisse-Romands montrent plus d'émotions durant l'achat en ligne que les Suisse-Allemands. Nos résultats contribuent à la recherche académique mais aussi aux praticiens de l'industrie e-commerce.AbstractThe use of the Internet as a shopping and purchasing medium has seen exceptional growth. However, 99% of new online businesses fail. Most online buyers do not comeback for a repurchase, and 60% abandon their shopping cart before checkout. Indeed, after the first purchase, online consumer retention becomes critical to the success of the e-commerce vendor. Retaining existing customers can save costs, increase profits, and is a means of gaining competitive advantage.Past research identified loyalty as the most important factor in achieving customer retention, and commitment as one of the most important factors in relationship marketing, providing a good description of what type of thinking leads to loyalty. Yet, we could not find an e-commerce study investing the impact of both online loyalty and online commitment on online repurchase. One of the advantages of online shopping is the ability of browsing for the best price with one click. Yet, we could not find an e- commerce empirical research investigating the impact of post-purchase price perception on online repurchase.The objective of this research is to develop a theoretical model aimed at understanding online repurchase, or purchase continuance from the same online store.Our model was tested in a real e-commerce context with an overall sample of 1, 866 real online buyers from the same online store.The study focuses on repurchase. Therefore, randomly selected respondents had purchased from the online store at least once prior to the survey. Five months later, we tracked respondents to see if they actually came back for a repurchase.Our findings show that online Intention to repurchase has a non-significant impact on online Repurchase. Online post-purchase Price perception and online Normative Commitment have a non-significant impact on online Intention to repurchase, whereas online Affective Commitment, online Attitudinal Loyalty, online Behavioral Loyalty, and online Calculative Commitment have a positive impact on online Intention to repurchase. Furthermore, online Attitudinal Loyalty partially mediates between online Affective Commitment and online Intention to repurchase, and online Behavioral Loyalty partially mediates between online Attitudinal Loyalty and online Intention to repurchase.We conducted two follow up analyses: 1) On a sample of first time buyers, we find that online post-purchase Price perception has a positive impact on Intention. 2) We divided the main study's sample into Swiss-French and Swiss-German repeated buyers. Results show that Swiss-French show more emotions when shopping online than Swiss- Germans. Our findings contribute to academic research but also to practice.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
In occupational exposure assessment of airborne contaminants, exposure levels can either be estimated through repeated measurements of the pollutant concentration in air, expert judgment or through exposure models that use information on the conditions of exposure as input. In this report, we propose an empirical hierarchical Bayesian model to unify these approaches. Prior to any measurement, the hygienist conducts an assessment to generate prior distributions of exposure determinants. Monte-Carlo samples from these distributions feed two level-2 models: a physical, two-compartment model, and a non-parametric, neural network model trained with existing exposure data. The outputs of these two models are weighted according to the expert's assessment of their relevance to yield predictive distributions of the long-term geometric mean and geometric standard deviation of the worker's exposure profile (level-1 model). Bayesian inferences are then drawn iteratively from subsequent measurements of worker exposure. Any traditional decision strategy based on a comparison with occupational exposure limits (e.g. mean exposure, exceedance strategies) can then be applied. Data on 82 workers exposed to 18 contaminants in 14 companies were used to validate the model with cross-validation techniques. A user-friendly program running the model is available upon request.
Resumo:
Tractography is a class of algorithms aiming at in vivo mapping the major neuronal pathways in the white matter from diffusion magnetic resonance imaging (MRI) data. These techniques offer a powerful tool to noninvasively investigate at the macroscopic scale the architecture of the neuronal connections of the brain. However, unfortunately, the reconstructions recovered with existing tractography algorithms are not really quantitative even though diffusion MRI is a quantitative modality by nature. As a matter of fact, several techniques have been proposed in recent years to estimate, at the voxel level, intrinsic microstructural features of the tissue, such as axonal density and diameter, by using multicompartment models. In this paper, we present a novel framework to reestablish the link between tractography and tissue microstructure. Starting from an input set of candidate fiber-tracts, which are estimated from the data using standard fiber-tracking techniques, we model the diffusion MRI signal in each voxel of the image as a linear combination of the restricted and hindered contributions generated in every location of the brain by these candidate tracts. Then, we seek for the global weight of each of them, i.e., the effective contribution or volume, such that they globally fit the measured signal at best. We demonstrate that these weights can be easily recovered by solving a global convex optimization problem and using efficient algorithms. The effectiveness of our approach has been evaluated both on a realistic phantom with known ground-truth and in vivo brain data. Results clearly demonstrate the benefits of the proposed formulation, opening new perspectives for a more quantitative and biologically plausible assessment of the structural connectivity of the brain.
Resumo:
Résumé Rôle des paramètres sociopolitiques et des connaissances dans la gestion des risques hydrologiques¦La recherche analyse (1) la mise en oeuvre de la gestion des risques hydrologiques et (2) les connaissances dont disposent les acteurs sur ces derniers, ainsi que (3) les interdépendances entre ces deux volets. Au total, trois études de cas ont été réalisées dont deux études régionales (ville de Berne, commune de Saillon) et une étude sur un acteur spécifique (les corporations de digues dans le canton de Berne). Les données empiriques ont été obtenues par des entretiens oraux semi-directifs et des enquêtes écrites.¦La gestion des risques hydrologiques est fortement influencée par des paramètres sociopolitiques, c'est-à-dire par les intérêts et les objectifs des acteurs, par les rapports de force entre ceux-ci ainsi que par les processus de négociation et de décision. Dans la pratique, les démarches de gestion se restreignent toutefois majoritairement aux aspects physiques, techniques et administratifs des risques hydrologiques. La dimension sociopolitique est ainsi négligée, ce qui est source de conflits qui ralentissent considérablement la planification de la protection contre les crues, voire la bloquent même complètement. La gestion des risques hydrologiques est en outre largement focalisée sur la réduction des aléas. Lés débats sur la vulnérabilité sont nettement plus rares bien qu'ils soient indispensables lorsqu'il s'agit de traiter les risques de façon holistique.¦Etant donné l'importance de la dimension sociopolitique et de la vulnérabilité, il est nécessaire que les démarches prévues dans la gestion des risques hydrologiques soient reconsidérées et adaptées. De plus, une meilleure intégration de tous les acteurs concernés est primordiale afin de trouver des solutions qui soient acceptables pour une majorité. Pour l'instant, le recours à des instruments de négociation est insuffisant.¦Les connaissances des risques hydrologiques et de leur gestion peuvent être classées en quatre répertoires (connaissances du système, de l'événement, de l'intervention et connaissances sociopolitiques) qui influent tous sur la réduction des risques. Parmi les facteurs les plus importants susceptibles de déclencher des transformations se trouvent l'occurrence de crues, la réalisation d'études (portant sur les aléas, la vulnérabilité, les mesures, etc.), l'échange de connaissances entre les acteurs, ainsi que la recherche de solutions lors de la gestion.¦Les caractéristiques des connaissances varient considérablement selon les acteurs. L'appartenance à un groupe donné ne permet toutefois pas à elle seule de déterminer l'état des connaissances : tous les acteurs peuvent avoir des connaissances pertinentes pour la gestion des risques. Les différences entre les acteurs rendent pourtant la communication compliquée. Ce problème pourrait être atténué par des médiateurs qui assureraient un travail de traduction. Dans la pratique, de telles instances manquent généralement.¦La gestion et les connaissances des risques hydrologiques sont fortement interdépendantes. L'état et les caractéristiques des connaissances déterminent directement la qualité de la protection contre les crues. Des lacunes ou des imprécisions peuvent donc entraîner une gestion non adaptée aux risques présents. Afin d'éviter une telle situation, il est important que les connaissances sur les risques hydrologiques et sur les possibilités d'y faire face soient régulièrement remises à jour. Ne devant pas se restreindre à l'expérience de crues passées, il est impératif qu'elles contiennent aussi des réflexions prospectives et des scénarios novateurs.¦La gestion n'est pas seulement demandeuse en connaissances, elle est également susceptible d'en générer de nouvelles et d'élargir les connaissances existantes. Il convient donc de considérer la création et le transfert de connaissances comme une tâche centrale de la gestion des risques.¦Zusammenfassung Die Rolle der soziopolitischen Parameter und des Wissens im Umgang mit hydrologischen Risiken¦Die Arbeit untersucht drei Themenbereiche: (1) den soziopolitischen Umgang mit hydrologischen Risiken, (2) das Wissen, über das die Akteure bezüglich der Hochwasserrisiken verfügen sowie (3) die Wechselwirkungen zwischen diesen beiden Themenfeldern. Insgesamt wurden drei Fallstudien durchgeführt, darunter zwei regionale Studien (Stadt Bern, Gemeinde Saillon) und eine Untersuchung eines spezifischen Akteurs (Schwellenkorporationen im Kanton Bern). Die empirischen Daten wurden anhand von halbstandardisierten Interviews und schriftlichen Umfragen erhoben.¦Das Management hydrologischer Risiken ist stark von soziopolitischen Parametern beeinflusst, d.h. von Interessen und Zielvorstellungen der Akteure, von Machtverhältnissen und von Verhandlungs- und Entscheidungsprozessen. Die in der Praxis vorgesehenen Schritte zur Reduktion der Hochwasserrisiken beschränken sich jedoch meist auf die physischen, administrativen und technischen Aspekte der Risiken. Die Vernachlässigung ihrer soziopolitischen Dimension führt zu Konflikten, welche die Planung von Hochwasserschutzprojekten deutlich verlangsamen oder gar blockieren. Des Weiteren konzentriert sich das Risikomanagement im Wesentlichen auf die Reduktion der Gefahren. Gesellschaftliche Debatten zur Vulnerabilität sind deutlich seltener, obschon sie für einen umfassenden Umgang mit Risiken unabdingbar sind.¦Angesichts der Bedeutung der soziopolitischen Dimension und der Vulnerabilität ist es notwendig, dass die Vorgehensweise im Risikomanagement überdacht und angepasst wird. Zudem ist eine bessere Integration aller betroffener Akteure unablässig, um mehrheitsfähige Lösungen zu finden. Zur Zeit ist der Rückgriff auf entsprechende Instrumente ungenügend.¦Das Wissen über hydrologische Risiken und deren Management kann in vier Repertoires eingeteilt werden (Systemwissen, Ereigniswissen, Interventionswissen, soziopolitisches Wissen), die alle bei der Reduktion von Risiken bedeutsam sind. Zu den wichtigsten Faktoren, die Wissenstransformationen auslösen, gehören Hochwasserereignisse, die Durchführung von Studien (zu Gefahren, zur Vulnerabilität, zu Massnahmen usw.), der Wissensaustausch zwischen Akteuren und die Suche nach Lösungen während des Risikomanagements.¦Die Merkmale der Wissensformen unterschieden sich stark zwischen den verschiedenen Akteuren. Die Zugehörigkeit eines Akteurs zu einer bestimmten Gruppe ist jedoch kein ausreichendes Kriterium, um dessen Wissensstand zu bestimmen: Alle Akteure können über Wissen verfügen, das für den Umgang mit Risiken relevant ist. Die Unterschiede zwischen den Akteuren gestalten die Kommunikation allerdings schwierig. Das Problem liesse sich entschärfen, indem Mediatoren eingesetzt würden, die als Übersetzer und Vermittler agierten. In der Praxis fehlen solche Instanzen weitgehend.¦Zwischen dem Umgang mit hydrologischen Risken und dem Wissen bestehen enge Wechselwirkungen. Der Zustand und die Eigenschaften der Wissensformen bestimmen direkt die Qualität des Hochwasserschutzes. Lückenhaftes und unpräzises Wissen kann demnach zu einem Risikomanagement führen, das den tatsächlichen Gegebenheiten nicht angepasst ist. Um eine solche Situation zu verhindern, muss das Wissen über Risiken und Hochwasserschutz regelmässig aktualisiert werden. Dabei darf es sich nicht auf die Erfahrung vergangener Hochwasser beschränken, sondern hat auch vorausschauende Überlegungen und neuartige Szenarien einzubeziehen.¦Das Risikomanagement benötigt nicht nur Wissen, es trägt auch dazu bei, neues Wissen zu t generieren und bestehendes zu erweitern. Die Erarbeitung und der Transfer von Wissen sind deshalb als zentrale Aufgaben des Risikomanagements zu betrachten.¦Abstract¦The role of socio-political parameters and of knowledge in the management of hydrological risks¦The purpose of the thesis is to analyse (1) the socio-political management of hydrological risks, (2) the knowledge about hydrological risks, and (3) the interaction between risk management and knowledge. Three case studies were carried out, two at a regional level (city of Berne, village of Saillon) and one about a specific stakeholder (the dyke corporations in the canton of Berne). Empirical data were collected by the means of semi-structured interviews and surveys.¦The management of hydrological risks is highly influenced by socio-political issues, i.e. by interests and goals of stakeholders, by the balance of power between stakeholders, as well as by negotiations and decision-making processes. In practice, however, risk management is mainly constrained by physical, technical, and administrative aspects. The neglect of the socio-political dimension may thus be the source of conflicts which significantly delay the planning and implementation of flood protection measures, or even stop them. Furthermore, risk management mostly concentrates on hazard reduction. Discussions on vulnerability issues are less frequent although they are fundamental for treating risks in a holistic manner.¦Because of the importance of the social-political dimension and of vulnerability issues, it is necessary that the common approach of managing hydrological risks is reconsidered and adapted. Moreover, the integration of all stakeholders that are concerned with hydrological risks is essential for finding solutions which are supported by a majority. For instance, the application of appropriate negotiation instruments is insufficient.¦Knowledge about hydrological risks and their management can be classified into four categories (system knowledge, event knowledge, intervention knowledge, socio-political knowledge) which are all influencing the reduction of risks. Among the most important factors that are likely to trigger knowledge transformations, one can point out flood events, studies about risk parameters (hazards, vulnerability, protection measures, etc.), knowledge exchange between stakeholders, and the search for solutions during risk management.¦The characteristics of knowledge vary considerably between stakeholders. The affiliation to a specific group is thus not a sufficient criterion to determine the quality of a stakeholder's knowledge: every stakeholder may have knowledge that is relevant for risk management. However, differences between stakeholders complicate the communication. This problem could be attenuated by mediators which ensure the translation between stakeholders. In practice, such instances are generally lacking.¦The management and knowledge of hydrological risks are highly interdependent. The state and the characteristics of the four categories of knowledge determine directly the quality of flood protection. Gaps and imprecison may thus lead to forms of management which are not adapted to the actual risks. This kind of situation can be avoided by updating regularly the knowledge about hydrological risks and about protection measures. However, knowledge must not be restricted to the experience of past floods. On the contrary, it is indispensable also to involve prospective reflections and new scenarios.¦Risk management does not only require knowledge, it may also generate new knowledge and enlarge existing knowledge. The creation and the transfer of knowledge has thus to be seen as a central task in risk management.
Resumo:
Recent studies have pointed out a similarity between tectonics and slope tectonic-induced structures. Numerous studies have demonstrated that structures and fabrics previously interpreted as of purely geodynamical origin are instead the result of large slope deformation, and this led in the past to erroneous interpretations. Nevertheless, their limit seems not clearly defined, but it is somehow transitional. Some studies point out continuity between failures developing at surface with upper crust movements. In this contribution, the main studies which examine the link between rock structures and slope movements are reviewed. The aspects regarding model and scale of observation are discussed together with the role of pre-existing weaknesses in the rock mass. As slope failures can develop through progressive failure, structures and their changes in time and space can be recognized. Furthermore, recognition of the origin of these structures can help in avoiding misinterpretations of regional geology. This also suggests the importance of integrating different slope movement classifications based on distribution and pattern of deformation and the application of structural geology techniques. A structural geology approach in the landslide community is a tool that can greatly support the hazard quantification and related risks, because most of the physical parameters, which are used for landslide modeling, are derived from geotechnical tests or the emerging geophysical approaches.
Resumo:
Natural selection is typically exerted at some specific life stages. If natural selection takes place before a trait can be measured, using conventional models can cause wrong inference about population parameters. When the missing data process relates to the trait of interest, a valid inference requires explicit modeling of the missing process. We propose a joint modeling approach, a shared parameter model, to account for nonrandom missing data. It consists of an animal model for the phenotypic data and a logistic model for the missing process, linked by the additive genetic effects. A Bayesian approach is taken and inference is made using integrated nested Laplace approximations. From a simulation study we find that wrongly assuming that missing data are missing at random can result in severely biased estimates of additive genetic variance. Using real data from a wild population of Swiss barn owls Tyto alba, our model indicates that the missing individuals would display large black spots; and we conclude that genes affecting this trait are already under selection before it is expressed. Our model is a tool to correctly estimate the magnitude of both natural selection and additive genetic variance.
Resumo:
This dissertation aims to investigate empirical evidence on the importance and influence of attractiveness of nations in global competition. The notion of country attractiveness, which has been widely developed in the research areas of international business, tourism and migration, is a multi-dimensional construct to measure a country's characteristics with regard to its market or destination that attract international investors, tourists and migrants. This analytical concept provides an account of the mechanism as to how potential stakeholders evaluate more attractive countries based on certain criteria. Thus, in the field of international sport-event bidding, do international sport event owners also have specific country attractiveness for their sport event hosts? The dissertation attempts to address this research question by statistically assessing the effects of country attractiveness on the success of strategy for hosting international sports events. Based on theories of signaling and soft power, country attractiveness is defined and measured as the three dimensions of sustainable development: economic, social, and environmental attractiveness. This thesis proceeds to examine the concept of sport-event-hosting strategy and explore multi-level factors affecting the success in international sport-event bidding. By exploring past history of the Olympic Movement from theoretical perspectives, the thesis proposes and tests the hypotheses that economic, social and environmental attractiveness of a country may be correlated with its bid wins or the success of sport-event-hosting strategy. Quantitative analytical methods with various robustness checks are employed with using collected data on bidding results of major events in Olympic sports during the period from 1990 to 2012. The analysis results reveal that event owners of international Olympic sports are likely to prefer countries that have higher economic, social, and environmental attractiveness. The empirical assessment of this thesis suggests that high country attractiveness can be an essential element of prerequisites for a city/country to secure in order to bid with an increased chance of success.
Resumo:
RAPPORT DE SYNTHÈSE : Chez les patients présentant une pathologie de la colonne cervicale, l'instrumentation des voies aériennes peut s'avérer délicate. En effet, l'impossibilité d'effectuer une extension de la nuque afin d'aligner correctement l'axe oro-pharyngo-trachéal, ainsi que l'ouverture de bouche limitée par la présence d'une minerve cervicale, rendent la laryngoscopie standard extrêmement difficile. Le but de cette étude est de démontrer que l'intubation oro-trachéale avec une minerve cervicale semi-rigide est possible à l'aide d'un vidéolaryngoscope récemment développé, le GlideScope®. Celui-ci est formé d'une lame courbe présentant une angulation accentuée à 60° à partir de son milieu, avec une petite caméra haute résolution et une source lumineuse enchâssées dans la partie inférieure au point d'inflexion. Différents travaux ont montré les avantages du GlideScope® par rapport à la lame de Macintosh standard "pour l'instrumentation des voies aériennes de routine ou en situation difficile. Après acceptation par la Commission d'Ethique, 50 patients, adultes consentants et programmés pour une intervention chirurgicale élective nécessitant une anesthésie générale ont été inclus dans cette étude. Malgré la présence d'une minerve cervicale semi-rigide Philadelphia® Patriot correctement positionnée et la tête fixée à la table d'opération, tous les patients ont pu être intubés a l'aide du GlideScope®. Aucune complication n'a été documentée pendant la procédure ou en post-opératoire. De plus, nous avons démontré que dans cette situation la visualisation des structures laryngées est significativement améliorée grâce au GlideScope®, par rapport à la lame de Macintosh utilisée lors de toute intubation standard. En conclusion, l'intubation oro-trachéale chez les patients ayant une minerve cervicale et la tête fixée est possible à l'aide du GlideScope®. La meilleure façon de sécuriser les voies aériennes chez les patients présentant une instabilité de la colonne cervicale est un sujet fortement débattu. L'utilisation du GlideScope® pourrait s'avérer une alternative intéressante, en particulier dans les situations d'urgence.