151 resultados para Inductive Inference
Resumo:
Les muqueuses respiratoires, genitales et digestives sont continuellement exposées aux antigènes de l?alimentation, à la flore intestinale et aux pathogènes. Cela implique une activité immunologique intense et finement régulée dans ces tissus. On admet que la modulation de ces réponses immunitaires muqueuses s?effectue dans des organes sentinels spécifiques appelés o-MALT (organized mucosal associated lymphoid tissues). Ces processus de modulation et la biologie de ces sites immuno-inducteurs sont peu connus. Ceci est pourtant d?une grande relevance si l?on veut faire un design rationnel de drogues et de vaccins muqueux. Dans l?intestin grèle, ces organes sont composés de follicules multiples et sont appelés plaques de Peyer. Ils sont constitués de follicules enrichis en cellules B comprenant ou non un centre germinatif, de regions interfolliculaires comprenant des cellules T, et d?une région en d ome riche en cellules dendritiques, cellules B naives et cellules T CD4+, surmontée par un epithelium specialisé, le FAE (epithelium associé aux follicules). Le FAE contient des cellules M spécialisées dans le transport de macromolécules et micro-organismes de la lumière intestinale au tissu lymphoide sous-jacent. Ce transport des antigènes est une condition obligatoire pour induire une réponse immunitaire. Les cellules du FAE, outre les cellules M, expriment un programme de différenciation distinct de celui des cellules associées aux villosités. Ceci est characterisé par une baisse des fonctions digestives et de défenses, et l?expression constitutive des chimiokines: CCL20 et CCL25. Le but de l?étude présentée ici est de rechercher les facteurs cellulaires et/ou moléculaire responsables de cette différenciation. Certaines études ont démontré l?importance du contact entre le compartiment mésenchymateux et l?épithelium pour la morphogenèse de ce dernier. En particulier, les molécules de la matrice extracellulaire peuvent activer des gènes clefs qui, à leur tour, vont controler l?adhésion et la differenciation cellulaire. Dans l?intestin, les cellules mésenchymateuses différencient en myofibroblastes qui participent à l?élaboration de la matrice extracellulaire. Dans cette étude, nous avons décrit les différences d?expression de molécules de la matrices sous le FAE et les villosités. Nous avons également montré une absence de myofibroblastes sous le FAE. Suite à plusieurs évidences expérimentales, certains ont proposé une influence des composés présents dans la lumière sur la différenciation et/ou la maturation des plaques de Peyer. La chimiokine CCL20, capable de recruter des cellules initiatrices de la réponse immunitaire, constitue notre seul marqueur positif de FAE. Nous avons pu montrer que la flagelline, un composé du flagelle bactérien, était capable d?induire l?expression de CCL20 in vitro et in vivo. Cet effet n?est pas limité aux cellules du FAE mais est observé sur l?ensemble de l?épithelium intestinal. Molecular mechanisms of FAE differenciation. La signalement induit par la lymphotoxine ß est critique pour l?organogenèse des plaques de Peyer, car des souris déficientes pour cette molécules ou son récepteur n?ont ni plaque de Peyer, ni la plupart des ganglions lymphatiques. Nous avons obtenus plusieurs évidences que la lymphotoxine ß était impliquée dans la régulation du gène CCL20 in vitro et in vivo.<br/><br/>Mucosal surfaces of the respiratory, genital and digestive systems are exposed to food antigens, normal bacterial flora and oral pathogens. This justifies an intense and tuned immunological activity in mucosal tissues. The modulation of immune responses in the mucosa is thought to occur in specific sentinel sites, the organized mucosa associated lymphoid tissues (o-MALT). This immune modulation and the biology of these immune-inductive sites are poorly understood but highly important and relevant in the case of drugs and vaccines design. In the small intestine, these organs (gut associated lymphoid tissue : GALT) consists of single or multiple lymphoid follicles, the so-called Peyer?s patches (PP), with typical B cell-enriched follicles and germinal centers, inter-follicular T cell areas, and a dome region enriched in dendritic cells, naive B cells, and CD4+ T cells under a specialized follicle associated epithelium (FAE). To trigger protective immunity, antigens have to cross the mucosal epithelial barrier. This is achieved by the specialized epithelial M cells of the FAE that are able to take up and transport macromolecules and microorganisms from the environment into the underlying organized lymphoid tissue. The ontogeny of M cells remains controversial: some data are in favor of a distinct cell lineage, while others provide evidence for the conversion of differentiated enterocytes into M cells. In this study we mapped the proliferative, M cells and apoptotic compartments along the FAE. Enterocytes acquire transient M cell features as they leave the crypt and regain enterocyte properties as they move towards the apoptotic compartment at the apex of the FAE, favouring the hypothesis of a plastic phenotype. The follicle-associated epithelium (FAE) is found exclusively over lymphoid follicles in mucosal tissues, including Peyer?s patches. The enterocytes over Peyer?s patches express a distinct phenotype when compared to the villi enterocytes, characterized by the down regulation of digestive and defense functions and the constitutive expression of chemokines, i.e. CCL20 and CCL25. The purpose of this study was to investigate and identify the potential cells and/or molecules instructing FAE differentiation. Contact between the epithelial and the mesenchymal cell compartment is required for gut morphogenesis. Extracellular matrix molecules (ECM) can activate key regulatory genes which in turn control cell adhesion and differentiation. In the gut, mesenchymal cells differentiate into myofibroblats that participate to the elaboration of ECM. We have described a differential expression of extracellular matrix components under the FAE, correlating with the absence of subepithelial myofibroblats. Molecular mechanisms of FAE differenciation. Different studies proposed an influence of the luminal compartment in the differentiation and/or the maturation of PP. CCL20, a chemokine able to recruit cells that initiate adaptive immunity constitutes our first positive FAE molecular marker. We have shown that CCL20 gene expression is inducible in vitro and in vivo in intestinal epithelium by flagellin, a component of bacterial flagella. This effect was not restricted to the FAE. Lymphotoxin ß (LTß) signaling is critical for PPs organogenesis as LT deficient mice as well as LTß-receptor-/- mice lack PPs and most of the lymph nodes (LN). The continuous signaling via LTßR-expressing cells appears necessary for the maintenance throughout the life of PP architecture. We obtained in vitro and in vivo evidence that LTß signalling is involved in CCL20 gene expression.
Resumo:
La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.
Resumo:
BACKGROUND: Pain assessment in mechanically ventilated patients is challenging, because nurses need to decode pain behaviour, interpret pain scores, and make appropriate decisions. This clinical reasoning process is inherent to advanced nursing practice, but is poorly understood. A better understanding of this process could contribute to improved pain assessment and management. OBJECTIVE: This study aimed to describe the indicators that influence expert nurses' clinical reasoning when assessing pain in critically ill nonverbal patients. METHODS: This descriptive observational study was conducted in the adult intensive care unit (ICU) of a tertiary referral hospital in Western Switzerland. A purposive sample of expert nurses, caring for nonverbal ventilated patients who received sedation and analgesia, were invited to participate in the study. Data were collected in "real life" using recorded think-aloud combined with direct non-participant observation and brief interviews. Data were analysed using deductive and inductive content analyses using a theoretical framework related to clinical reasoning and pain. RESULTS: Seven expert nurses with an average of 7.85 (±3.1) years of critical care experience participated in the study. The patients had respiratory distress (n=2), cardiac arrest (n=2), sub-arachnoid bleeding (n=1), and multi-trauma (n=2). A total of 1344 quotes in five categories were identified. Patients' physiological stability was the principal indicator for making decision in relation to pain management. Results also showed that it is a permanent challenge for nurses to discriminate situations requiring sedation from situations requiring analgesia. Expert nurses mainly used working knowledge and patterns to anticipate and prevent pain. CONCLUSIONS: Patient's clinical condition is important for making decision about pain in critically ill nonverbal patients. The concept of pain cannot be assessed in isolation and its assessment should take the patient's clinical stability and sedation into account. Further research is warranted to confirm these results.
Resumo:
From its beginning, the field of questioned documents has been concerned with dating. Proposed methods usually lean upon complex processes, and controversy among the scientific community is still high. Every document dating method whose objective is to be applied in forensic caseworks must fulfill validation requirements. Moreover, source inference must also be taken into account in the interpretation of the dating evidence. To date, most methods still fail to be adequately validated, and should be applied with extreme caution. The limitations of the methods used must be adequately disclosed and documented.
Resumo:
In this commentary, we argue that the term 'prediction' is overly used when in fact, referring to foundational writings of de Finetti, the correspondent term should be inference. In particular, we intend (i) to summarize and clarify relevant subject matter on prediction from established statistical theory, and (ii) point out the logic of this understanding with respect practical uses of the term prediction. Written from an interdisciplinary perspective, associating statistics and forensic science as an example, this discussion also connects to related fields such as medical diagnosis and other areas of application where reasoning based on scientific results is practiced in societal relevant contexts. This includes forensic psychology that uses prediction as part of its vocabulary when dealing with matters that arise in the course of legal proceedings.
Resumo:
OBJECTIVE: This study aimed to analyze complaints of patients, their relatives, and friends who consulted a complaints center based (Espace Patients & Proches (EPP)) in a hospital so as to better understand the reasons that motivated them and their underlying expectations. METHODS: This study was based on the analysis of written accounts of the 253 situations that occurred during the first year of operation of the EPP. The accounts were analyzed qualitatively using an inductive, thematic analytic approach. RESULTS: We identified 372 different types of complaints and 28 main analytic themes. Five clustered themes emerged from the analysis of the interconnections among the core themes: (1) interpersonal relationship (N=160-the number of accounts including a complaint related to this general theme); (2) technical aspects of care (N=106); (3) health-care institution (N=69); (4) billing and insurance; (5) access to information (N=13). CONCLUSION: The main reason for patients, their relatives, and friends going to EPP was related to the quality of the interpersonal relationship with health-care professionals. Such complaints were markedly more frequent than those concerning technical aspects of care. PRACTICE IMPLICATIONS: These results raise important questions concerning changing patient expectations as well as how hospitals integrate complaints into the process of quality health care.
Resumo:
Approximate models (proxies) can be employed to reduce the computational costs of estimating uncertainty. The price to pay is that the approximations introduced by the proxy model can lead to a biased estimation. To avoid this problem and ensure a reliable uncertainty quantification, we propose to combine functional data analysis and machine learning to build error models that allow us to obtain an accurate prediction of the exact response without solving the exact model for all realizations. We build the relationship between proxy and exact model on a learning set of geostatistical realizations for which both exact and approximate solvers are run. Functional principal components analysis (FPCA) is used to investigate the variability in the two sets of curves and reduce the dimensionality of the problem while maximizing the retained information. Once obtained, the error model can be used to predict the exact response of any realization on the basis of the sole proxy response. This methodology is purpose-oriented as the error model is constructed directly for the quantity of interest, rather than for the state of the system. Also, the dimensionality reduction performed by FPCA allows a diagnostic of the quality of the error model to assess the informativeness of the learning set and the fidelity of the proxy to the exact model. The possibility of obtaining a prediction of the exact response for any newly generated realization suggests that the methodology can be effectively used beyond the context of uncertainty quantification, in particular for Bayesian inference and optimization.
Resumo:
This contribution (presented in the first International Conference on Public Policy (ICPP) in Grenoble in June 2013) explores the phenomena of innovation in action ("innovative implementation"). To do so, we operationalize "innovative implementation" as a strategy by which (coalitions of) non-state actors seek to develop ad hoc solutions to address a given environmental issue, going beyond what is provided for in formal policy designs. Following an inductive research strategy, we elaborate a conceptual framework whose main advantage is to bring the actors and their coalition (in all their diversity) back in the analysis. More concretely, we state that perceiving implementation as broader 'social interaction processes' (De Boer & Bressers 2011) within which actors play strategic 'games' (Bardach 1977, Scharpf 1997) opens interesting lines of research to better account for their innovative and strategic behaviours. In a second step, we apply this framework to three strategies of innovative implementation in different contexts, and identify on this basis empirical regularities in the individual pathways related to the emergence and success (or failure) of these strategies.
Resumo:
This study explored observer reactions to workplace interpersonal mistreatment using an inductive analysis approach. I conducted 32 interviews with a wide sample of working professionals from various backgrounds and industries to examine how observers react to the unfolding process of workplace interpersonal mistreatment incidents. Specifically, the goal of this study was to gain a deeper and closer understanding of observer reaction processes by examining first-hand accounts of employees who have witnessed co-workers being mistreated by others. I generated typologies of reported observer affective, cognitive, and behavioral reactions that emerged from their stories, and I identified what employees believe are important factors that inhibit or enable intervention. Results reveal that a majority of employees are not inclined to intervene during an ongoing mistreatment incident, and that observers who intervened during the incident reported different appraisal processes than observers who only intervened afterwards, or who did not intervene at all. From these personal accounts of observing workplace mistreatment, I interpreted that observers generally react to interpersonal mistreatment incidents in two phases, and that how targets reacted after an incident was an important trigger that propelled observers to become involved afterwards, even if they did not have the desire or the intention to do so. These findings have implications for current theories on observer intervention to mistreatment in the workplace.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
There is little consensus regarding how verticality (social power, dominance, and status) is related to accurate interpersonal perception. The relation could be either positive or negative, and there could be many causal processes at play. The present article discusses the theoretical possibilities and presents a meta-analysis of this question. In studies using a standard test of interpersonal accuracy, higher socioeconomic status (SES) predicted higher accuracy defined as accurate inference about the meanings of cues; also, higher experimentally manipulated vertical position predicted higher accuracy defined as accurate recall of others' words. In addition, although personality dominance did not predict accurate inference overall, the type of personality dominance did, such that empathic/responsible dominance had a positive relation and egoistic/aggressive dominance had a negative relation to accuracy. In studies involving live interaction, higher experimentally manipulated vertical position produced lower accuracy defined as accurate inference about cues; however, methodological problems place this result in doubt.
Resumo:
Introduction. If we are to promote more patient-centred approaches in care delivery, we have to better characterize the situations in which being patient-centred is difficult to achieve. Data from professionals in health and social care are important because they are the people charged with operationalizing patient-centred care (PCC) in their daily practice. However, empirical accounts from frontline care providers are still lacking, and it is important to gather experiences not only from doctors but also from the other care providers. Indeed, experiences from different professions can help inform our understanding of patient care, which is expected to be both patient-centred and collaborative. Methods. This study was based on the following research question: What factors make the provision of PCC difficult to achieve? Sample and setting. A purposeful sampling technique was used, allowing for a series of choices about the participants and their professional affiliation. Because patient-centredness is the focus, 3 professions appeared to be of special interest: general internists, nurses and social workers. The study was undertaken in the General Internal Medicine Division of a teaching hospital located in a North American context. Data Collection. To answer the research question, a methodological approach based on a theory called phenomenology was chosen. Accordingly, semi-structured interviews were used since they generate understanding of the meanings different individuals have of their lived world. Interviews with 8 physicians, 10 nurses and 10 social workers were eventually conducted. Data analysis. An inductive thematic analysis was employed to make sense of the interview data. Results. The thematic analysis allowed identifying various types of challenges to PCC. Although most of the challenges were perceived by all three groups of professionals, they were perceived to a different degree across the professions, which likely reflected the scope of practice of each profession. The challenges and their distribution across the professions are illustrated in Table 1. Examples of challenges are provided in Table 2. Discussion. There is a tension between what is supposed to be done - what stands in the philosophy of patient -centredness - and what is currently done - the real life with all the challenges to PCC. According to some participants' accounts, PCC clearly risks becoming a mere illusion for health care professionals on which too great pressures are imposed.
Resumo:
Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.
Resumo:
International sport governing bodies (ISGBs) are built on the foundations of freedom of association and traditionally enjoy a large degree of autonomy in their decision-making. Their autonomy is increasingly confined, however, and their hierarchical self-governance is giving way to a more networked governance, in which different stakeholders exert power in different ways and in different contexts in a complex web of interrelationships. Taking a rationalist perspective on the autonomy of ISGBs, this article demonstrates that ISGBs are deploying strategies to safeguard their waning governing monopoly over international sport. Opting for an inductive approach, the authors present four possible conceptualizations of autonomy as applied to ISGBs, namely political autonomy, legal autonomy, financial autonomy and pyramidal autonomy. For each dimension, they describe the different strategies ISGBs wield in order to safeguard different dimensions of their autonomy. This article uses governance theories to hypothesize that the autonomy of ISGBs can be understood as 'pragmatic autonomy' since ISGBs only cede certain aspects of their autonomy under particular circumstances and when being subject to specific threats. Acting in a rationalist manner, they are able to keep control over governance developments in sport by using indirect and more subtle forms of governance.
Resumo:
Lorsque de l'essence est employée pour allumer et/ou propager un incendie, l'inférence de la source de l'essence peut permettre d'établir un lien entre le sinistre et une source potentielle. Cette inférence de la source constitue une alternative intéressante pour fournir des éléments de preuve dans ce type d'événements où les preuves matérielles laissées par l'auteur sont rares. Le but principal de cette recherche était le développement d'une méthode d'analyse de spécimens d'essence par GC-IRMS, méthode pas routinière et peu étudiée en science forensique, puis l'évaluation de son potentiel à inférer la source de traces d'essence en comparaison aux performances de la GC-MS. Un appareillage permettant d'analyser simultanément les échantillons par MS et par IRMS a été utilisé dans cette recherche. Une méthode d'analyse a été développée, optimisée et validée pour cet appareillage. Par la suite, des prélèvements d'essence provenant d'un échantillonnage conséquent et représentatif du marché de la région lausannoise ont été analysés. Finalement, les données obtenues ont été traitées et interprétées à l'aide de méthodes chimiométriques. Les analyses effectuées ont permis de montrer que la méthodologie mise en place, aussi bien pour la composante MS que pour l'IRMS, permet de différencier des échantillons d'essence non altérée provenant de différentes stations-service. Il a également pu être démontré qu'à chaque nouveau remplissage des cuves d'une station-service, la composition de l'essence distribuée par cette station est quasi unique. La GC-MS permet une meilleure différenciation d'échantillons prélevés dans différentes stations, alors que la GC-IRMS est plus performante lorsqu'il s'agit de comparer des échantillons collectés après chacun des remplissages d'une cuve. Ainsi, ces résultats indiquent que les deux composantes de la méthode peuvent être complémentaires pour l'analyse d'échantillons d'essence non altérée. Les résultats obtenus ont également permis de montrer que l'évaporation des échantillons d'essence ne compromet pas la possibilité de grouper des échantillons de même source par GC-MS. Il est toutefois nécessaire d'effectuer une sélection des variables afin d'éliminer celles qui sont influencées par le phénomène d'évaporation. Par contre, les analyses effectuées ont montré que l'évaporation des échantillons d'essence a une forte influence sur la composition isotopique des échantillons. Cette influence est telle qu'il n'est pas possible, même en effectuant une sélection des variables, de grouper correctement des échantillons évaporés par GC-IRMS. Par conséquent, seule la composante MS de la méthodologie mise en place permet d'inférer la source d'échantillons d'essence évaporée. _________________________________________________________________________________________________ When gasoline is used to start and / or propagate an arson, source inference of gasoline can allow to establish a link between the fire and a potential source. This source inference is an interesting alternative to provide evidence in this type of events where physical evidence left by the author are rare. The main purpose of this research was to develop a GC-IRMS method for the analysis of gasoline samples, a non-routine method and little investigated in forensic science, and to evaluate its potential to infer the source of gasoline traces compared to the GC-MS performances. An instrument allowing to analyze simultaneously samples by MS and IRMS was used in this research. An analytical method was developed, optimized and validated for this instrument. Thereafter, gasoline samples from a large sampling and representative of the Lausanne area market were analyzed. Finally, the obtained data were processed and interpreted using chemometric methods. The analyses have shown that the methodology, both for MS and for IRMS, allow to differentiate unweathered gasoline samples from different service stations. It has also been demonstrated that each new filling of the tanks of a station generates an almost unique composition of gasoline. GC-MS achieves a better differentiation of samples coming from different stations, while GC-IRMS is more efficient to distinguish samples collected after each filling of a tank. Thus, these results indicate that the two components of the method can be complementary to the analysis of unweathered gasoline samples. The results have also shown that the evaporation of gasoline samples does not compromise the possibility to group samples coming from the same source by GC-MS. It is however necessary to make a selection of variables in order to eliminate those which are influenced by the evaporation. On the other hand, the carried out analyses have shown that the evaporation of gasoline samples has such a strong influence on the isotopic composition of the samples that it is not possible, even by performing a selection of variables, to properly group evaporated samples by GC-IRMS. Therefore, only the MS allows to infer the source of evaporated gasoline samples.