982 resultados para Interior point algorithm
Resumo:
The use of artificial nest-boxes has led to significant progress in bird conservation and in our understanding of the functional and evolutionary ecology of free-ranging birds that exploit cavities for roosting and reproduction. Nest-boxes and their improved accessibility have made it easier to perform comparative and experimental field investigations. However, concerns about the generality and applicability of scientific studies involving birds breeding in nest-boxes have been raised because the occupants of boxes may differ from conspecifics occupying other nest sites. Here we review the existing evidence demonstrating the importance of nest-box design to individual life-history traits in three falcon (Falconiformes) and seven owl (Strigiformes) species, as well as the extent to which publications on these birds describe the characteristics of exploited artificial nest-boxes in their 'methods' sections. More than 60% of recent publications did not provide any details on nest-box design (e.g. size, shape, material), despite several calls >15 years ago to increase the reporting of such information. We exemplify and discuss how variation in nest-box characteristics can affect or confound conclusions from nest-box studies and conclude that it is of overall importance to present details of nest-box characteristics in scientific publications.
Resumo:
BACKGROUND & AIMS: Recently, genetic variations in MICA (lead single nucleotide polymorphism [SNP] rs2596542) were identified by a genome-wide association study (GWAS) to be associated with hepatitis C virus (HCV)-related hepatocellular carcinoma (HCC) in Japanese patients. In the present study, we sought to determine whether this SNP is predictive of HCC development in the Caucasian population as well. METHODS: An extended region around rs2596542 was genotyped in 1924 HCV-infected patients from the Swiss Hepatitis C Cohort Study (SCCS). Pair-wise correlation between key SNPs was calculated both in the Japanese and European populations (HapMap3: CEU and JPT). RESULTS: To our surprise, the minor allele A of rs2596542 in proximity of MICA appeared to have a protective impact on HCC development in Caucasians, which represents an inverse association as compared to the one observed in the Japanese population. Detailed fine-mapping analyses revealed a new SNP in HCP5 (rs2244546) upstream of MICA as strong predictor of HCV-related HCC in the SCCS (univariable p=0.027; multivariable p=0.0002, odds ratio=3.96, 95% confidence interval=1.90-8.27). This newly identified SNP had a similarly directed effect on HCC in both Caucasian and Japanese populations, suggesting that rs2244546 may better tag a putative true variant than the originally identified SNPs. CONCLUSIONS: Our data confirms the MICA/HCP5 region as susceptibility locus for HCV-related HCC and identifies rs2244546 in HCP5 as a novel tagging SNP. In addition, our data exemplify the need for conducting meta-analyses of cohorts of different ethnicities in order to fine map GWAS signals.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
(Résumé de l'ouvrage) Ce livre a trait ici au ministère pastoral, problème central de la théologie aux yeux du théologien protestant Jean-Louis Leuba. Se joue en effet sur le ministère toute la question de la transmission du credo et de la légitimation de sa vérité aux diverses époques. Jean-Louis Leuba propose en préambule du livre des thèses sur le ministère que ses interlocuteurs - théologiens protestants, catholiques, luthériens, ainsi qu'un sociologue des religions - vont reprendre pour les accueillir avec leurs sensibilités ou les réfuter.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Percutaneous vertebro-plasty is an efficient treatment of the symptomatic vertebral compression fracture refractory to optimal medical therapy. The procedure is used for neoplastic lesions, aggressive angioma, but also osteoporotic compression fractures. In order to adequately advice our patients, it is essential to know its indications and possible complications. However, to practice a vertebro-plasty for an osteoporotic compression fracture without any long term management of the osteoporotic disease is useless. Unfortunately, it still happens too often and it is essential that orthopedic surgeons, general practitioner, radiologist, rheumatologist, and any practitioners work together to guarantee the optimal management of our patients.
Resumo:
This is the fourth annual report to the EMCDDA from the Norwegian Institute for Alcohol and Drug Research (SIRUS) on the drugs situation in Norway. The report has been drawn up in accordance with the new reporting guidelines introduced by the EMCDDA this year. We have endeavoured to follow these as consistently as possible, with the main focus on “new developments” and substantial changes in epidemiology, legislation and organisation. To allow readers to obtain more background information the report contains a number of references to the national report for 2003, and occasional references to the report for 2002.This resource was contributed by The National Documentation Centre on Drug Use.
Resumo:
This is a 2006 national report to the EMCDDA, using 2005 data. It is compiled by the Reitox national focal point and covers epidemiology, policing, strategy, drugs markets, drug-related infectious diseases, drug-related death and problem drug use in Norway.This resource was contributed by The National Documentation Centre on Drug Use.