999 resultados para Quantitative Analyse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUCTION: Quantitative sensory testing (QST) is widely used in human research to investigate the integrity of the sensory function in patients with pain of neuropathic origin, or other causes such as low back pain. Reliability of QST has been evaluated on both sides of the face, hands and feet as well as on the trunk (Th3-L3). In order to apply these tests on other body-parts such as the lower lumbar spine, it is important first to establish reliability on healthy individuals. The aim of this study was to investigate intra-rater reliability of thermal QST in healthy adults, on two sites within the L5 dermatome of the lumbar spine and lower extremity. METHODS: Test-retest reliability of thermal QST was determined at the L5-level of the lumbar spine and in the same dermatome on the lower extremity in 30 healthy persons under 40 years of age. Results were analyzed using descriptive statistics and intraclass correlation coefficient (ICC). Values were compared to normative data, using Z-transformation. RESULTS: Mean intraindividual differences were small for cold and warm detection thresholds but larger for pain thresholds. ICC values showed excellent reliability for warm detection and heat pain threshold, good-to-excellent reliability for cold pain threshold and fair-to-excellent reliability for cold detection threshold. ICC had large ranges of confidence interval (95%). CONCLUSION: In healthy adults, thermal QST on the lumbar spine and lower extremity demonstrated fair-to-excellent test-retest reliability.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIVE: Evaluation of the quantitative antibiogram as an epidemiological tool for the prospective typing of methicillin-resistant Staphylococcus aureus (MRSA), and comparison with ribotyping. METHODS: The method is based on the multivariate analysis of inhibition zone diameters of antibiotics in disk diffusion tests. Five antibiotics were used (erythromycin, clindamycin, cotrimoxazole, gentamicin, and ciprofloxacin). Ribotyping was performed using seven restriction enzymes (EcoRV, HindIII, KpnI, PstI, EcoRI, SfuI, and BamHI). SETTING: 1,000-bed tertiary university medical center. RESULTS: During a 1-year period, 31 patients were found to be infected or colonized with MRSA. Cluster analysis of antibiogram data showed nine distinct antibiotypes. Four antibiotypes were isolated from multiple patients (2, 4, 7, and 13, respectively). Five additional antibiotypes were isolated from the remaining five patients. When analyzed with respect to the epidemiological data, the method was found to be equivalent to ribotyping. Among 206 staff members who were screened, six were carriers of MRSA. Both typing methods identified concordant of MRSA types in staff members and in the patients under their care. CONCLUSIONS: The quantitative antibiogram was found to be equivalent to ribotyping as an epidemiological tool for typing of MRSA in our setting. Thus, this simple, rapid, and readily available method appears to be suitable for the prospective surveillance and control of MRSA for hospitals that do not have molecular typing facilities and in which MRSA isolates are not uniformly resistant or susceptible to the antibiotics tested.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

An x-ray photoelectron spectroscopy (XPS) analysis of Nb/Al wedge bilayers, oxidized by both plasma and natural oxidation, is reported. The main goal is to show that the oxidation state¿i.e., O:(oxidize)Al ratio¿, structure and thickness of the surface oxide layer, as well as the thickness of the metallic Al leftover, as functions of the oxidation procedure, can be quantitatively evaluated from the XPS spectra. This is relevant to the detailed characterization of the insulating barriers in (magnetic) tunnel junctions

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aims of this study were to determine whether responses in myocardial blood flow (MBF) to the cold pressor testing (CPT) method noninvasively with PET correlate with an established and validated index of flow-dependent coronary vasomotion on quantitative angiography. METHODS: Fifty-six patients (57 +/- 6 y; 16 with hypertension, 10 with hypercholesterolemia, 8 smokers, and 22 without coronary risk factors) with normal coronary angiograms were studied. Biplanar end-diastolic images of a selected proximal segment of the left anterior descending artery (LAD) (n = 27) or left circumflex artery (LCx) (n = 29) were evaluated with quantitative coronary angiography in order to determine the CPT-induced changes of epicardial luminal area (LA, mm(2)). Within 20 d of coronary angiography, MBF in the LAD, LCx, and right coronary artery territory was measured with (13)N-ammonia and PET at baseline and during CPT. RESULTS: CPT induced on both study days comparable percent changes in the rate x pressure product (%DeltaRPP, 37% +/- 13% and 40% +/- 17%; P = not significant [NS]). For the entire study group, the epicardial LA decreased from 5.07 +/- 1.02 to 4.88 +/- 1.04 mm(2) (DeltaLA, -0.20 +/- 0.89 mm(2)) or by -2.19% +/- 17%, while MBF in the corresponding epicardial vessel segment increased from 0.76 +/- 0.16 to 1.03 +/- 0.33 mL x min(-1) x g(-1) (DeltaMBF, 0.27 +/- 0.25 mL x min(-1) x g(-1)) or 36% +/- 31% (P <or= 0.0001). However, in normal controls without coronary risk factors (n = 22), the epicardial LA increased from 5.01 +/- 1.07 to 5.88 +/- 0.89 mm(2) (19.06% +/- 8.9%) and MBF increased from 0.77 +/- 0.16 to 1.34 +/- 0.34 mL x min(-1) x g(-1) (74.08% +/- 23.5%) during CPT, whereas patients with coronary risk factors (n = 34) revealed a decrease of epicardial LA from 5.13 +/- 1.48 to 4.24 +/- 1.12 mm(2) (-15.94% +/- 12.2%) and a diminished MBF increase (from 0.76 +/- 0.20 to 0.83 +/- 0.25 mL x min(-1) x g(-1) or 10.91% +/- 19.8%) as compared with controls (P < 0.0001, respectively), despite comparable changes in the RPP (P = NS). In addition, there was a significant correlation (r = 0.87; P <or= 0.0001) between CPT-related percent changes in LA on quantitative angiography and in MBF as measured with PET. CONCLUSION: The observed close correlation between an angiographically established parameter of flow-dependent and, most likely, endothelium-mediated coronary vasomotion and PET-measured MBF further supports the validity and value of MBF responses to CPT as a noninvasively available index of coronary circulatory function.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ABSTRACT Quantitative assessment of soil physical quality is of great importance for eco-environmental pollution and soil quality studies. In this paper, based on the S-theory, data from 16 collection sites in the Haihe River Basin in northern China were used, and the effects of soil particle size distribution and bulk density on three important indices of theS-theory were investigated on a regional scale. The relationships between unsaturated hydraulic conductivityKi at the inflection point and S values (S/hi) were also studied using two different types of fitting equations. The results showed that the polynomial equation was better than the linear equation for describing the relationships between -log Ki and -logS, and -log Kiand -log (S/hi)2; and clay content was the most important factor affecting the soil physical quality index (S). The variation in the S index according to soil clay content was able to be fitted using a double-linear-line approach, with decrease in the S index being much faster for clay content less than 20 %. In contrast, the bulk density index was found to be less important than clay content. The average S index was 0.077, indicating that soil physical quality in the Haihe River Basin was good.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le dosage du plomb sanguin a été inclus dans l'enquête MONICA (MONItoring of trends and determinants in CArdiovascular disease) sur un échantillon représentatif de la population des cantons de Fribourg et de Vaud. Les résultats sont présentés en trois sections: 1) Distribution de la plombémie en fonction de quelques variables spécifiques: variables socio-démographiques, facteurs de risque classiques des maladies cardio-vasculaires, variables sur certaines habitudes alimentaires; 2) Analyse discriminante des personnes dans le quartile supérieur de la distribution de la plombémie; 3) Description plus détaillée des 18 cas de plombémie supérieure à 1.5 micromoles/l.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The evolution of altruism is a fundamental and enduring puzzle in biology. In a seminal paper Hamilton showed that altruism can be selected for when rb - c > 0, where c is the fitness cost to the altruist, b is the fitness benefit to the beneficiary, and r is their genetic relatedness. While many studies have provided qualitative support for Hamilton's rule, quantitative tests have not yet been possible due to the difficulty of quantifying the costs and benefits of helping acts. Here we use a simulated system of foraging robots to experimentally manipulate the costs and benefits of helping and determine the conditions under which altruism evolves. By conducting experimental evolution over hundreds of generations of selection in populations with different c/b ratios, we show that Hamilton's rule always accurately predicts the minimum relatedness necessary for altruism to evolve. This high accuracy is remarkable given the presence of pleiotropic and epistatic effects as well as mutations with strong effects on behavior and fitness (effects not directly taken into account in Hamilton's original 1964 rule). In addition to providing the first quantitative test of Hamilton's rule in a system with a complex mapping between genotype and phenotype, these experiments demonstrate the wide applicability of kin selection theory.