961 resultados para CASE-FATALITY RATES


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Visual inspection remains the most frequently applied method for detecting treatment effects in single-case designs. The advantages and limitations of visual inference are here discussed in relation to other procedures for assessing intervention effectiveness. The first part of the paper reviews previous research on visual analysis, paying special attention to the validation of visual analysts" decisions, inter-judge agreement, and false alarm and omission rates. The most relevant factors affecting visual inspection (i.e., effect size, autocorrelation, data variability, and analysts" expertise) are highlighted and incorporated into an empirical simulation study with the aim of providing further evidence about the reliability of visual analysis. Our results concur with previous studies that have reported the relationship between serial dependence and increased Type I rates. Participants with greater experience appeared to be more conservative and used more consistent criteria when assessing graphed data. Nonetheless, the decisions made by both professionals and students did not match sufficiently the simulated data features, and we also found low intra-judge agreement, thus suggesting that visual inspection should be complemented by other methods when assessing treatment effectiveness.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIVE: To examine the incremental cost effectiveness of the five first line pharmacological smoking cessation therapies in the Seychelles and other developing countries. DESIGN: A Markov chain cohort simulation. SUBJECTS: Two simulated cohorts of smokers: (1) a reference cohort given physician counselling only; (2) a treatment cohort given counselling plus cessation therapy. INTERVENTION: Addition of each of the five pharmacological cessation therapies to physician provided smoking cessation counselling. MAIN OUTCOME MEASURES: Cost per life-year saved (LYS) associated with the five pharmacotherapies. Effectiveness expressed as odds ratios for quitting associated with pharmacotherapies. Costs based on the additional physician time required and retail prices of the medications. RESULTS: Based on prices for currently available generic medications on the global market, the incremental cost per LYS for a 45 year old in the Seychelles was 599 US dollars for gum and 227 dollars for bupropion. Assuming US treatment prices as a conservative estimate, the incremental cost per LYS was significantly higher, though still favourable in comparison to other common medical interventions: 3712 dollars for nicotine gum, 1982 dollars for nicotine patch, 4597 dollars for nicotine spray, 4291 dollars for nicotine inhaler, and 1324 dollars for bupropion. Cost per LYS increased significantly upon application of higher discount rates, which may be used to reflect relatively high opportunity costs for health expenditures in developing countries with highly constrained resources and high overall mortality. CONCLUSION: Pharmacological cessation therapy can be highly cost effective as compared to other common medical interventions in low mortality, middle income countries, particularly if medications can be procured at low prices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

AIMS: This study evaluated the evolution of the prenatal diagnosis of congenital heart disease (CHD) between 2003 and 2008 and its repercussion for the CHD prevalence rate at birth in a well-defined population (Canton of Vaud, Switzerland). METHODS AND RESULTS: All 572 cases of CHD reported in the Eurocat Registry of Vaud-Switzerland between 1.5.2003 and 31.12.2008 were analysed and compared with the cases in our clinical database. CHD cases were divided into five different groups according to heart disease severity. The prenatal detection rates increased significantly between 2003 and 2008, with a mean detection rate of 25.2%. There was a significantly higher rate of prenatal diagnosis in the first four groups of CHD severity, with the highest detection rate (87.5%) found in the group with the most severe CHD (group 1). In this group, 85.7% of cases resulted in a termination of pregnancy, and there was a consequent 75% reduction in the prevalence of severe major cardiac malformation at birth. Detection rates were 66% in group 2, 68.6% in group 3, and the lowest in groups 4 and 5, with rates of 25.9% and 12.9%, respectively. CONCLUSION: This study shows that the prenatal detection rate for CHD increased in a well-defined population over the study period. Prenatal diagnosis thus has had a major impact on patients with the most severe types of CHD and has resulted in a significant reduction in severe CHD at birth.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We analyze premium policies and price dispersion among private healthcare insurance firms from an overlapping-generations model. The model shows that firms that apply equal premium to all policyholders and firms that set premiums according to the risk of insured can coexist in the short run, whereas coexistence is unlikely in the long run because it requires the coincidence of economic growth and interest rates. We find support for the model’s results in the Catalan health insurance industry. Keywords: Economic theory, price policies, health insurance, health economics, overlapping-generations. JEL Classifications: I11 / L11 / L23

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article analyses rates and correlates of homicide in 15 West European countries from 1960 to 2010. The results show that the levels of homicide in 2010 and the trends in homicide from 1960 to 2010 are not related to any of the traditional demographic and socioeconomic predictors of crime. Homicide victimization rates show an increase from the mid-1960s until the early 1990s, and a decrease since then. Victims of both genders and all group ages follow the same trend, except in the case of infanticide, which decreased during the whole period. These results do not support the hypothesis of a homicide trend driven by the evolution of victimization of young men in public space. The authors propose an explanation based on a lifestyle approach.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In recent years, studies into the reasons for dropping out of higher education (including online education) have been undertaken with greater regularity, parallel to the rise in the relative weight of this type of education, compared with brick-and-mortar education. However, the work invested in characterising the students who drop out of education, compared with those who do not, appears not to have had the same relevance as that invested in the analysis of the causes. The definition of dropping out is very sensitive to the context. In this article, we reach a purely empirical definition of student dropping out, based on the probability of not continuing a specific academic programme following several consecutive semesters of "theoretical break". Dropping out should be properly defined before analysing its causes, as well as comparing the drop-out rates between the different online programmes, or between online and on-campus ones. Our results show that there are significant differences among programmes, depending on their theoretical extension, but not their domain of knowledge.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tutkimuksen päätavoitteena oli auttaa Myllykoski –ryhmää määrittämään, mistä tekijöistä ryhmän uuden myyntiorganisaation, Myllykoski Salesin, tulevaisuuden imagon tulisi koostua. Näin ollen tutkimus pyrki selvittämään Myllykoski –ryhmän yritysidentiteetin nykytilaa ja Myllykoski Salesin toivottuja imagotekijöitä, sekä vertaamaan niiden vastaavuutta. Lisäksi tutkimuksen tavoitteena oli tutkia Myllykoski –ryhmän nykyistä ja toivottua tulevaisuuden imagotilaa. Jotta imagonrakennusprosessi olisi menestyksekäs, rakennettavan imagon ja viestittävien imagotekijöiden tulisi perustua yritysidentiteetin todellisiin tekijöihin. Yritysidentiteetin voidaan määritellä olevan yhtäläinen sisäisten sidosryhmien muodostaman yritysmielikuvan kanssa ja näin ollen nykyinen yritysidentiteetti voidaan paljastaa tutkimalla henkilökunnan mielipiteitä työorganisaatiotaan kohtaan. Näin ollen käsiteltävä tutkimus suoritettiin tekemällä kaksi sähköpostikyselyä, jotka suunnattiin Myllykoski -ryhmän myynti- ja markkinointihenkilökunnalle. Tutkimusten vastausprosentit olivat 71,4 % (johto, 14 lähetettyä kyselyä) ja 51,9 % (muu henkilökunta, 108 lähetettyä kyselyä). Saatuja vastauksia analysoitiin sekä laadullisesti että määrällisesti. Saaduista vastauksista oli selvästi havaittavissa Myllykoski –ryhmän yritysidentiteetin nykytila, nykyinen ja toivottu imagotila, sekä Myllykoski Salesin toivotut imagotekijät. Verrattaessa toivottuja imagotekijöitä ryhmän yritysidentiteettiin havaittiin, että suurin osa halutuista imagotekijöistä vastasi ryhmän identiteetin nykytilan ominaisuuksia ja näin ollen kyseisiä tekijöitä voitaisiin huoletta viestiä rakennettaessa Myllykoski Salesin imagoa. Joidenkin toivottujen imagotekijöiden viestintää tulisi kuitenkin vakavasti harkita, jottei rakennettaisi epärealistista imagoa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Chile, the cherry tree has been one of the fastest growing and most profitable crops in the last ten years. However, increasing production costs, the scarcity of hired labor, and unfavorable exchange rates have reduced the productivity and competitiveness of the Chilean fruit sector. The aim of this article is to evaluate the harvest labor quality in cherry growing in Chile through the use of productivity indicators. A harvest labor evaluation system (HLES) was designed and four indicators were measured: Average Weight of Harvested Box, Average Daily Production per Worker, Percent of Export Fruit, and Percent of Fruit Discarded. Significant differences werefound between the 2010/11 season (with the HLES implementation) and the previous seasons without HLES. The average worker yield, average weight of a filled box, and fruit quality improved, while the amount of discarded fruit decreased. Hired labor management in agriculture is crucial for improving the productivity of the fresh fruit export producers. The use of HLES and the adoption of new technologies could help to solve the competitiveness problem in the Chilean fruit sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study evaluates the performance of four methods for estimating regression coefficients used to make statistical decisions regarding intervention effectiveness in single-case designs. Ordinary least squares estimation is compared to two correction techniques dealing with general trend and one eliminating autocorrelation whenever it is present. Type I error rates and statistical power are studied for experimental conditions defined by the presence or absence of treatment effect (change in level or in slope), general trend, and serial dependence. The results show that empirical Type I error rates do not approximate the nominal ones in presence of autocorrelation or general trend when ordinary and generalized least squares are applied. The techniques controlling trend show lower false alarm rates, but prove to be insufficiently sensitive to existing treatment effects. Consequently, the use of the statistical significance of the regression coefficients for detecting treatment effects is not recommended for short data series.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: Patients with Cystic fibrosis (CF) are more susceptible to pathogens like P. aeruginosa (PA). PA primo-infection requires particular attention as failure in eradication is associated with accelerated lung deterioration. The main aim of this study is to assess the rate of PA eradication according to our particular protocol with inhaled tobramycin and oral ciprofloxacin, as there is no consensus in the literature on what eradication protocol is optimal. Methods: Retrospective single centre study with data analysis from June 1st 2007 to June 1st 2011 of patients with PA primo-infection exclusively treated by 3 x 28 days of inhaled tobramycin and oral ciprofloxacin for the first and last 21 days. Success in eradication is defined by ≥ 3 negative bacteriologies for 6 months after the beginning of the protocol. If ≥ 1 bacteriology is positive, we consider the eradication as a failure. Results: Out of 41 patients, 18 followed the eradication protocol and were included in our analysis (7 girls (38.9%) and 11 boys (61.1%)). Boys had 12 primo-infections and girls had 8. Among these 20 primo-infections, 16 (80%) had an overall success in eradication and 4 (20%) a failure. There was no significant statistical differences in age between these groups (t-test = 0.07, p = 0.94), nor for FEV1% (t-test = 0.96, p = 0.41) or BMI (t-test = 1.35, p = 0.27). Rate of success was 100% for girls and 66.6% for boys. Conclusion: Our protocol succeeded in an overall eradication rate of 80%, without statistical significant impact on FEV1 % and BMI values. However, there was a sex difference with eradication rates in girls (100%) and boys (66.6%). A sex difference has not yet been reported in the literature. This should be evaluated in further studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Finanssiala on kokonaisuutena suurten muutosten ja vaatimusten kohteena. Toisaalta globalisaatio ja kehittyvä tietotalous antavat toiminnalle suuria mahdollisuuksia, toisaalta finanssikriisin jälkeistä aikaa on leimannut perinteisen korkokatteen supistuminen ja uusien tulonlähteiden etsintä. Entistä tehokkaampi tietojenkäsittely ja asiakastietojen hyväksikäyttö luo edellytyksiä toimia alalla entistä tehokkaammin ja ohjata yrityksen päätöksentekoa tiedolla. Tämän pro gradu –tutkielman tavoitteena oli tutkia tiedon roolia OP-Pohjola-ryhmän strategiaprosessissa ja luoda malli, jolla liiketoimintatietoa pystyttäisi käyttämään tehokkaammin ja tarkoituksenmukaisemmin hyväksi strategiatyössä. Tutkielma toteutettiin tapaustutkimuksena ja empiirinen aineisto hankittiin haastattelemalla organisaation strategiaprosessiin osallistuvia tahoja. Tutkimuksen tulosten mukaan OP-Pohjola-ryhmällä ei ole määrämuotoista tapaa käyttää hyväksi liiketoimintatiedonhallinnan tuottamaa dataa. Strategiaprosessin päätöksenteossa merkittävä rooli on yksilöiden toisaalta omista organisaatioista tuottaman liiketoimintatiedon ja toisaalta yksilöiden hiljaisen tiedon varassa. Tutkimuksen lopputuloksena luotiin malli, jolla strategiaprosessiin tuotetaan tietoa määrämuotoisen ja toistettavan prosessin kautta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this thesis was to study commodity future price premiums and their nature on emission allowance markets. The EUA spot and future contracts traded on the secondary market during EU ETS Phase 2 and Phase 3 were selected for empirical testing. The cointegration of spot and future prices was examined with Johansen cointegration methodology. Daily interest rates with a similar tenor to the future contract maturity were used in the cost-of-carry model to calculate the theoretical future prices and to estimate the deviation from the fair value of future contracts, assumed to be explained by the convenience yield. The time-varying dependence of the convenience yield was studied by regression testing the correlation between convenience yield and the time to maturity of the future contract. The results indicated cointegration between spot and future prices, albeit depending on assumptions on linear trend and intercept in cointegration vector Dec-14 and Dec-15 contracts. The convenience yield correlates positively with the time-to-maturity of the future contract during Phase 2, but negatively during Phase 3. The convenience yield featured positive correlation with spot price volatility and negative correlation with future price volatility during both Phases 2 and 3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Developed by Hindson, Gidlow, and Peebles (1994), the trickle-down effect and more specifically, the demonstration effect, are based on the idea that performances of a host nation’s athletes will inspire the population to become active in sport. The Vancouver 2010 Olympic Winter Games presented an opportunity for Canadian sport organizations to promote sport participation. The purpose of this study was to determine if the demonstration effect occurred in Canada, and determine the reasons why or why not. The sport of figure skating was selected. Quantitative data were collected from Skate Canada on club membership rates from 2003 to 2013. Results showed small increases in participation, however there was little change following the Vancouver 2010 Olympic Winter Games. Qualitative data showed that already active sport participants became more active, following these Games. The findings demonstrate that the demonstration effect occurred, however only for a select group of individuals.