206 resultados para Imputation déterministe
Resumo:
Hypertrophic cardiomyopathy (HCM) is a cardiovascular disease where the heart muscle is partially thickened and blood flow is - potentially fatally - obstructed. It is one of the leading causes of sudden cardiac death in young people. Electrocardiography (ECG) and Echocardiography (Echo) are the standard tests for identifying HCM and other cardiac abnormalities. The American Heart Association has recommended using a pre-participation questionnaire for young athletes instead of ECG or Echo tests due to considerations of cost and time involved in interpreting the results of these tests by an expert cardiologist. Initially we set out to develop a classifier for automated prediction of young athletes’ heart conditions based on the answers to the questionnaire. Classification results and further in-depth analysis using computational and statistical methods indicated significant shortcomings of the questionnaire in predicting cardiac abnormalities. Automated methods for analyzing ECG signals can help reduce cost and save time in the pre-participation screening process by detecting HCM and other cardiac abnormalities. Therefore, the main goal of this dissertation work is to identify HCM through computational analysis of 12-lead ECG. ECG signals recorded on one or two leads have been analyzed in the past for classifying individual heartbeats into different types of arrhythmia as annotated primarily in the MIT-BIH database. In contrast, we classify complete sequences of 12-lead ECGs to assign patients into two groups: HCM vs. non-HCM. The challenges and issues we address include missing ECG waves in one or more leads and the dimensionality of a large feature-set. We address these by proposing imputation and feature-selection methods. We develop heartbeat-classifiers by employing Random Forests and Support Vector Machines, and propose a method to classify full 12-lead ECGs based on the proportion of heartbeats classified as HCM. The results from our experiments show that the classifiers developed using our methods perform well in identifying HCM. Thus the two contributions of this thesis are the utilization of computational and statistical methods for discovering shortcomings in a current screening procedure and the development of methods to identify HCM through computational analysis of 12-lead ECG signals.
Resumo:
BACKGROUND: Moderate-to-vigorous physical activity (MVPA) is an important determinant of children’s physical health, and is commonly measured using accelerometers. A major limitation of accelerometers is non-wear time, which is the time the participant did not wear their device. Given that non-wear time is traditionally discarded from the dataset prior to estimating MVPA, final estimates of MVPA may be biased. Therefore, alternate approaches should be explored. OBJECTIVES: The objectives of this thesis were to 1) develop and describe an imputation approach that uses the socio-demographic, time, health, and behavioural data from participants to replace non-wear time accelerometer data, 2) determine the extent to which imputation of non-wear time data influences estimates of MVPA, and 3) determine if imputation of non-wear time data influences the associations between MVPA, body mass index (BMI), and systolic blood pressure (SBP). METHODS: Seven days of accelerometer data were collected using Actical accelerometers from 332 children aged 10-13. Three methods for handling missing accelerometer data were compared: 1) the “non-imputed” method wherein non-wear time was deleted from the dataset, 2) imputation dataset I, wherein the imputation of MVPA during non-wear time was based upon socio-demographic factors of the participant (e.g., age), health information (e.g., BMI), and time characteristics of the non-wear period (e.g., season), and 3) imputation dataset II wherein the imputation of MVPA was based upon the same variables as imputation dataset I, plus organized sport information. Associations between MVPA and health outcomes in each method were assessed using linear regression. RESULTS: Non-wear time accounted for 7.5% of epochs during waking hours. The average minutes/day of MVPA was 56.8 (95% CI: 54.2, 59.5) in the non-imputed dataset, 58.4 (95% CI: 55.8, 61.0) in imputed dataset I, and 59.0 (95% CI: 56.3, 61.5) in imputed dataset II. Estimates between datasets were not significantly different. The strength of the relationship between MVPA with BMI and SBP were comparable between all three datasets. CONCLUSION: These findings suggest that studies that achieve high accelerometer compliance with unsystematic patterns of missing data can use the traditional approach of deleting non-wear time from the dataset to obtain MVPA measures without substantial bias.
Resumo:
Estimates of HIV prevalence are important for policy in order to establish the health status of a country's population and to evaluate the effectiveness of population-based interventions and campaigns. However, participation rates in testing for surveillance conducted as part of household surveys, on which many of these estimates are based, can be low. HIV positive individuals may be less likely to participate because they fear disclosure, in which case estimates obtained using conventional approaches to deal with missing data, such as imputation-based methods, will be biased. We develop a Heckman-type simultaneous equation approach which accounts for non-ignorable selection, but unlike previous implementations, allows for spatial dependence and does not impose a homogeneous selection process on all respondents. In addition, our framework addresses the issue of separation, where for instance some factors are severely unbalanced and highly predictive of the response, which would ordinarily prevent model convergence. Estimation is carried out within a penalized likelihood framework where smoothing is achieved using a parametrization of the smoothing criterion which makes estimation more stable and efficient. We provide the software for straightforward implementation of the proposed approach, and apply our methodology to estimating national and sub-national HIV prevalence in Swaziland, Zimbabwe and Zambia.
Resumo:
Background: Primary total knee replacement is a common operation that is performed to provide pain relief and restore functional ability. Inpatient physiotherapy is routinely provided after surgery to enhance recovery prior to hospital discharge. However, international variation exists in the provision of outpatient physiotherapy after hospital discharge. While evidence indicates that outpatient physiotherapy can improve short-term function, the longer term benefits are unknown. The aim of this randomised controlled trial is to evaluate the long-term clinical effectiveness and cost-effectiveness of a 6-week group-based outpatient physiotherapy intervention following knee replacement. Methods/design: Two hundred and fifty-six patients waiting for knee replacement because of osteoarthritis will be recruited from two orthopaedic centres. Participants randomised to the usual-care group (n = 128) will be given a booklet about exercise and referred for physiotherapy if deemed appropriate by the clinical care team. The intervention group (n = 128) will receive the same usual care and additionally be invited to attend a group-based outpatient physiotherapy class starting 6 weeks after surgery. The 1-hour class will be run on a weekly basis over 6 weeks and will involve task-orientated and individualised exercises. The primary outcome will be the Lower Extremity Functional Scale at 12 months post-operative. Secondary outcomes include: quality of life, knee pain and function, depression, anxiety and satisfaction. Data collection will be by questionnaire prior to surgery and 3, 6 and 12 months after surgery and will include a resource-use questionnaire to enable a trial-based economic evaluation. Trial participation and satisfaction with the classes will be evaluated through structured telephone interviews. The primary statistical and economic analyses will be conducted on an intention-to-treat basis with and without imputation of missing data. The primary economic result will estimate the incremental cost per quality-adjusted life year gained from this intervention from a National Health Services (NHS) and personal social services perspective. Discussion: This research aims to benefit patients and the NHS by providing evidence on the long-term effectiveness and cost-effectiveness of outpatient physiotherapy after knee replacement. If the intervention is found to be effective and cost-effective, implementation into clinical practice could lead to improvement in patients’ outcomes and improved health care resource efficiency.
Resumo:
Les approches visant à conceptualiser les habitudes problématiques de jeux de hasard et d’argent (JHA) à l’adolescence se distinguent sur deux aspects. Premièrement, par la nature des variables impliquées dans la conceptualisation du phénomène; la plupart des approches intègrent principalement des variables de nature individuelle dans leur modélisation alors que les variables de nature sociales sont encore peu prises en compte. Le deuxième aspect concerne la distinction entre déterminisme et interactionnisme : plusieurs approches semblent s’inscrire dans un courant déterministe et peu d’entre elles s’avèrent considérer l’individu comme un acteur social dynamique et en interaction avec son environnement. Or, il est essentiel d’examiner le sens que revêtent les comportements de JHA du point de vue des acteurs et au regard du contexte social dans lequel ils évoluent afin de mieux comprendre comment ils s’inscrivent dans leur réalité. La théorie générale de la rationalité (TGR), de Raymond Boudon, offre cette possibilité. Cette étude qualitative vise donc à comprendre les rationalités sous-jacentes aux comportements de JHA d’adolescents considérés comme manifestant des habitudes problématiques sur ce plan? Cet objectif général repose sur quatre objectifs spécifiques : 1) comprendre leurs premières expériences de JHA ainsi que leur évolution, 2) situer les expériences de JHA à l’intérieur de leur contexte (contexte social de jeu, partenaires de jeu, perception de l’entourage, etc.), 3) décrire les bénéfices et les conséquences négatives liés aux JHA et 4) décrire leur perception quant au degré de sévérité de leurs habitudes de JHA. La thèse s’appuie sur une analyse secondaire de données collectées dans le cadre d’un projet de recherche pancanadien dont l’objectif était le développement et la validation de l’Inventaire canadien des jeux de hasard et d’argent chez les adolescents (Tremblay et al., 2010). Les données utilisées portent sur l’expérience des adolescents ayant des habitudes problématiques de JHA. Elles ont été récoltées dans le cadre d’entrevues semi-structurées réalisées auprès de 31 adolescents présentant des habitudes problématiques de JHA en traitement pour leur consommation de substances psychoactives (SPA). L’analyse des propos des adolescents révèle que les bénéfices associés aux premières expériences de JHA et à leur exacerbation sont de nature matérielle, émotive et sociale. Par ailleurs, les contextes physiques et sociaux dans lesquels s’actualisent les comportements de JHA sont généralement les mêmes que ceux dans lesquelles se déroule l’usage de SPA. À cet effet, trois types de relations entre usage de SPA et habitudes de JHA ressortent du discours des adolescents: circulaire (les deux activités s’alimentent mutuellement), hiérarchique (l’une prime sur l’autre) et tripartite (les deux activités sont financées par des activités externes, souvent reliées à la délinquance). Les contextes dans lesquels s’opérationnalisent ces relations contribuent à leur renforcement, mais ont également le potentiel d’en favoriser l’affaiblissement et l’extinction. Les résultats obtenus révèlent que les comportements de JHA des adolescents s’inscrivent à l’intérieur de rationalité de nature instrumentale, cognitive et axiologique et que ces rationalités modulent leur perception du degré de sévérité de leurs habitudes de JHA. À cet effet, la théorie générale de la rationalité permet un éclairage nouveau afin de mieux comprendre comment les habitudes de JHA s’inscrivent dans la réalité des adolescents et pourquoi une proportion importante d’entre eux ne perçoit pas ces dernières comme problématiques.
Resumo:
The widespread efforts to incorporate the economic values of oceans into national income accounts have reached a stage where coordination of national efforts is desirable. A symposium held in 2015 began this process by bringing together representatives from ten countries. The symposium concluded that a definition of core ocean industries was possible but beyond that core the definition of ocean industries is in flux. Better coordination of ocean income accounts will require addressing issues of aggregation, geography, partial ocean industries, confidential, and imputation is also needed. Beyond the standard national income accounts, a need to incorporate environmental resource and ecosystem service values to gain a complete picture of the economic role of the oceans was identified. The U.N. System of Environmental and Economic Accounts and the Experimental Ecosystem Service Accounts provide frameworks for this expansion. This will require the development of physical accounts of environmental assets linked to the economic accounts as well as the adaptation of transaction and welfare based economic valuation methods to environmental resources and ecosystem services. The future development of ocean economic data is most likely to require cooperative efforts at development of metadata standards and the use of multiple platforms of opportunity created by policy analysis, economic development, and conservation projects to both collect new economic data and to sustain ocean economy data collection into the future by building capacity in economic data collection and use..
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
Comme les résultats obtenus relativement à la relation entre l'utilisation de la capitalisation et le niveau d'endettement de l'entreprise sont difficiles à généraliser, ils ne permettent pas de conclure à l'existence d'une telle relation. Or, il a été démontré dans la littérature comptable, qu'en absence de normalisation, les entreprises endettées favorisent la méthode de capitalisation. Cela suggère donc que les critères énoncés par l'ICCA limitent le recours à la capitalisation. Les résultats obtenus relativement à la proportion des frais de développement capitalisés suggèrent qu'aucune relation n'existe entre la proportion capitalisée et le niveau d'endettement de l'entreprise. Cela suggère que les critères énoncés limitent le montant des frais de développement capitalisés. Par ailleurs, une association négative a été observée entre le recours à l'imputation et la taille des entreprises. Ce résultat est surprenant car les grandes entreprises sont vraisemblablement fructueuses et ont de bonnes chances de satisfaire les critères énoncés par l'ICCA. Cela suggère que les grandes entreprises se soustraient à l'obligation de capitaliser leurs frais de développement et que cela est vraisemblablement toléré par l'ICCA.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
Snapper (Pagrus auratus) is widely distributed throughout subtropical and temperate southern oceans and forms a significant recreational and commercial fishery in Queensland, Australia. Using data from government reports, media sources, popular publications and a government fisheries survey carried out in 1910, we compiled information on individual snapper fishing trips that took place prior to the commencement of fisherywide organized data collection, from 1871 to 1939. In addition to extracting all available quantitative data, we translated qualitative information into bounded estimates and used multiple imputation to handle missing values, forming 287 records for which catch rate (snapper fisher−1 h−1) could be derived. Uncertainty was handled through a parametric maximum likelihood framework (a transformed trivariate Gaussian), which facilitated statistical comparisons between data sources. No statistically significant differences in catch rates were found among media sources and the government fisheries survey. Catch rates remained stable throughout the time series, averaging 3.75 snapper fisher−1 h−1 (95% confidence interval, 3.42–4.09) as the fishery expanded into new grounds. In comparison, a contemporary (1993–2002) south-east Queensland charter fishery produced an average catch rate of 0.4 snapper fisher−1 h−1 (95% confidence interval, 0.31–0.58). These data illustrate the productivity of a fishery during its earliest years of development and represent the earliest catch rate data globally for this species. By adopting a formalized approach to address issues common to many historical records – missing data, a lack of quantitative information and reporting bias – our analysis demonstrates the potential for historical narratives to contribute to contemporary fisheries management.
Resumo:
This paper proposes arithmetic and geometric Paasche quality-adjusted price indexes that combine micro data from the base period with macro data on the averages of asset prices and characteristics at the index period.