883 resultados para Variable sample size X- control chart
Resumo:
The present study tested the appHcabiUty of Ajzen's (1985) theory of planned behaviour (TPB), an extension of Fishbein and Ajzen's (1975) theory of reasoned action (TRA), for the first time, in the context of abused women's decision to leave their abusive relationships. The TPB, as a means of predicting women's decision to leave their abusive partners' was drawn from Strube's (1988, 1991) proposed decision-making model based on the principle that the decision-making process is a rational, deliberative process, and regardless of outcome, was a result of a logical assessment of the available data. As a means of predicting those behaviours not under volitional control, Ajzen's (1985) TPB incorporated a measure of perceived behavioural control. Data were collected in two phases, ranging from 6 months to 1 year apart. It was hypothesized that, to the extent that an abused woman held positive attitudes, subjective norms conducive to leaving, and perceived control over leaving, she would form an intention to leave and thus, increase the likelihood of actually leaving her partner. Furthermore, it was expected that perceptions of control would predict leaving behaviour over and above attitude and subjective norm. In addition, severity and frequency of abuse were assessed, as were demographic variables. The TPB failed to account significantly for variability in either intentions or leaving behaviour. All of the variance was attributed to those variables associated with the theory of reasoned action, with social influence emerging as the strongest predictor of a woman's intentions. The poor performance of this model is attributed to measurement problems with aspects of attitude and perceived control, as well as a lack of power due to the small sample size. The insufficiency of perceived control to predict behaviour also suggests that, on the surface at least, other factors may be at work in this context. Implications of these results, and recommendations such as, the importance of obtaining representative samples, the inclusion of self-esteem and emotions as predictor variables in this model, a reevaluation of the target behaviovu" as nonvolitional, and longitudinal studies spanning a longer time period for future research within the context of decision-making are discussed.
Resumo:
The quantitative component of this study examined the effect of computerassisted instruction (CAI) on science problem-solving performance, as well as the significance of logical reasoning ability to this relationship. I had the dual role of researcher and teacher, as I conducted the study with 84 grade seven students to whom I simultaneously taught science on a rotary-basis. A two-treatment research design using this sample of convenience allowed for a comparison between the problem-solving performance of a CAI treatment group (n = 46) versus a laboratory-based control group (n = 38). Science problem-solving performance was measured by a pretest and posttest that I developed for this study. The validity of these tests was addressed through critical discussions with faculty members, colleagues, as well as through feedback gained in a pilot study. High reliability was revealed between the pretest and the posttest; in this way, students who tended to score high on the pretest also tended to score high on the posttest. Interrater reliability was found to be high for 30 randomly-selected test responses which were scored independently by two raters (i.e., myself and my faculty advisor). Results indicated that the form of computer-assisted instruction (CAI) used in this study did not significantly improve students' problem-solving performance. Logical reasoning ability was measured by an abbreviated version of the Group Assessment of Lx)gical Thinking (GALT). Logical reasoning ability was found to be correlated to problem-solving performance in that, students with high logical reasoning ability tended to do better on the problem-solving tests and vice versa. However, no significant difference was observed in problem-solving improvement, in the laboratory-based instruction group versus the CAI group, for students varying in level of logical reasoning ability.Insignificant trends were noted in results obtained from students of high logical reasoning ability, but require further study. It was acknowledged that conclusions drawn from the quantitative component of this study were limited, as further modifications of the tests were recommended, as well as the use of a larger sample size. The purpose of the qualitative component of the study was to provide a detailed description ofmy thesis research process as a Brock University Master of Education student. My research journal notes served as the data base for open coding analysis. This analysis revealed six main themes which best described my research experience: research interests, practical considerations, research design, research analysis, development of the problem-solving tests, and scoring scheme development. These important areas ofmy thesis research experience were recounted in the form of a personal narrative. It was noted that the research process was a form of problem solving in itself, as I made use of several problem-solving strategies to achieve desired thesis outcomes.
Resumo:
This research investigated the impact of stress management and relaxation techniques on psoriasis. It had a dual purpose to see if stress management and relaxation techniques, as an adjunct to traditional medical treatment, would improve the skin condition of psoriasis. In addition it attempted to provide psoriasis patients with a sense of control over their illness by educating them about the connection between mind and body through learning stress management and relaxation techniques. The former purpose was addressed quantitatively, while the latter was addressed qualitatively. Using an experimental design, the quantitative study tested the efficacy of stress management and relaxation techniques on 38 dermatological patients from St. John's, Newfoundland. The study which lasted ten weeks, suggested a weak relationship between psoriasis and stress. These relationships were not statistically significant. The qualitative data were gathered through unstructured interviews and descriptive/interpretative analysis was used to evaluate them. Patients in the experimental group believed in the mind body connection as it related to their illness and stress. The findings also showed that the patients believed that the stress reduction and relaxation techniques improved their quality of life, their level of psoriasis, and their ability to live with the condition. Based on the contradictory nature of the findings, further research is needed. It is posited that replication of this study would be vastly improved by increasing the sample size to increase the possibility of significant findings. As wel~ increasing the length of time for the experiment would control for the possibility of a lag effect. Finally, the study looked at linear relationships between stress and psoriasis. Further study should ascertain whether the relationship might be nonlinear
Resumo:
Euclidean distance matrix analysis (EDMA) methods are used to distinguish whether or not significant difference exists between conformational samples of antibody complementarity determining region (CDR) loops, isolated LI loop and LI in three-loop assembly (LI, L3 and H3) obtained from Monte Carlo simulation. After the significant difference is detected, the specific inter-Ca distance which contributes to the difference is identified using EDMA.The estimated and improved mean forms of the conformational samples of isolated LI loop and LI loop in three-loop assembly, CDR loops of antibody binding site, are described using EDMA and distance geometry (DGEOM). To the best of our knowledge, it is the first time the EDMA methods are used to analyze conformational samples of molecules obtained from Monte Carlo simulations. Therefore, validations of the EDMA methods using both positive control and negative control tests for the conformational samples of isolated LI loop and LI in three-loop assembly must be done. The EDMA-I bootstrap null hypothesis tests showed false positive results for the comparison of six samples of the isolated LI loop and true positive results for comparison of conformational samples of isolated LI loop and LI in three-loop assembly. The bootstrap confidence interval tests revealed true negative results for comparisons of six samples of the isolated LI loop, and false negative results for the conformational comparisons between isolated LI loop and LI in three-loop assembly. Different conformational sample sizes are further explored by combining the samples of isolated LI loop to increase the sample size, or by clustering the sample using self-organizing map (SOM) to narrow the conformational distribution of the samples being comparedmolecular conformations. However, there is no improvement made for both bootstrap null hypothesis and confidence interval tests. These results show that more work is required before EDMA methods can be used reliably as a method for comparison of samples obtained by Monte Carlo simulations.
Resumo:
It is well documented that the majority of Tuberculosis (TB) cases diagnosed in Canada are related to foreign-bom persons from TB high-burden countries. The Canadian seasonal agricultural workers program (SAWP) operating with Mexico allows migrant workers to enter the country with a temporary work permit for up to 8 months. Preiimnigration screening of these workers by both clinical examination and chest X-ray (CXR) reduces the risk of introducing cases of active pulmonary TB to Canada, but screening for latent TB (LTBI) is not routinely done. Studies carried out in industrialized nations with high immigration from TBendemic countries provide data of lifetime LTBI reactivation of around 10% but little is known about reactivation rates within TB-endemic countries where new infections (or reinfections) may be impossible to distinguish from reactivation. Migrant populations like the SAWP workers who spend considerable amounts of time in both Canada and TBendemic rural areas in Mexico are a unique population in terms of TB epidemiology. However, to our knowledge no studies have been undertaken to explore either the existence of LTBI among Mexican workers, the probability of reactivation or the workers' exposure to TB cases while back in their communities before returning the following season. Being aware of their LTBI status may help workers to exercise healthy behaviours to avoid TB reactivation and therefore continue to access the SAWP. In order to assess the prevalence of LTBI and associated risk factors among Mexican migrant workers a preliminary cross sectional study was designed to involve a convenience sample of the Niagara Region's Mexican workers in 2007. Research ethics clearance was granted by Brock University. Individual questionnaires were administered to collect socio-demographic and TB-related epidemiological data as well as TB knowledge and awareness levels. Cellular immunity to M tuberculosis was assessed by both an Interferon-y release assay (lGRA), QuantiFERON -TB Gold In-Tube (QFf™) and by the tuberculin skin test (TSn using Mantoux. A total of 82 Mexican workers (out of 125 invited) completed the study. Most participants were male (80%) and their age ranged from 22 to 65 years (mean 38.5). The prevalence of LTBI was 34% using TST and 18% using QFTTM. As previously reported, TST (using ~lOmm cut-off) showed a sensitivity of 93.3% and a specificity of 79.1 %. These findings at the moment cannot predict the probability of progression to active TB; only longitudinal cohort studies of this population can ascertain this outcome. However, based on recent publications, lORA positive individuals may have up to 14% probability of reactivation within the next two years. Although according to the SA WP guidelines, all workers undergo TB screening before entering or re-entering Canada, CXR examination requirements showed to be inconsistent for this population: whereas 100% of the workers coming to Canada for the first time reported having the procedure done, only 31 % of returning participants reported having had a CXR in the past year. None of the participants reported ever having a CXR compatible with TB which was consistent with the fact that none had ever been diagnosed with active pulmonary TB and with only 3.6% reporting close contact with a person with active TB in their lifetime. Although Mexico reports that 99% of popUlation is fully immunized against TB within the first year of age, only 85.3% of participants reported receiving BOC vaccine in childhood. Conversely, even when TST is not part of the routine TB screening in endemic countries, a suqDrisingly high 25.6% reported receiving a TST in the past. In regards to TB knowledge and awareness, 74% of the studied population had previous knowledge about (active) TB, 42% correctly identified active TB symptomatology, 4.8% identified the correct route of transmission, 4.8% knew about the existence of LTBI, 3.6% knew that latent TB could reactivate and 48% recognized TB as treatable and curable. Of all variables explored as potential risk factors for LTBI, age was the only one which showed statistical significance. Significant associations could not be proven for other known variables (such as sex, TB contact, history of TB) probably because of the small sample size and the homogeneity of the sample. Screening for LTBI by TST (high sensitivity) followed by confirmation with QFT''"'^ (high specificity) suggests to be a good strategy especially for immigrants from TB high-burden countries. After educational sessions, workers positive for LTBI gained greater knowledge about the signs and symptoms of TB reactivation as well as the risk factors commonly associated with reactivation. Additionally, they were more likely to attend their annual health check up and request a CXR exam to monitor for TB reactivation.
Resumo:
Imaging studies have shown reduced frontal lobe resources following total sleep deprivation (TSD). The anterior cingulate cortex (ACC) in the frontal region plays a role in performance monitoring and cognitive control; both error detection and response inhibition are impaired following sleep loss. Event-related potentials (ERPs) are an electrophysiological tool used to index the brain's response to stimuli and information processing. In the Flanker task, the error-related negativity (ERN) and error positivity (Pe) ERPs are elicited after erroneous button presses. In a Go/NoGo task, NoGo-N2 and NoGo-P3 ERPs are elicited during high conflict stimulus processing. Research investigating the impact of sleep loss on ERPs during performance monitoring is equivocal, possibly due to task differences, sample size differences and varying degrees of sleep loss. Based on the effects of sleep loss on frontal function and prior research, it was expected that the sleep deprivation group would have lower accuracy, slower reaction time and impaired remediation on performance monitoring tasks, along with attenuated and delayed stimulus- and response-locked ERPs. In the current study, 49 young adults (24 male) were screened to be healthy good sleepers and then randomly assigned to a sleep deprived (n = 24) or rested control (n = 25) group. Participants slept in the laboratory on a baseline night, followed by a second night of sleep or wake. Flanker and Go/NoGo tasks were administered in a battery at 1O:30am (i.e., 27 hours awake for the sleep deprivation group) to measure performance monitoring. On the Flanker task, the sleep deprivation group was significantly slower than controls (p's <.05), but groups did not differ on accuracy. No group differences were observed in post-error slowing, but a trend was observed for less remedial accuracy in the sleep deprived group compared to controls (p = .09), suggesting impairment in the ability to take remedial action following TSD. Delayed P300s were observed in the sleep deprived group on congruent and incongruent Flanker trials combined (p = .001). On the Go/NoGo task, the hit rate (i.e., Go accuracy) was significantly lower in the sleep deprived group compared to controls (p <.001), but no differences were found on false alarm rates (i.e., NoGo Accuracy). For the sleep deprived group, the Go-P3 was significantly smaller (p = .045) and there was a trend for a smaller NoGo-N2 compared to controls (p = .08). The ERN amplitude was reduced in the TSD group compared to controls in both the Flanker and Go/NoGo tasks. Error rate was significantly correlated with the amplitude of response-locked ERNs in control (r = -.55, p=.005) and sleep deprived groups (r = -.46, p = .021); error rate was also correlated with Pe amplitude in controls (r = .46, p=.022) and a trend was found in the sleep deprived participants (r = .39, p =. 052). An exploratory analysis showed significantly larger Pe mean amplitudes (p = .025) in the sleep deprived group compared to controls for participants who made more than 40+ errors on the Flanker task. Altered stimulus processing as indexed by delayed P3 latency during the Flanker task and smaller amplitude Go-P3s during the Go/NoGo task indicate impairment in stimulus evaluation and / or context updating during frontal lobe tasks. ERN and NoGoN2 reductions in the sleep deprived group confirm impairments in the monitoring system. These data add to a body of evidence showing that the frontal brain region is particularly vulnerable to sleep loss. Understanding the neural basis of these deficits in performance monitoring abilities is particularly important for our increasingly sleep deprived society and for safety and productivity in situations like driving and sustained operations.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Le cancer du sein est une maladie multifactorielle, plusieurs facteurs socio-économiques, alimentaires ainsi que le style de vie ayant été incriminés dans son développement. Une mutation germinale sur un des gènes BRCA1 ou BRCA2 serait responsable d’une augmentation du risque de développer un cancer du sein de 50 à 80% chez les femmes porteuses d’une mutation sur BRCA1 ou BRCA2 par comparaison aux non- porteuses. Plusieurs études rapportant l’existence d’une association entre la fréquence des cancers du sein sporadiques, les habitudes alimentaires et le style de vie des femmes atteintes, ceci, nous a amené à nous interroger sur le rôle que pourrait jouer ces mêmes facteurs chez les femmes porteuses d’une mutation sur BRCA1 ou BRCA2. Pour répondre à cette question, nous avons effectué une étude cas-témoin. Nos quarante-quatre cas sont porteuses d’une mutation germinale parmi 6 des 14 mutations fondatrices sur BRCA1 et BRCA2 les plus fréquentes dans la population Canadienne Française. Elles sont issues d’une cohorte de plus de 1000 femmes Canadiennes Françaises atteintes de cancers du sein recrutées depuis 1994 et testées pour ces 6 mutations. Les témoins sont recrutés parmi des femmes de la population Canadienne Française, également porteuses d’une de ces six mutations fondatrices de BRCA1 ou BRCA2, mais indemnes de cancers. Quinze d’entre elles ont été recrutées dans les familles des cas de l’étude initiale. Vingt-neuf ont été recrutées à la clinique des cancers familiaux du CHUM, nous permettant ainsi de totaliser 44 témoins. Deux questionnaires ont été administrés aux cas et aux témoins. Le premier, dit Questionnaire de base, a servi à recenser les informations sociodémographiques et le style de vie, couvrant ainsi les deux années précédant la découverte du cancer du sein pour les cas et les deux années précédant la découverte de la mutation pour les témoins. Le deuxième questionnaire, Questionnaire de nutrition, a permis de colliger les informations sur les habitudes alimentaires durant la même période de recueil de données. Une association positive et significative entre le risque de cancer du sein et le niveau d’éducation a été observé parmi les sujets de niveau universitaire (>14 années d’étude) comparés aux sujets n’ayant pas dépassé le niveau d’études secondaires (<11 années d’études) [OR= 7,82; IC95% : (1,99-30,69); p=0,003]. Nous avons mis en évidence que le risque de cancer du sein augmentait lorsque les sujets atteignaient leur poids maximum à un âge avancé > 48 ans [OR = 4,27 ; IC 95% : (0,82-22,25)]. Nous avons montré que le risque du cancer du sein diminuait pour une durée d’allaitement supérieure à 7 mois par comparaison aux femmes n’ayant jamais allaité [OR= 0,35; IC 95% : (0,12-1,06)] mais cette association est non significative. Les porteuses qui pratiquent plus de 22,45 Met-h-sem d’activité physique modérée, comparativement à celles qui pratiquent moins de 11,45 Met-h-sem voient leur risque de cancer du sein diminué de 72% [OR=0,28- IC 95% : (0,08-0,95); p=0,04]. Celles qui pratiquent plus de 31,95 Met-h-sem d’activité physique totale comparativement à celles qui pratiquent moins de 16,40 Met-h-sem voient leur risque de cancer du sein réduit de 79 % [OR=0,21; IC 95% : (0,06-0,75); p= 0,02]. L’analyse des macro et micronutriments et des groupes alimentaires a démontré qu’une consommation de plus de 23,20 g/j d’acide gras monoinsaturés est responsable d’une augmentation du risque de cancer du sein de 6 fois par comparaison à une consommation inférieure à 17,08 g/j [OR=6,00; IC 95% : (0,97-37,02); p=0,05]. Une consommation de plus de 221,79 µg/j de vitamine K réduit le risque du cancer du sein de 83 % par comparaison à une consommation inférieure à 143,57 µg/j [OR= 0,17; IC95% : (0,05-0,61) ; p=0,007]. La consommation de fruits est associée à une réduction du risque de cancer du sein de 73% chez les porteuses de mutations qui en consomment plus de 563,31 g/j comparée à celles qui en consomment moins de 356,18 g/j [OR= 0,27; IC 95% : (0,07-1,01) ; p=0,05]. Nos résultats confortent l’hypothèse selon laquelle le style de vie et les habitudes alimentaires jouent un rôle dans le développement du cancer du sein chez les Canadiennes Françaises porteuses de mutations d’une des 6 mutations fondatrices de BRCA1 ou 2 étudiées. En effet, un niveau d’éducation élevé, un gain de poids sont associés à un risque élevé de développer un cancer du sein. De plus la pratique de l’allaitement et d’une activité physique modérée sont associées à une réduction de ce risque. Nous montrons aussi que la consommation d’acides gras monoinsaturés est responsable d’une augmentation du risque de ce cancer et que la consommation de vitamine K et de fruits permet de réduire ce risque. Nos résultats ouvrent une nouvelle voie de recherche par rapport au rôle de certains nutriments dans le développement du cancer du sein chez les porteuses de mutation d’un des gènes BRCA. Cette voie pourrait également être explorée chez les non porteuses.
Resumo:
En partant de quelques difficultés observées autour des aspects de la conceptualisation technoscientifique et de l’intégration de la de la théorie et la pratique dans l’apprentissage de la physiologie animale chez les étudiants du programme de Zootechnie de l’Université Nationale de Colombie, siège Medellín, cette recherche propose une stratégie didactique s’appuyant sur la méthode de l’Apprentissage Basé sur les Problèmes (ABP), appliquée spécifiquement aux sujets de thermorégulation et stress physiologique des animaux domestiques. Dans cette étude de cas on a travaillé avec un échantillon de huit étudiants à qui on a présenté dès la première session un problème didactique pour être résolu à travers le cours. Afin d’évaluer le processus on a réalisé trois enquêtes nommées Épreuves de Niveau de Formulation (NF) réalisées à différents moments de l’essai : l’une avant de commencer avec le sujet (NF 1), l’autre après la troisième classe théorique donnée et avant de faire la pratique sur le terrain (NF 2), et l’autre à la fin du processus (NF 3). Finalement on a réalisé des entretiens individuels avec chaque étudiant afin de connaître sa perception concernant la méthode. L’information obtenue a été soumise à une analyse qualitative et par des correspondances, par le biais du programme QDA Miner à travers de la révision et codification des textes provenants des enquêtes et de l’entretien individuel, complétés à leur tour par des observations sur le terrain, en analysant le changement conceptuel, la relation théorie-pratique et les correspondances entre les variables et les catégories établies. Parmi les principaux résultats obtenus on souligne le fait qu’après avoir appliqué l’ABP dans ce cours de Physiologie Animale le changement conceptuel a été favorisé et le problème formulé a servi comme connecteur entre la théorie et la pratique. En outre, on a observé la fusion des connaissances préalables avec les nouveaux acquis, l’apprentissage significatif, l’amélioration du niveau de formulation et l’augmentation de la scientificité des définitions; également il a mené à la solution viii de problèmes et à surmonter les obstacles épistémologiques comme la pluridisciplinarité et la non-linéarité. Il reste comme recommandation celle d’évaluer cette méthode dans d’autres sujets de la Physiologie Animale, dans d’autres sciences, dans des échantillons d’une taille majeure, ainsi comme approcher le sujet de l’évaluation appliquée directement à cette méthode.
Resumo:
Extensive social choice theory is used to study the problem of measuring group fitness in a two-level biological hierarchy. Both fixed and variable group size are considered. Axioms are identified that imply that the group measure satisfies a form of consequentialism in which group fitness only depends on the viabilities and fecundities of the individuals at the lower level in the hierarchy. This kind of consequentialism can take account of the group fitness advantages of germ-soma specialization, which is not possible with an alternative social choice framework proposed by Okasha, but which is an essential feature of the index of group fitness for a multicellular organism introduced by Michod, Viossat, Solari, Hurand, and Nedelcu to analyze the unicellular-multicellular evolutionary transition. The new framework is also used to analyze the fitness decoupling between levels that takes place during an evolutionary transition.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.
Resumo:
Objetivo: determinar los factores de riesgo asociados a la mayor severidad de EMH. Materiales y Métodos: estudio observacional con componente analítico tipo casos y controles. Resultados: total de pacientes 64, 13 (20.3%) con EMH severa y 51 EMH leve moderada. Se encontró relación entre la ruptura prematura de membranas, la cesárea sin trabajo de parto, la asfixia-acidosis fetal y la infección neonatal temprana con mayor requerimiento surfactante p<0.05. La PMVA requerida fue mayor en los hijos de madre diabética y los recién nacidos con asfixia-acidosis fetal p<0.05. El tiempo de ventilación mecánica fue menor en los que recibieron esteroides antenatales p<0.05. Se encontró una tendencia para presentar EMH severa en los pacientes con diabetes gestacional, quienes tuvieron un parto por cesárea sin haber iniciado el trabajo de parto o tuvieron el antecedente de hemorragia del tercer trimestre. Conclusiones: no se encontraron diferencias significativas en las variables de Diabetes gestacional, Hemorragia del tercer trimestre y cesárea sin trabajo de parto, probablemente por el tamaño de la muestra. Se considera entonces la posibilidad de realizar más estudios a futuro que relacionen estos factores con la severidad de la enfermedad de membrana hialina. Objetivo: Determinar los factores de riesgo asociados a la mayor severidad de EMH. Materiales y Métodos: Estudio observacional con componente analítico tipo casos y controles. Resultados: Total de pacientes 64, 13 (20.3%) con EMH severa y 51 EMH leve moderada. Se encontró relación entre la ruptura prematura de membranas, la cesárea sin trabajo de parto, la asfixia-acidosis fetal y la infección neonatal temprana con mayor requerimiento surfactante p<0.05. La PMVA requerida fue mayor en los hijos de madre diabética y los recién nacidos con asfixia-acidosis fetal p<0.05. El tiempo de ventilación mecánica fue menor en los que recibieron esteroides antenatales p<0.05. Se encontró una tendencia para presentar EMH severa en los pacientes con diabetes gestacional, quienes tuvieron un parto por cesárea sin haber iniciado el trabajo de parto o tuvieron el antecedente de hemorragia del tercer trimestre. Conclusiones: No se encontraron diferencias significativas en las variables de Diabetes gestacional, Hemorragia del tercer trimestre y cesárea sin trabajo de parto, probablemente por el tamaño de la muestra. Se considera entonces la posibilidad de realizar más estudios a futuro que relacionen estos factores con la severidad de la enfermedad de membrana hialina. Palabras Claves: Enfermedad de membrana hialina, ruptura prematura de membranas, diabetes gestacional.
Resumo:
El cáncer de cuello uterino y su mortalidad en Colombia ha permanecido constantes pese a los esfuerzos institucionales, distritales y nacionales que han buscado fortalecer los programas de prevención; sin embargo las estrategias actuales hacen énfasis en la toma de citología y no en la solicitud oportuna del resultado y el tratamiento de la usuaria en caso de anormalidad. METODOLOGIA: Se realizó un estudio en dos fases, un análisis descriptivo se analizaron 12875 y una segunda que involucro 257 pacientes en un análisis de casos y controles de una muestra aleatoria. RESULTADOS: Se utiliza para análisis bivariado la prueba de Chi cuadrado y regresión logística que muestran diferencias significativas en los siguientes variables: la explicación sobre la importancia del examen (p= 0.0060), importancia de la solicitud de resultado (p= 0.003), explicación sobre cuando reclamarlo (p=0.030), distancia entre residencia y centro de salud (p=0.065) DISCUSIÓN: En nuestro estudio se identificó que los factores como el acceso de la paciente al centro de salud, el tiempo del cual dispone para solicitar el resultado, si el dinero con el que cuenta la paciente para desplazarse al hospital, si es la primera vez que se realiza la citología, si le explicaron la importancia de reclamar el resultado y en que lapso de tiempo debía hacerlo, la información que tiene acerca de la importancia de realizarse la citología contribuyen en el hecho de que una paciente de esta población de un hospital público reclame o no su resultado de su citología
Resumo:
Objetivos: La mediastinitis se presenta hasta en el 4% de los pacientes sometidos a revascularización miocárdica, con un mortalidad hospitalaria reportada del 14 al 47%, generando aumento en los costos de atención, deterioro de la calidad de vida y la sobrevida a largo plazo del enfermo; su etiología es multifactorial. El objetivo de este estudio fue determinar cuáles antecedentes clínicos del paciente y factores relacionados con el procedimiento quirúrgico se asocian con la aparición mediastinitis. Métodos: Diseño de casos y controles anidado en una cohorte histórica de pacientes sometidos a revascularización miocárdica en el periodo de enero de 2005 a julio de 2011. Los pacientes con mediastinitis se compararon con un grupo control sin mediastinitis tomados del mismo grupo de riesgo en una relación 1:4, y pareados por fecha de cirugía. El diagnóstico de mediastinitis se hizo con criterios clínicos, de laboratorio y hallazgos quirúrgicos. Resultados: Se identificaron 30 casos en ese periodo. Los factores asociados a la aparición del evento fueron: Diabetes Mellitus OR 2,3 (1.1- 4,9), uso de circulación extracorpórea OR 2,4 (1,1 -5.5), tiempo de perfusión OR 1,1 (1,1 – 1.3) y pacientes mayores de 70 años OR 1.1 (1,2-1-4). Conclusiones: La mediastinitis sigue siendo una complicación de baja prevalencia con consecuencias devastadoras. El impacto clínico y económico de esta complicación debe obligar a los grupos quirúrgicos a crear estrategias de prevención con base en el conocimiento de los factores de riesgo de su población.