980 resultados para Modified signed likelihood ratio statistic
Resumo:
Technical developments have made it possible to analyze very low amounts of DNA. This has many advantages, but the drawback of this technological progress is that interpretation of the results becomes increasingly complex: the number of mixed DNA profiles increased relatively to single source DNA profiles and stochastic effects in the DNA profile, such as drop-in and drop-out, are more frequently observed. Moreover, the relevance of low template DNA material regarding the activities alleged is not as straightforward as it was a few years ago, when for example large quantities of blood were recovered. The possibility of secondary and tertiary transfer is now becoming an issue. The purpose of this research is twofold: first, to study the transfer of DNA from the handler and secondly, to observe if handlers would transfer DNA from persons closely connected to them. We chose to mimic cases where the offender would attack a person with a knife. As a first approach, we envisaged that the defense would not give an alternative explanation for the origin of the DNA. In our transfer experiments (4 donors, 16 experiments each, 64 traces), 3% of the traces were single DNA profiles. Most of the time, the DNA profile of the person handling the knife was present as the major profile: in 83% of the traces the major contributor profile corresponded to the stabber's DNA profile (in single stains and mixtures). Mixture with no clear major/minor fraction (12%) were observed. 5% of the traces were considered of insufficient quality (more than 3 contributors, presence of a few minor peaks). In that case, we considered that the stabber's DNA was absent. In our experiments, no traces allowed excluding the stabber, however it must be noted that precautions were taken to minimize background DNA as knives were cleaned before the experiments. DNA profiles of the stabber's colleagues were not observed. We hope that this study will allow for a better understanding of the transfer mechanism and of how to assess and describe results given activity level propositions. In this preliminary research, we have focused on the transfer of DNA on the hand of the person. Besides, more research is needed to assign the probability of the results given an alternative activity proposed by the defense, for instance when the source of the DNA is not contested, but that the activities are.
Resumo:
The interpretation of complex DNA profiles is facilitated by a Bayesian approach. This approach requires the development of a pair of propositions: one aligned to the prosecution case and one to the defense case. This note explores the issue of proposition setting in an adversarial environment by a series of examples. A set of guidelines generalize how to formulate propositions when there is a single person of interest and when there are multiple individuals of interest. Additional explanations cover how to handle multiple defense propositions, relatives, and the transition from subsource level to activity level propositions. The propositions depend on case information and the allegations of each of the parties. The prosecution proposition is usually known. The authors suggest that a sensible proposition is selected for the defense that is consistent with their stance, if available, and consistent with a realistic defense if their position is not known.
Resumo:
The evaluation of forensic evidence can occur at any level within the hierarchy of propositions depending on the question being asked and the amount and type of information that is taken into account within the evaluation. Commonly DNA evidence is reported given propositions that deal with the sub-source level in the hierarchy, which deals only with the possibility that a nominated individual is a source of DNA in a trace (or contributor to the DNA in the case of a mixed DNA trace). We explore the use of information obtained from examinations, presumptive and discriminating tests for body fluids, DNA concentrations and some case circumstances within a Bayesian network in order to provide assistance to the Courts that have to consider propositions at source level. We use a scenario in which the presence of blood is of interest as an exemplar and consider how DNA profiling results and the potential for laboratory error can be taken into account. We finish with examples of how the results of these reports could be presented in court using either numerical values or verbal descriptions of the results.
Resumo:
BACKGROUND: For the past decade (18)F-fluoro-ethyl-l-tyrosine (FET) and (18)F-fluoro-deoxy-glucose (FDG) positron emission tomography (PET) have been used for the assessment of patients with brain tumor. However, direct comparison studies reported only limited numbers of patients. Our purpose was to compare the diagnostic performance of FET and FDG-PET. METHODS: We examined studies published between January 1995 and January 2015 in the PubMed database. To be included the study should: (i) use FET and FDG-PET for the assessment of patients with isolated brain lesion and (ii) use histology as the gold standard. Analysis was performed on a per patient basis. Study quality was assessed with STARD and QUADAS criteria. RESULTS: Five studies (119 patients) were included. For the diagnosis of brain tumor, FET-PET demonstrated a pooled sensitivity of 0.94 (95% CI: 0.79-0.98) and pooled specificity of 0.88 (95% CI: 0.37-0.99), with an area under the curve of 0.96 (95% CI: 0.94-0.97), a positive likelihood ratio (LR+) of 8.1 (95% CI: 0.8-80.6), and a negative likelihood ratio (LR-) of 0.07 (95% CI: 0.02-0.30), while FDG-PET demonstrated a sensitivity of 0.38 (95% CI: 0.27-0.50) and specificity of 0.86 (95% CI: 0.31-0.99), with an area under the curve of 0.40 (95% CI: 0.36-0.44), an LR+ of 2.7 (95% CI: 0.3-27.8), and an LR- of 0.72 (95% CI: 0.47-1.11). Target-to-background ratios of either FDG or FET, however, allow distinction between low- and high-grade gliomas (P > .11). CONCLUSIONS: For brain tumor diagnosis, FET-PET performed much better than FDG and should be preferred when assessing a new isolated brain tumor. For glioma grading, however, both tracers showed similar performances.
Resumo:
Purpose To compare the predictive capability of HPV and Pap smear tests for screening pre-cancerous lesions of the cervix over a three-year follow-up, in a population of users of the Brazilian National Health System (SUS). Methods This is a retrospective cohort study of 2,032 women with satisfactory results for Pap smear and HPV tests using second-generation hybrid capture,made in a previous study. We followed them for 36 months with data obtained from medical records, the Cervix Cancer Information System (SISCOLO), and the Mortality Information System (SIM). The outcome was a histological diagnosis of cervical intraepithelial neoplasia grade 2 or more advanced lesions (CIN2ş). We constructed progression curves of the baseline test results for the period, using the Kaplan-Meier method, and estimated sensitivity, specificity, positive and negative predictive value, and positive and negative likelihood ratios for each test. Results A total of 1,440 women had at least one test during follow-up. Progression curves of the baseline test results indicated differences in capability to detect CIN2ş (p < 0.001) with significantly greater capability when both tests were abnormal, followed by only a positive HPV test. The HPV test was more sensitive than the Pap smear (88.7% and 73.6%, respectively; p < 0.05) and had a better negative likelihood ratio (0.13 and 0.30, respectively). Specificity and positive likelihood ratio of the tests were similar. Conclusions These findings corroborate the importance of HPV test as a primary cervical cancer screening.
Resumo:
Financial time series have a tendency of abruptly changing their behavior and maintain this behavior for several consecutive periods, and commodity futures returns are not an exception. This quality proposes that nonlinear models, as opposed to linear models, can more accurately describe returns and volatility. Markov regime switching models are able to match this behavior and have become a popular way to model financial time series. This study uses Markov regime switching model to describe the behavior of energy futures returns on a commodity level, because studies show that commodity futures are a heterogeneous asset class. The purpose of this thesis is twofold. First, determine how many regimes characterize individual energy commodities’ returns in different return frequencies. Second, study the characteristics of these regimes. We extent the previous studies on the subject in two ways: We allow for the possibility that the number of regimes may exceed two, as well as conduct the research on individual commodities rather than on commodity indices or subgroups of these indices. We use daily, weekly and monthly time series of Brent crude oil, WTI crude oil, natural gas, heating oil and gasoil futures returns over 1994–2014, where available, to carry out the study. We apply the likelihood ratio test to determine the sufficient number of regimes for each commodity and data frequency. Then the time series are modeled with Markov regime switching model to obtain the return distribution characteristics of each regime, as well as the transition probabilities of moving between regimes. The results for the number of regimes suggest that daily energy futures return series consist of three to six regimes, whereas weekly and monthly returns for all energy commodities display only two regimes. When the number of regimes exceeds two, there is a tendency for the time series of energy commodities to form groups of regimes. These groups are usually quite persistent as a whole because probability of a regime switch inside the group is high. However, individual regimes in these groups are not persistent and the process oscillates between these regimes frequently. Regimes that are not part of any group are generally persistent, but show low ergodic probability, i.e. rarely prevail in the market. This study also suggests that energy futures return series characterized with two regimes do not necessarily display persistent bull and bear regimes. In fact, for the majority of time series, bearish regime is considerably less persistent. Rahoituksen aikasarjoilla on taipumus arvaamattomasti muuttaa käyttäytymistään ja jatkaa tätä uutta käyttäytymistä useiden periodien ajan, eivätkä hyödykefutuurien tuotot tee tähän poikkeusta. Tämän ominaisuuden johdosta lineaaristen mallien sijasta epälineaariset mallit pystyvät tarkemmin kuvailemaan esimerkiksi tuottojen jakauman parametreja. Markov regiiminvaihtomallit pystyvät vangitsemaan tämän ominaisuuden ja siksi niistä on tullut suosittuja rahoituksen aikasarjojen mallintamisessa. Tämä tutkimus käyttää Markov regiiminvaihtomallia kuvaamaan yksittäisten energiafutuurien tuottojen käyttäytymistä, sillä tutkimukset osoittavat hyödykefutuurien olevan hyvin heterogeeninen omaisuusluokka. Tutkimuksen tarkoitus on selvittää, kuinka monta regiimiä tarvitaan kuvaamaan energiafutuurien tuottoja eri tuottofrekvensseillä ja mitkä ovat näiden regiimien ominaisuudet. Aiempaa tutkimusta aiheesta laajennetaan määrittämällä regiimien lukumäärä tilastotieteellisen testauksen menetelmin sekä tutkimalla energiafutuureja yksittäin; ei indeksi- tai alaindeksitasolla. Tutkimuksessa käytetään päivä-, viikko- ja kuukausiaikasarjoja Brent-raakaöljyn, WTI-raakaöljyn, maakaasun, lämmitysöljyn ja polttoöljyn tuotoista aikaväliltä 1994–2014, siltä osin kuin aineistoa on saatavilla. Likelihood ratio -testin avulla estimoidaan kaikille aikasarjoille regiimien määrä,jonka jälkeen Markov regiiminvaihtomallia hyödyntäen määritetään yksittäisten regiimientuottojakaumien ominaisuudet sekä regiimien välinen transitiomatriisi. Tulokset regiimien lukumäärän osalta osoittavat, että energiafutuurien päiväkohtaisten tuottojen aikasarjoissa regiimien lukumäärä vaihtelee kolmen ja kuuden välillä. Viikko- ja kuukausituottojen kohdalla kaikkien energiafutuurien prosesseissa regiimien lukumäärä on kaksi. Kun regiimejä on enemmän kuin kaksi, on prosessilla taipumus muodostaa regiimeistä koostuvia ryhmiä. Prosessi pysyy ryhmän sisällä yleensä pitkään, koska todennäköisyys siirtyä ryhmään kuuluvien regiimien välillä on suuri. Yksittäiset regiimit ryhmän sisällä eivät kuitenkaan ole kovin pysyviä. Näin ollen prosessi vaihtelee ryhmän sisäisten regiimien välillä tiuhaan. Regiimit, jotka eivät kuulu ryhmään, ovat yleensä pysyviä, mutta prosessi ajautuu niihin vain harvoin, sillä todennäköisyys siirtyä muista regiimeistä niihin on pieni. Tutkimuksen tulokset osoittavat myös, että prosesseissa, joita ohjaa kaksi regiimiä, nämä regiimit eivät välttämättä ole pysyvät bull- ja bear-markkinatilanteet. Tulokset osoittavat sen sijaan, että bear-markkinatilanne on energiafutuureissa selvästi vähemmän pysyvä.
Resumo:
In 2003, prostate cancer (PCa) is estimated to be the most commonly diagnosed cancer and third leading cause of cancer death in Canada. During PCa population screening, approximately 25% of patients with a normal digital rectal examination (DRE) and intermediate serum prostate specific antigen (PSA) level have PCa. Since all patients typically undergo biopsy, it is expected that approximately 75% of these procedures are unnecessary. The purpose of this study was to compare the degree of efficacy of clinical tests and algorithms in stage II screening for PCa while preventing unnecessary biopsies from occurring. The sample consisted of 201 consecutive men who were suspected of PCa based on the results of a DRE and serum PSA. These men were referred for venipuncture and transrectal ultrasound (TRUS). Clinical tests included TRUS, agespecific reference range PSA (Age-PSA), prostate specific antigen density (PSAD), and free-to-total prostate specific antigen ratio (%fPSA). Clinical results were evaluated individually and within algorithms. Cutoffs of 0.12 and 0.15 ng/ml/cc were employed for PSAD. Cutoffs that would provide a minimum sensitivity of 0.90 and 0.95, respectively were utilized for %fPSA. Statistical analysis included ROC curve analysis, calculated sensitivity (Sens), specificity (Spec), and positive likelihood ratio (LR), with corresponding confidence intervals (Cl). The %fPSA, at a 23% cutoff ({ Sens=0.92; CI, 0.06}, {Spec=0.4l; CI, 0.09}, {LR=1.56; CI, O.ll}), proved to be the most efficacious independent clinical test. The combination of PSAD (cutoff 0.15 ng/ml/cc) and %fPSA (cutoff 23%) ({Sens=0.93; CI, 0.06}, {Spec=0.38; CI, 0.08}, {LR=1.50; CI, 0.10}) was the most efficacious clinical algorithm. This study advocates the use of %fPSA at a cutoff of 23% when screening patients with an intermediate serum PSA and benign DRE.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
This paper tests the predictions of the Barro-Gordon model using US data on inflation and unemployment. To that end, it constructs a general game-theoretical model with asymmetric preferences that nests the Barro-Gordon model and a version of Cukierman’s model as special cases. Likelihood Ratio tests indicate that the restriction imposed by the Barro-Gordon model is rejected by the data but the one imposed by the version of Cukierman’s model is not. Reduced-form estimates are consistent with the view that the Federal Reserve weights more heavily positive than negative unemployment deviations from the expected natural rate.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Contexte: Les facteurs de risque comportementaux, notamment l’inactivité physique, le comportement sédentaire, le tabagisme, la consommation d’alcool et le surpoids sont les principales causes modifiables de maladies chroniques telles que le cancer, les maladies cardiovasculaires et le diabète. Ces facteurs de risque se manifestent également de façon concomitante chez l’individu et entraînent des risques accrus de morbidité et de mortalité. Bien que les facteurs de risque comportementaux aient été largement étudiés, la distribution, les patrons d’agrégation et les déterminants de multiples facteurs de risque comportementaux sont peu connus, surtout chez les enfants et les adolescents. Objectifs: Cette thèse vise 1) à décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux des maladies chroniques chez les enfants et adolescents canadiens; 2) à explorer les corrélats individuels, sociaux et scolaires de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens; et 3) à évaluer, selon le modèle conceptuel de l’étude, l’influence longitudinale d’un ensemble de variables distales (c’est-à-dire des variables situées à une distance intermédiaire des comportements à risque) de type individuel (estime de soi, sentiment de réussite), social (relations sociales, comportements des parents/pairs) et scolaire (engagement collectif à la réussite, compréhension des règles), ainsi que de variables ultimes (c’est-à-dire des variables situées à une distance éloignée des comportements à risque) de type individuel (traits de personnalité, caractéristiques démographiques), social (caractéristiques socio-économiques des parents) et scolaire (type d’école, environnement favorable, climat disciplinaire) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens. Méthodes: Des données transversales (n = 4724) à partir du cycle 4 (2000-2001) de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) ont été utilisées pour décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-17 ans. L’agrégation des facteurs de risque a été examinée en utilisant une méthode du ratio de cas observés sur les cas attendus. La régression logistique ordinale a été utilisée pour explorer les corrélats de multiples facteurs de risque comportementaux dans un échantillon transversal (n = 1747) de jeunes canadiens âgés de 10-15 ans du cycle 4 (2000-2001) de l’ELNEJ. Des données prospectives (n = 1135) à partir des cycle 4 (2000-2001), cycle 5 (2002-2003) et cycle 6 (2004-2005) de l’ELNEJ ont été utilisées pour évaluer l’influence longitudinale des variables distales et ultimes (tel que décrit ci-haut dans les objectifs) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-15 ans; cette analyse a été effectuée à l’aide des modèles de Poisson longitudinaux. Résultats: Soixante-cinq pour cent des jeunes canadiens ont rapporté avoir deux ou plus de facteurs de risque comportementaux, comparativement à seulement 10% des jeunes avec aucun facteur de risque. Les facteurs de risque comportementaux se sont agrégés en de multiples combinaisons. Plus précisément, l’occurrence simultanée des cinq facteurs de risque était 120% plus élevée chez les garçons (ratio observé/attendu (O/E) = 2.20, intervalle de confiance (IC) 95%: 1.31-3.09) et 94% plus élevée chez les filles (ratio O/E = 1.94, IC 95%: 1.24-2.64) qu’attendu. L’âge (rapport de cotes (RC) = 1.95, IC 95%: 1.21-3.13), ayant un parent fumeur (RC = 1.49, IC 95%: 1.09-2.03), ayant rapporté que la majorité/tous de ses pairs consommaient du tabac (RC = 7.31, IC 95%: 4.00-13.35) ou buvaient de l’alcool (RC = 3.77, IC 95%: 2.18-6.53), et vivant dans une famille monoparentale (RC = 1.94, IC 95%: 1.31-2.88) ont été positivement associés aux multiples comportements à risque. Les jeunes ayant une forte estime de soi (RC = 0.92, IC 95%: 0.85-0.99) ainsi que les jeunes dont un des parents avait un niveau d’éducation postsecondaire (RC = 0.58, IC 95%: 0.41-0.82) étaient moins susceptibles d’avoir de multiples facteurs de risque comportementaux. Enfin, les variables de type social distal (tabagisme des parents et des pairs, consommation d’alcool par les pairs) (Log du rapport de vraisemblance (LLR) = 187.86, degrés de liberté = 8, P < 0,001) et individuel distal (estime de soi) (LLR = 76.94, degrés de liberté = 4, P < 0,001) ont significativement influencé le taux d’occurrence de multiples facteurs de risque comportementaux. Les variables de type individuel ultime (âge, sexe, anxiété) et social ultime (niveau d’éducation du parent, revenu du ménage, structure de la famille) ont eu une influence moins prononcée sur le taux de cooccurrence des facteurs de risque comportementaux chez les jeunes. Conclusion: Les résultats suggèrent que les interventions de santé publique devraient principalement cibler les déterminants de type individuel distal (tel que l’estime de soi) ainsi que social distal (tels que le tabagisme des parents et des pairs et la consommation d’alcool par les pairs) pour prévenir et/ou réduire l’occurrence de multiples facteurs de risque comportementaux chez les enfants et les adolescents. Cependant, puisque les variables de type distal (telles que les caractéristiques psychosociales des jeunes et comportements des parents/pairs) peuvent être influencées par des variables de type ultime (telles que les caractéristiques démographiques et socioéconomiques), les programmes et politiques de prévention devraient également viser à améliorer les conditions socioéconomiques des jeunes, particulièrement celles des enfants et des adolescents des familles les plus démunies.
Resumo:
Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.
Resumo:
In this paper, the residual Kullback–Leibler discrimination information measure is extended to conditionally specified models. The extension is used to characterize some bivariate distributions. These distributions are also characterized in terms of proportional hazard rate models and weighted distributions. Moreover, we also obtain some bounds for this dynamic discrimination function by using the likelihood ratio order and some preceding results.
Characterizations of Bivariate Models Using Some Dynamic Conditional Information Divergence Measures
Resumo:
In this article, we study some relevant information divergence measures viz. Renyi divergence and Kerridge’s inaccuracy measures. These measures are extended to conditionally specifiedmodels and they are used to characterize some bivariate distributions using the concepts of weighted and proportional hazard rate models. Moreover, some bounds are obtained for these measures using the likelihood ratio order
Resumo:
Developments in the statistical analysis of compositional data over the last two decades have made possible a much deeper exploration of the nature of variability, and the possible processes associated with compositional data sets from many disciplines. In this paper we concentrate on geochemical data sets. First we explain how hypotheses of compositional variability may be formulated within the natural sample space, the unit simplex, including useful hypotheses of subcompositional discrimination and specific perturbational change. Then we develop through standard methodology, such as generalised likelihood ratio tests, statistical tools to allow the systematic investigation of a complete lattice of such hypotheses. Some of these tests are simple adaptations of existing multivariate tests but others require special construction. We comment on the use of graphical methods in compositional data analysis and on the ordination of specimens. The recent development of the concept of compositional processes is then explained together with the necessary tools for a staying- in-the-simplex approach, namely compositional singular value decompositions. All these statistical techniques are illustrated for a substantial compositional data set, consisting of 209 major-oxide and rare-element compositions of metamorphosed limestones from the Northeast and Central Highlands of Scotland. Finally we point out a number of unresolved problems in the statistical analysis of compositional processes